Liderzy ds. bezpieczeństwa twierdzą, że tokeny dostępu i konta usługowe stanowią rosnące ryzyko.
Tożsamości maszyn, takie jak tokeny dostępu i konta usługowe, są typowane jako kolejny duży cel dla cyberataków.
Według najnowszego raportu badawczego Venafi, „Wpływ tożsamości maszyn na stan bezpieczeństwa chmury natywnej w 2024 roku„, 86% organizacji doświadczyło incydentu bezpieczeństwa związanego z ich środowiskiem chmury natywnej w ciągu ostatniego roku.
W rezultacie ponad połowa musiała opóźnić uruchomienie aplikacji lub spowolnić czas produkcji, podczas gdy 45% doświadczyło awarii lub zakłóceń w działaniu usług aplikacyjnych. Trzy na dziesięć organizacji stwierdziły, że incydent umożliwił atakującym nieautoryzowany dostęp do danych, sieci i systemów.
Podobnie, prawie dziewięciu na dziesięciu liderów ds. bezpieczeństwa uważa, że tożsamości maszyn – w szczególności tokeny dostępu i powiązane z nimi konta usługowe – są kolejnym dużym celem dla atakujących.
Ponad połowa stwierdziła, że doświadczyła incydentu bezpieczeństwa związanego z tożsamościami maszyn używającymi kont usługowych w ciągu ostatniego roku.
„Ogromna fala cyberataków uderzyła teraz w infrastrukturę chmury natywnej, wpływając na większość nowoczesnych środowisk aplikacyjnych” — powiedział Kevin Bocek, dyrektor ds. innowacji w Venafi.
„Co gorsza, cyberprzestępcy wykorzystują AI na różne sposoby, aby uzyskać nieautoryzowany dostęp i eksploatować tożsamości maszyn przy użyciu kont usługowych na coraz większą skalę. Ilość, różnorodność i szybkość tożsamości maszyn stają się marzeniem atakującego” — dodał.
Podczas gdy tokeny dostępu używane z kontami usługowymi znalazły się na szczycie listy ryzyka z 56% respondentów, prawie tyle samo doświadczyło incydentów związanych z innymi tożsamościami maszyn, takimi jak certyfikaty.
Sprawdź też: Zakłócanie sygnału GPS (treść partnera)
Venafi przypisuje to rosnącej złożoności środowisk chmury natywnej, co utrudnia zarządzanie i zabezpieczanie tożsamości maszyn, które są podstawą dostępu i uwierzytelniania.
Trzy czwarte liderów ds. bezpieczeństwa zgodziło się, że ludzie są najsłabszym ogniwem w bezpieczeństwie tożsamości maszyn, podczas gdy 83% zespołów twierdzi, że brak zabezpieczenia tożsamości maszyn na poziomie obciążenia czyni wszystkie inne zabezpieczenia przestarzałymi.
Prawie siedmiu na dziesięciu opisało zapewnienie bezpiecznego dostępu między ich środowiskami chmury natywnej a centrami danych jako „koszmar do zarządzania”, podczas gdy 89% stwierdziło, że doświadczają wyzwań związanych z zarządzaniem i zabezpieczaniem tajemnic na dużą skalę.
Co ważne, 83% stwierdziło, że posiadanie wielu kont usługowych tworzy wiele dodatkowej złożoności. Mimo to dziewięciu na dziesięciu zgodziło się, że ułatwiają one zapewnienie jednolitego definiowania i egzekwowania polityk w środowiskach chmury natywnej.
„Atakujący coraz bardziej skupiają się na tożsamościach maszyn w technologiach chmury natywnej,” powiedział Bocek. „Zespoły ds. bezpieczeństwa muszą priorytetowo traktować bezpieczeństwo tożsamości maszyn na równi z tożsamościami ludzkimi.”
Zatrucie AI kluczowym problemem
W innym miejscu raportu Venafi, ponad trzy czwarte respondentów wskazało zatrucie AI jako wiodące nowe ryzyko w łańcuchu dostaw oprogramowania.
Zatrucie AI odnosi się do technik, w których dane wejściowe i wyjściowe AI są manipulowane w celach złośliwych. Można tak zhakować np. Gemini 2.0.
„AI ma ogromny potencjał, aby pozytywnie przekształcić nasz świat, ale musi być chroniona” — powiedział Bocek.
„Niezależnie od tego, czy to atakujący wkrada się i korumpuje lub nawet kradnie model, cyberprzestępca podszywający się pod AI, aby uzyskać nieautoryzowany dostęp, czy jakaś nowa forma ataku, o której jeszcze nie pomyśleliśmy, zespoły ds. bezpieczeństwa muszą być na czołowej pozycji.
„To dlatego wyłącznik awaryjny dla AI – oparty na unikalnej tożsamości poszczególnych modeli szkolonych, wdrażanych i uruchamianych – jest bardziej krytyczny niż kiedykolwiek.”
Trzy czwarte również martwi się kradzieżą modeli, a 73% obawia się wykorzystania AI do inżynierii społecznej, podczas gdy 72% martwi się o pochodzenie w łańcuchu dostaw AI.
Mimo to sześciu na dziesięciu stwierdziło, że wyższe kierownictwo odwróciło swoją uwagę od bezpieczeństwa łańcucha dostaw w ciągu ostatniego roku.
Czytaj też: