Ataki na tożsamości maszyn będą priorytetem dla liderów ds. bezpieczeństwa w 2025 roku

Liderzy ds. bezpieczeństwa twierdzą, że tokeny dostępu i konta usługowe stanowią rosnące ryzyko.

Tożsamości maszyn, takie jak tokeny dostępu i konta usługowe, są typowane jako kolejny duży cel dla cyberataków.

Według najnowszego raportu badawczego Venafi, „Wpływ tożsamości maszyn na stan bezpieczeństwa chmury natywnej w 2024 roku„, 86% organizacji doświadczyło incydentu bezpieczeństwa związanego z ich środowiskiem chmury natywnej w ciągu ostatniego roku.

Advertisement

W rezultacie ponad połowa musiała opóźnić uruchomienie aplikacji lub spowolnić czas produkcji, podczas gdy 45% doświadczyło awarii lub zakłóceń w działaniu usług aplikacyjnych. Trzy na dziesięć organizacji stwierdziły, że incydent umożliwił atakującym nieautoryzowany dostęp do danych, sieci i systemów.

Podobnie, prawie dziewięciu na dziesięciu liderów ds. bezpieczeństwa uważa, że tożsamości maszyn – w szczególności tokeny dostępu i powiązane z nimi konta usługowe – są kolejnym dużym celem dla atakujących.

Ponad połowa stwierdziła, że doświadczyła incydentu bezpieczeństwa związanego z tożsamościami maszyn używającymi kont usługowych w ciągu ostatniego roku.

„Ogromna fala cyberataków uderzyła teraz w infrastrukturę chmury natywnej, wpływając na większość nowoczesnych środowisk aplikacyjnych” — powiedział Kevin Bocek, dyrektor ds. innowacji w Venafi.

„Co gorsza, cyberprzestępcy wykorzystują AI na różne sposoby, aby uzyskać nieautoryzowany dostęp i eksploatować tożsamości maszyn przy użyciu kont usługowych na coraz większą skalę. Ilość, różnorodność i szybkość tożsamości maszyn stają się marzeniem atakującego” — dodał.

Podczas gdy tokeny dostępu używane z kontami usługowymi znalazły się na szczycie listy ryzyka z 56% respondentów, prawie tyle samo doświadczyło incydentów związanych z innymi tożsamościami maszyn, takimi jak certyfikaty.

Sprawdź też: Zakłócanie sygnału GPS (treść partnera)

Venafi przypisuje to rosnącej złożoności środowisk chmury natywnej, co utrudnia zarządzanie i zabezpieczanie tożsamości maszyn, które są podstawą dostępu i uwierzytelniania.

Trzy czwarte liderów ds. bezpieczeństwa zgodziło się, że ludzie są najsłabszym ogniwem w bezpieczeństwie tożsamości maszyn, podczas gdy 83% zespołów twierdzi, że brak zabezpieczenia tożsamości maszyn na poziomie obciążenia czyni wszystkie inne zabezpieczenia przestarzałymi.

Prawie siedmiu na dziesięciu opisało zapewnienie bezpiecznego dostępu między ich środowiskami chmury natywnej a centrami danych jako „koszmar do zarządzania”, podczas gdy 89% stwierdziło, że doświadczają wyzwań związanych z zarządzaniem i zabezpieczaniem tajemnic na dużą skalę.

Co ważne, 83% stwierdziło, że posiadanie wielu kont usługowych tworzy wiele dodatkowej złożoności. Mimo to dziewięciu na dziesięciu zgodziło się, że ułatwiają one zapewnienie jednolitego definiowania i egzekwowania polityk w środowiskach chmury natywnej.

„Atakujący coraz bardziej skupiają się na tożsamościach maszyn w technologiach chmury natywnej,” powiedział Bocek. „Zespoły ds. bezpieczeństwa muszą priorytetowo traktować bezpieczeństwo tożsamości maszyn na równi z tożsamościami ludzkimi.”

Zatrucie AI kluczowym problemem

W innym miejscu raportu Venafi, ponad trzy czwarte respondentów wskazało zatrucie AI jako wiodące nowe ryzyko w łańcuchu dostaw oprogramowania.

Zatrucie AI odnosi się do technik, w których dane wejściowe i wyjściowe AI są manipulowane w celach złośliwych. Można tak zhakować np. Gemini 2.0.

„AI ma ogromny potencjał, aby pozytywnie przekształcić nasz świat, ale musi być chroniona” — powiedział Bocek.

„Niezależnie od tego, czy to atakujący wkrada się i korumpuje lub nawet kradnie model, cyberprzestępca podszywający się pod AI, aby uzyskać nieautoryzowany dostęp, czy jakaś nowa forma ataku, o której jeszcze nie pomyśleliśmy, zespoły ds. bezpieczeństwa muszą być na czołowej pozycji.

„To dlatego wyłącznik awaryjny dla AI – oparty na unikalnej tożsamości poszczególnych modeli szkolonych, wdrażanych i uruchamianych – jest bardziej krytyczny niż kiedykolwiek.”

Trzy czwarte również martwi się kradzieżą modeli, a 73% obawia się wykorzystania AI do inżynierii społecznej, podczas gdy 72% martwi się o pochodzenie w łańcuchu dostaw AI.

Mimo to sześciu na dziesięciu stwierdziło, że wyższe kierownictwo odwróciło swoją uwagę od bezpieczeństwa łańcucha dostaw w ciągu ostatniego roku.

Czytaj też:

Advertisement