Sztuczna inteligencja miała usprawniać pracę firm i automatyzować procesy. Tymczasem, jak wynika z najnowszej analizy Unit 42, jednostki badawczej Palo Alto Networks, staje się także narzędziem dla cyberprzestępców, którzy nie korzystają już wyłącznie z ogólnodostępnych modeli AI. Coraz częściej trenują własne, w pełni złośliwe LLM-y, zaprojektowane wyłącznie do prowadzenia ataków.
To zjawisko, które jeszcze rok temu wydawało się czysto teoretyczne, dziś jest jednym z najszybciej rozwijających się obszarów podziemnej gospodarki technologicznej. Badacze Palo Alto Networks odkryli, że przestępcy tworzą całe środowiska przypominające… legalne startupy AI, z własnymi „marketplace’ami”, usługami abonamentowymi i modelami aktualizowanymi tak samo, jak produkty znanych firm technologicznych. Różnica polega na tym, że te modele nie mają żadnych barier - można nimi generować złośliwy kod, budować kampanie phishingowe dopasowane do konkretnego odbiorcy czy analizować luki w zabezpieczeniach firm.
"Szczególnie zaskakuje skala profesjonalizacji tego ekosystemu. Niektóre modele oferują nawet „wersje językowe” dopasowane do regionów. Przykładowo przestępcy wykorzystują AI do przygotowywania treści, które wyglądają jak naturalne komunikaty banków, firm kurierskich czy instytucji publicznych - i to nie w jednym, ale w kilkunastu językach naraz. W praktyce oznacza to, że cyberataki stają się bardziej wiarygodne niż kiedykolwiek wcześniej" - podkreśla Wojciech Gołębiowski, wiceprezes i dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej.
Skala globalnego rozwoju AI dodatkowo sprzyja temu zjawisku. Według raportu Stanford University w samym 2023 roku wydano 149 foundation models - ponad dwukrotnie więcej niż rok wcześniej, z czego aż 66% w formie open source. To oznacza, że coraz więcej zaawansowanych modeli - w tym takich, które mogą zostać wykorzystane do nadużyć - jest publicznie dostępnych i łatwych do modyfikacji. Jednocześnie koszt uzyskania wydajności na poziomie GPT-3.5 spadł 280-krotnie między listopadem 2022 a październikiem 2024. W praktyce obniża to próg wejścia dla wszystkich - także dla grup przestępczych, które mogą trenować lub dostosowywać własne modele znacznie taniej niż jeszcze dwa lata temu.
Złośliwe LLM-y działają inaczej niż znane, komercyjne modele. Są trenowane na danych pozyskiwanych z forów przestępczych, wycieków baz danych, kodów malware’u i instrukcji służących do obchodzenia zabezpieczeń. W praktyce oznacza to, że model „uczy się” tego, co w legalnych systemach AI jest celowo blokowane - sposobów na pisanie niebezpiecznego kodu, tworzenie socjotechnicznych scenariuszy czy identyfikowanie podatnych punktów w infrastrukturze. Co więcej, modele te działają w zamkniętych środowiskach uruchamianych na prywatnych serwerach, dzięki czemu trudno je monitorować i jeszcze trudniej blokować ich aktywność.
Mechanizm działania złośliwych LLM-ów polega również na ciągłej adaptacji. Jeśli wygenerowany przez model atak zostanie zablokowany, przestępcy mogą natychmiast poprosić AI o przygotowanie nowej wersji - zmienionego phishingu, innej formy malware’u czy kodu, który wygląda jak niewinna biblioteka open source. Model analizuje, co zostało odrzucone, i automatycznie modyfikuje swoje działania, aż do osiągnięcia skutecznej wersji ataku. To podejście niemal identyczne jak w procesie trenowania legalnych modeli AI - z tą różnicą, że tutaj pętlę uczenia zamknięto wokół działań przestępczych, co daje grupom cyberprzestępczym przewagę szybkości i skali, jakiej wcześniej nie miały.
Z perspektywy biznesu nowe zagrożenie polega na tym, że modele przestępców działają w prywatnych środowiskach, niewidocznych z zewnątrz. Nie podlegają moderacji, nie mają limitów bezpieczeństwa i nie zostawiają typowych śladów, które można byłoby wykryć tradycyjnymi narzędziami. To sprawia, że ataki są trudniejsze do wychwycenia, a ich wykrycie wymaga systemów, które również wykorzystują sztuczną inteligencję.
"Przestępcze modele AI nie tylko obniżają próg wejścia dla nowych cyberprzestępców, ale umożliwiają doświadczonym grupom działanie z niespotykaną dotąd szybkością i skalą. Wiele ataków, które kiedyś wymagały ręcznej pracy, dziś można wygenerować jednym poleceniem. Firmy muszą przestawić sposób myślenia o zagrożeniach. Pojawia się nowa generacja ataków - automatyczna, adaptacyjna i zdolna do nauki. To wymaga zastosowania narzędzi opartych na AI, bo tylko one są w stanie działać z podobną szybkością" - dodaje Wojciech Gołębiowski.
Źródło: Palo Alto Networks