Virtual-IT.pl - data center cloud computing SDx AI storage network cybersecurity

FRITZ!Smart Gateway i Amazon Echo - sterowanie głosem w inteligentnym domu
FRITZ!Smart Gateway i Amazon Echo - sterowanie głosem w inteligentnym domu

W dobie szybko rozwijających się technologii Smart Home coraz więcej użytkowników poszukuje rozwiązań, które pozwolą na wygodne i centralne zarządzanie inteligentnymi urządzeniami w domu. Połączenie bramki FRITZ!Smart Gateway z głośnikami Amazon Echo i asystentem Alexa to prosty sposób na wprowadze...

Czytaj więcej...

IDR i ITDR - innowacyjne podejścia do ochrony tożsamości
IDR i ITDR - innowacyjne podejścia do ochrony tożsamości

Według analityków IDC pod koniec ubiegłego roku funkcjonowało już pół miliarda aplikacji. Ich rosnąca liczba oraz złożoność udostępnianych przez nie API - interfejsów programistycznych aplikacji - sprawia, że aplikacje stają się one coraz bardziej atrakcyjnym celem dla cyberprzestępców, kt&o...

Czytaj więcej...

VMware Tanzu: Wielowarstwowa ochrona kontenerów
VMware Tanzu: Wielowarstwowa ochrona kontenerów

Rewolucja kontenerowa przyniosła nie tylko zwinność, ale i nowe wyzwania w obszarze bezpieczeństwa infrastruktury. Tym kwestiom poświęcono nowy dokument techniczny "Container Security in VMware Tanzu Platform. A Guide for InfoSec Teams", który pełni rolę kompleksowego przewodnika po tym, jak platforma Tanzu wdra...

Czytaj więcej...

Aż 95% firm obawia się o bezpieczeństwo w chmurze publicznej
Aż 95% firm obawia się o bezpieczeństwo w chmurze publicznej

Jak wynika z opublikowanego przez Fortinet dokumentu „2023 Cloud Security Report”, w chmurze publicznej znajduje się już ponad połowa danych prawie 40% ankietowanych przedsiębiorstw. W ciągu najbliższych 12-18 miesięcy odsetek tych firm zwiększy się do 58%, co spowoduje, że wyzwań związanych z zabezpieczani...

Czytaj więcej...

Dlaczego warto wybrać Endpoint Central do zarządzania przedsiębiorstwem?
Dlaczego warto wybrać Endpoint Central do zarządzania przedsiębiorstwem?

Stworzony w 2005 roku, Endpoint Central (wcześniej znany jako Desktop Central) miał na celu zrewolucjonizowanie sposobu, w jaki firmy zarządzają swoim IT. Przez prawie dwie dekady rozwijał się wraz z dynamicznie zmieniającymi się potrzebami nowoczesnych przedsiębiorstw. Jest dowodem na siłę nieustannej innowacji, oferu...

Czytaj więcej...

5 kluczowych wniosków o GenAI i danych operacyjnych
5 kluczowych wniosków o GenAI i danych operacyjnych

Organizacje, które zastanawiają się nad tym, czy i kiedy wdrożyć generatywną sztuczną inteligencję (Generative Artificial Intelligence, GenAI) do swoich działań operacyjnych (Artificial Intelligence for IT Operations, AIOps), stają przed licznymi wyzwaniami. GenAI znajduje dziś zastosowanie niemal wszędzie, co s...

Czytaj więcej...

Aktualności

Cyberprzestępcy tworzą własne modele AI

Cyberatak AISztuczna inteligencja miała usprawniać pracę firm i automatyzować procesy. Tymczasem, jak wynika z najnowszej analizy Unit 42, jednostki badawczej Palo Alto Networks, staje się także narzędziem dla cyberprzestępców, którzy nie korzystają już wyłącznie z ogólnodostępnych modeli AI. Coraz częściej trenują własne, w pełni złośliwe LLM-y, zaprojektowane wyłącznie do prowadzenia ataków.

To zjawisko, które jeszcze rok temu wydawało się czysto teoretyczne, dziś jest jednym z najszybciej rozwijających się obszarów podziemnej gospodarki technologicznej. Badacze Palo Alto Networks odkryli, że przestępcy tworzą całe środowiska przypominające… legalne startupy AI, z własnymi „marketplace’ami”, usługami abonamentowymi i modelami aktualizowanymi tak samo, jak produkty znanych firm technologicznych. Różnica polega na tym, że te modele nie mają żadnych barier - można nimi generować złośliwy kod, budować kampanie phishingowe dopasowane do konkretnego odbiorcy czy analizować luki w zabezpieczeniach firm.

"Szczególnie zaskakuje skala profesjonalizacji tego ekosystemu. Niektóre modele oferują nawet „wersje językowe” dopasowane do regionów. Przykładowo przestępcy wykorzystują AI do przygotowywania treści, które wyglądają jak naturalne komunikaty banków, firm kurierskich czy instytucji publicznych - i to nie w jednym, ale w kilkunastu językach naraz. W praktyce oznacza to, że cyberataki stają się bardziej wiarygodne niż kiedykolwiek wcześniej" - podkreśla Wojciech Gołębiowski, wiceprezes i dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej.

Skala globalnego rozwoju AI dodatkowo sprzyja temu zjawisku. Według raportu Stanford University w samym 2023 roku wydano 149 foundation models - ponad dwukrotnie więcej niż rok wcześniej, z czego aż 66% w formie open source. To oznacza, że coraz więcej zaawansowanych modeli - w tym takich, które mogą zostać wykorzystane do nadużyć - jest publicznie dostępnych i łatwych do modyfikacji. Jednocześnie koszt uzyskania wydajności na poziomie GPT-3.5 spadł 280-krotnie między listopadem 2022 a październikiem 2024. W praktyce obniża to próg wejścia dla wszystkich - także dla grup przestępczych, które mogą trenować lub dostosowywać własne modele znacznie taniej niż jeszcze dwa lata temu.

Złośliwe LLM-y działają inaczej niż znane, komercyjne modele. Są trenowane na danych pozyskiwanych z forów przestępczych, wycieków baz danych, kodów malware’u i instrukcji służących do obchodzenia zabezpieczeń. W praktyce oznacza to, że model „uczy się” tego, co w legalnych systemach AI jest celowo blokowane - sposobów na pisanie niebezpiecznego kodu, tworzenie socjotechnicznych scenariuszy czy identyfikowanie podatnych punktów w infrastrukturze. Co więcej, modele te działają w zamkniętych środowiskach uruchamianych na prywatnych serwerach, dzięki czemu trudno je monitorować i jeszcze trudniej blokować ich aktywność.

Mechanizm działania złośliwych LLM-ów polega również na ciągłej adaptacji. Jeśli wygenerowany przez model atak zostanie zablokowany, przestępcy mogą natychmiast poprosić AI o przygotowanie nowej wersji - zmienionego phishingu, innej formy malware’u czy kodu, który wygląda jak niewinna biblioteka open source. Model analizuje, co zostało odrzucone, i automatycznie modyfikuje swoje działania, aż do osiągnięcia skutecznej wersji ataku. To podejście niemal identyczne jak w procesie trenowania legalnych modeli AI - z tą różnicą, że tutaj pętlę uczenia zamknięto wokół działań przestępczych, co daje grupom cyberprzestępczym przewagę szybkości i skali, jakiej wcześniej nie miały.

Z perspektywy biznesu nowe zagrożenie polega na tym, że modele przestępców działają w prywatnych środowiskach, niewidocznych z zewnątrz. Nie podlegają moderacji, nie mają limitów bezpieczeństwa i nie zostawiają typowych śladów, które można byłoby wykryć tradycyjnymi narzędziami. To sprawia, że ataki są trudniejsze do wychwycenia, a ich wykrycie wymaga systemów, które również wykorzystują sztuczną inteligencję.

"Przestępcze modele AI nie tylko obniżają próg wejścia dla nowych cyberprzestępców, ale umożliwiają doświadczonym grupom działanie z niespotykaną dotąd szybkością i skalą. Wiele ataków, które kiedyś wymagały ręcznej pracy, dziś można wygenerować jednym poleceniem. Firmy muszą przestawić sposób myślenia o zagrożeniach. Pojawia się nowa generacja ataków - automatyczna, adaptacyjna i zdolna do nauki. To wymaga zastosowania narzędzi opartych na AI, bo tylko one są w stanie działać z podobną szybkością" - dodaje Wojciech Gołębiowski.

Źródło: Palo Alto Networks

Logowanie i rejestracja