Microsoft i OpenAI twierdzą, że hakerzy używają ChatGPT do “ulepszania” cyberataków

microsoft i openai twierdza ze hakerzy uzywaja chatgpt do ulepszania cyberatakow

Hakerzy znaleźli nowe narzędzie w swoim arsenale – ChatGPT oraz inne zaawansowane modele językowe, które wykorzystują do udoskonalania swoich cyberataków. Microsoft i OpenAI ujawniają, jak sztuczna inteligencja staje się narzędziem w rękach przestępców, podnosząc poprzeczkę w wojnie cyfrowej.

Hakerzy wykorzystują LLM do udoskonalania ataków

Microsoft i OpenAI biją na alarm: hakerzy wykorzystują zaawansowane modele językowe, takie jak ChatGPT, do szlifowania swoich cyberataków. Grupy wspierane przez rządy Rosji, Korei Północnej, Iranu i Chin używają tych narzędzi do prowadzenia badań na temat potencjalnych celów, ulepszania skryptów oraz rozwijania technik inżynierii społecznej. Wskazuje to na zwiększenie możliwości cyberprzestępczych na niespotykaną dotąd skalę.

Grupy hakerskie z różnych części świata adaptują AI, aby zwiększyć skuteczność swoich działań.

  • Grupa Strontium, powiązana z rosyjskim wywiadem wojskowym, wykorzystuje modele językowe do zrozumienia protokołów komunikacji satelitarnej, technologii obrazowania radarowego i innych specyficznych parametrów technicznych. Ta sama grupa, znana również jako APT28 czy Fancy Bear, była aktywna podczas wojny Rosji z Ukrainą i wcześniej brała udział w atakach na kampanię prezydencką Hillary Clinton w 2016 roku.
  • Grupa z Korei Północnej, znana jako Thallium, używa modeli językowych do badania publicznie zgłaszanych luk w zabezpieczeniach oraz do celowania w organizacje, pomagając w podstawowych zadaniach skryptowych i opracowywaniu treści do kampanii phishingowych.
  • Irańska grupa Curium wykorzystuje modele językowe do generowania emaili phishingowych.
  • Chińscy hakerzy związani z państwem również korzystają z dużych modeli językowych do badań, tworzenia skryptów, tłumaczeń oraz do doskonalenia swoich istniejących narzędzi.

Microsoft i OpenAI w obronie cyfrowego świata

Pomimo że Microsoft i OpenAI nie wykryły jeszcze “znaczących ataków” wykorzystujących duże modele językowe, firmy te zamykają wszystkie konta i zasoby powiązane z grupami hakerskimi. Jest to krok w kierunku zapobiegania przyszłym zagrożeniom, które mogą wykorzystać AI. Microsoft podkreśla, że syntezowanie głosu, gdzie trzysekundowa próbka głosu może wyszkolić model do naśladowania czyjegoś głosu, stanowi poważne zagrożenie w przyszłości.

Jako odpowiedź na wzrastające zagrożenie Microsoft stosuje AI do ochrony, wykrywania i reagowania na ponad 300 aktywnych cyberzagrożeń, które monitoruje. Użycie AI w celu zwalczania cyberataków opartych na AI to krok naprzód w zabezpieczaniu cyfrowego ekosystemu przed coraz bardziej zaawansowanymi przeciwnikami.

Udostępnij ten artykuł
Link do skopiowania
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Warto również przeczytać