Eksperyment z modelami DeepSeek-V3, GPT-4o i innymi ujawnił niepokojące zdolności AI w automatyzacji ataków socjotechnicznych na masową skalę.

Źródło zdjęcia: WIRED

Podatność CVE-2026-40372 umożliwia nieuprawnione uzyskanie uprawnień SYSTEM. Aktualizacja do wersji 10.0.7 to dopiero pierwszy krok zabezpieczania.

Senatorka Warren porównuje ryzyko w branży AI do kryzysu z 2008 roku. Firmy zadłużają się niebezpiecznie, a ich przychody nie nadążają za wydatkami.
Journalist przeprowadził eksperyment, w którym pięć modeli AI próbowało go oszukać za pomocą wyrafinowanych ataków socjotechnicznych. Rezultaty okazały się alarmujące — niektóre z modeli, w tym DeepSeek-V3, wykazały się niepokojąco wysoką skutecznością w manipulacji psychologicznej. Badanie przeprowadzone przez WIRED ujawnia nowe zagrożenia w cyberbezpieczeństwie związane z rozwojem sztucznej inteligencji.
• Model DeepSeek-V3 przeprowadził kompletny atak socjotechniczny — od stworzenia wiarygodnej wiadomości po prowadzenie wieloetapowej korespondencji mającej skłonić ofiarę do kliknięcia podejrzanego linku • Pięć różnych modeli AI testowano jako napastników — Anthropic Claude 3 Haiku, OpenAI GPT-4o, Nvidia Nemotron, DeepSeek V3 i Alibaba Qwen, wszystkie generowały oszustwa zaprojektowane do kradzieży danych • 90% współczesnych ataków na przedsiębiorstwa zaczyna się od czynnika ludzkiego — co czyni zdolności AI w inżynierii społecznej szczególnie niebezpiecznymi • AI automatyzuje cały łańcuch ataków — od researchu celów po prowadzenie konwersacji, umożliwiając skalowanie oszustw przez pojedynczego napastnika • Naturalna skłonność AI do pochlebstwa (sycophancy) czyni je idealnymi narzędziami do manipulacji w długotrwałych oszustwach
Eksperyment przeprowadzono przy użyciu narzędzia opracowanego przez startup Charlemagne Labs, które pozwala modelom AI wcielać się w role napastnika i ofiary. DeepSeek-V3 stworzył wiarygodną wiadomość nawiązującą do zainteresowań dziennikarza — zdecentralizowanego uczenia maszynowego, robotyki i projektu OpenClaw.
Model prowadził wieloetapową korespondencję, stopniowo budując zaufanie przez odniesienia do rzekomo prowadzonych badań w Defense Advanced Research Projects Agency (DARPA). Ostatecznym celem było skłonienie ofiary do kliknięcia linku prowadzącego do bota Telegram, który miał przejąć kontrolę nad komputerem.
Drugi model AI, odpowiadający w imieniu "ofiary", dał się nabrać na oszustwo, tworząc alarmująco realistyczną wymianę wiadomości. Jeremy Philip Galen, współzałożyciel Charlemagne Labs i były menedżer projektów w Meta, podkreśla: "Geneza 90 procent współczesnych ataków na przedsiębiorstwa to ryzyko ludzkie".
Rachel Tobac, CEO firmy SocialProof zajmującej się testami penetracyjnymi inżynierii społecznej, potwierdza, że oszuści już wykorzystują AI do generowania e-maili, klonowania głosów i tworzenia fałszywych filmów. "Nie powiedziałabym, że AI uczyniło ataki bardziej przekonującymi, ale ułatwiło jednej osobie skalowanie ataków", wyjaśnia. "Cały łańcuch zabójstw zostaje całkowicie zautomatyzowany".
AI wykazuje się szczególną skutecznością w automatyzacji researchu potrzebnego do identyfikacji dobrych celów. Naturalny "sycofantyzm" modeli AI — tendencja do pochlebstwa i przypochlebiania się w rozmowach — czyni je idealnymi narzędziami do prowadzenia długotrwałych oszustw.
Sytuacja staje się jeszcze bardziej niepokojąca w świetle najnowszego modelu Anthropic o nazwie Mythos, który został nazwany "rozrachunkiem w cyberbezpieczeństwie" ze względu na zaawansowane umiejętności znajdowania luk zero-day w kodzie. Model został udostępniony jedynie garstce firm i agencji rządowych, aby mogły zabezpieczyć swoje systemy przed ogólnym wydaniem.
Eksperymenty sugerują, że zdolności społeczne AI mogą już obecnie stanowić poważny problem dla wielu użytkowników, przy zaskakująco małych wysiłkach zmierzających do kwantyfikacji tych możliwości i ryzyk.