Google odkryło i zatrzymało pierwsze znane ataki zero-day stworzone przy użyciu AI. Hakerzy planowali masowy atak na systemy 2FA.

Źródło zdjęcia: The Verge
Google odkryło i zatrzymało pierwsze znane im ataki hakerskie typu zero-day, które zostały opracowane przy użyciu sztucznej inteligencji. Jak wynika z , przestępcy planowali wykorzystać lukę bezpieczeństwa do przeprowadzenia „masowego ataku eksploitacyjnego”, który pozwoliłby omijać dwuetapowe uwierzytelnianie w nienazwanym „open-source'owym narzędziu do administracji systemów internetowych”.
Open source'owy pakiet ARS automatyzuje rutynowe zadania w pisaniu prac naukowych, oferując 13-agentowy zespół badawczy za 4–6$ za pracę.

Tom Steyer proponuje rewolucyjny plan finansowany podatkiem od firm technologicznych, który ma chronić pracowników przed skutkami automatyzacji AI.
To pierwszy przypadek, gdy Google znalazło dowody na wykorzystanie AI w tego typu ataku, choć badacze zastrzegli, że „nie wierzą, aby użyto Gemini”.
Badacze Google znaleźli w skrypcie Python wykorzystywanym do eksploitu oznaki wskazujące na pomoc AI. Wśród dowodów znalazł się „halucynowany wynik CVSS” oraz „uporządkowane, podręcznikowe” formatowanie spójne z danymi treningowymi dużych modeli językowych.
Exploit wykorzystywał „wysokopoziomową lukę w logice semantycznej, gdzie programista zakodował na stałe założenie zaufania” w systemie 2FA platformy. To kolejny przypadek po tygodniach dyskusji nad możliwościami modeli AI ukierunkowanych na cyberbezpieczeństwo, takich jak Mythos od Anthropic, oraz niedawno ujawnionej luce w Linuksie odkrytej przy wsparciu AI.
Raport Google wskazuje, że hakerzy coraz częściej wykorzystują AI do znajdowania i wykorzystywania luk bezpieczeństwa. Przestępcy stosują techniki „persona-driven jailbreaking”, aby skłonić AI do znajdowania podatności — na przykład poprzez polecenia instruujące AI, aby udawało eksperta od bezpieczeństwa.
Dodatkowo, hakerzy dostarczają modelom AI całe repozytoria danych o lukach bezpieczeństwa i wykorzystują narzędzia takie jak OpenClaw w sposób sugerujący „zainteresowanie udoskonalaniem payload'ów generowanych przez AI w kontrolowanych środowiskach, aby zwiększyć niezawodność eksploitów przed wdrożeniem”.
Google zauważa także, że same systemy AI stają się celem ataków, szczególnie „zintegrowane komponenty, które nadają systemom AI ich użyteczność, takie jak autonomiczne umiejętności i łączniki danych zewnętrznych”.
Odkrycie Google pokazuje nową fazę w cyberprzestępczości, gdzie sztuczna inteligencja staje się zarówno narzędziem ataków, jak i ich celem.