Nieautoryzowana grupa zdobyła dostęp do Mythos — ekskluzywnego narzędzia AI Anthropic, które może być wykorzystane zarówno do ochrony, jak i ataków.

Źródło zdjęcia: TechCrunch

Spektakularny atak na platformę Vercel rozpoczął się od cheatów do Roblox z malware'em. Pokazuje słabości uprawnień OAuth i łańcuchy infekcji.

Meta wprowadzi narzędzie do przechwytywania ruchów myszy i naciśnięć klawiszy swoich pracowników, aby trenować bardziej wydajne modele sztucznej inteligencji.
Nieautoryzowana grupa użytkowników uzyskała dostęp do Mythos — nowego narzędzia cyberbezpieczeństwa firmy Anthropic, które może być wykorzystane zarówno do ochrony, jak i ataków na systemy korporacyjne. Jak podaje Bloomberg w raporcie opisanym przez TechCrunch, grupa działająca przez „prywatne forum internetowe" zdobyła dostęp do tego ekskluzywnego narzędzia AI poprzez zewnętrznego dostawcy.
Incident budzi szczególne obawy ze względu na moc Mythos — według Anthropic, narzędzie zaprojektowane dla bezpieczeństwa przedsiębiorstw może w niewłaściwych rękach stać się potężnym narzędziem do hakowania.
Nieautoryzowana grupa składa się z członków kanału Discord, którzy specjalizują się w poszukiwaniu informacji o nieopublikowanych modelach AI. Jak wynika z raportu Bloomberg, hakerzy zastosowali kilka strategii, aby uzyskać dostęp do Mythos, w tym wykorzystali „dostęp" osoby zatrudnionej przez zewnętrznego kontraktora współpracującego z Anthropic.
Grupa dokonała „wykształconej supozycji" co do lokalizacji online modelu, bazując na znajomości formatów używanych przez Anthropic dla innych modeli. Ten metodyczny sposób działania sugeruje głęboką znajomość infrastruktury firmy i jej procedur bezpieczeństwa.
Rzecznik Anthropic potwierdził TechCrunch, że firma „bada raport dotyczący nieautoryzowanego dostępu do Claude Mythos Preview poprzez środowisko jednego z zewnętrznych dostawców". Jak dotąd, nie znaleziono dowodów na to, by domniemana nieautoryzowana aktywność wpłynęła w jakikolwiek sposób na systemy Anthropic.
Jeśli doniesienia się potwierdzą, nieautoryzowane użycie Mythos może oznaczać poważne problemy dla Anthropic, które zapewniało ekskluzywne wydanie narzędzia właśnie w celu rozwiania obaw dotyczących bezpieczeństwa przedsiębiorstw. Narzędzie mogłoby zostać „uzbroone" przeciwko bezpieczeństwu korporacyjnemu zamiast je wzmacniać, jak ostrzegała sama firma.
Incident podkreśla wyzwania związane z kontrolowaną dystrybucją zaawansowanych narzędzi AI, szczególnie tych o potencjale dual-use, które mogą służyć zarówno celom ochronnym, jak i ofensywnym w cyberprzestrzeni.