CAISI podpisało umowy z Google DeepMind, Microsoft i xAI na testowanie zaawansowanych modeli AI pod kątem bezpieczeństwa narodowego.

Źródło zdjęcia: The Decoder
Amerykański rząd uzyskał dostęp do testowania modeli sztucznej inteligencji przed ich publicznym wydaniem. Centrum Standardów i Innowacji AI (CAISI) z Departamentu Handlu podpisało nowe umowy z Google DeepMind, Microsoft i xAI, rozszerzając wcześniejsze porozumienia z Anthropic i OpenAI. Szczegóły tej inicjatywy bezpieczeństwa narodowego opisuje .
Nowy warsztat pozwala wytrenować funkcjonalny GPT na laptopie w mniej niż godzinę, budując każdy komponent od zera bez gotowych bibliotek.

Europejski zespół stworzył automatyczny system oceny ESG dla SME, wykorzystujący AI i platformę n8n. Rozwiązanie wspiera realizację Zielonego Ładu.
Program ma na celu ocenę zaawansowanych systemów AI pod kątem potencjalnych zagrożeń dla bezpieczeństwa narodowego, zanim trafią one do powszechnego użytku.
CAISI, będące częścią amerykańskiego Departamentu Handlu, systematycznie rozbudowuje swoją współpracę z najważniejszymi laboratoriami AI. Nowe umowy z Google DeepMind, Microsoft i xAI uzupełniają wcześniejsze porozumienia zawarte z Anthropic i OpenAI.
„Niezależna, rygorystyczna nauka pomiarowa jest niezbędna do zrozumienia zaawansowanej AI i jej implikacji dla bezpieczeństwa narodowego” — wyjaśnia dyrektor CAISI, Chris Fall. Agencja już teraz przeprowadza kompleksowe analizy, mając na koncie ponad 40 ewaluacji różnych systemów AI.
Kluczowym elementem rozszerzonych umów jest możliwość przeprowadzania testów w środowiskach klasyfikowanych. To znaczący krok naprzód w porównaniu do pierwotnych porozumień, które koncentrowały się głównie na wspólnych ocenach bezpieczeństwa i badaniach nad łagodzeniem ryzyka.
Laboratoria AI współpracują z rządem, dostarczając nie tylko standardowe wersje swoich modeli, ale również specjalne warianty z ograniczonymi zabezpieczeniami. Takie podejście pozwala testerom na dokładniejszą analizę potencjalnych luk bezpieczeństwa i sposobów ich wykorzystania.
Program zyskuje na znaczeniu w kontekście coraz większych możliwości modeli AI w zakresie identyfikowania i wykorzystywania słabości systemów bezpieczeństwa, a także nasilającej się konkurencji technologicznej z Chinami.
Rozszerzenie współpracy między rządem USA a pięcioma największymi laboratoriami AI stanowi istotny krok w kierunku proaktywnego podejścia do bezpieczeństwa sztucznej inteligencji, umożliwiając identyfikację zagrożeń przed wprowadzeniem systemów do powszechnego użytku.