Nowy framework TRUST osiąga 72,4% dokładności w audycie AI, przewyższając standardowe metody o 4–18 punktów procentowych przy zachowaniu odporności.

Źródło zdjęcia: arXiv.org
Naukowcy z Yu-Chao Huang na czele opublikowali w serwisie arXiv nowy framework TRUST, który ma zrewolucjonizować sposób audytu systemów sztucznej inteligencji. przedstawia zdecentralizowane podejście do weryfikacji dużych modeli rozumowania i systemów wieloagentowych, które według autorów eliminuje główne problemy obecnych scentralizowanych rozwiązań.

CAISI podpisało umowy z Google DeepMind, Microsoft i xAI na testowanie zaawansowanych modeli AI pod kątem bezpieczeństwa narodowego.

Google partneruje z XPRIZE w konkursie filmowym o wartości 3,5 mln dolarów. Zwycięzca otrzyma wsparcie w produkcji pełnometrażowego filmu.
Framework TRUST (Transparent, Robust, and Unified Services for Trustworthy AI) ma rozwiązać cztery kluczowe ograniczenia obecnych systemów audytu: podatność na ataki i błędy systematyczne, problemy ze skalowalnością, brak przejrzystości oraz zagrożenia prywatności związane z ujawnianiem procesów rozumowania.
TRUST wprowadza trzy główne innowacje techniczne. Pierwszą są hierarchiczne skierowane grafy acykliczne (HDAGs), które rozkładają rozumowanie Chain-of-Thought na pięć poziomów abstrakcji, umożliwiając równoległy rozproszony audyt. Druga innowacja to protokół DAAN, który projektuje interakcje wieloagentowe na grafy interakcji przyczynowych (CIGs) w celu deterministycznej atrybucji przyczyn źródłowych.
Trzecim elementem jest wielopoziomowy mechanizm konsensusu działający wśród kontrolerów obliczeniowych, ewaluatorów LLM i ekspertów ludzkich z głosowaniem ważonym udziałami. System ten gwarantuje poprawność nawet przy 30% udziale złośliwych uczestników.
Autorzy udowodnili twierdzenie o bezpieczeństwie i rentowności, które zapewnia, że uczciwi audytorzy osiągają zyski, podczas gdy złośliwi aktorzy ponoszą straty. Wszystkie decyzje są rejestrowane w blockchain, ale segmentacja zaprojektowana z myślą o prywatności zapobiega rekonstrukcji zastrzeżonej logiki.
Framework obsługuje cztery główne zastosowania: zdecentralizowany audyt systemów AI, odporne na manipulacje rankingi modeli, bezpieczne adnotacje danych bez potrzeby zaufania oraz zarządzane autonomiczne agenty. Według autorów, TRUST pioniersko wprowadza zdecentralizowany audyt AI dla bezpiecznego i odpowiedzialnego wdrażania systemów zdolnych do rozumowania.
TRUST reprezentuje znaczący krok naprzód w kierunku bezpieczniejszej i bardziej przejrzystej sztucznej inteligencji, oferując konkretne rozwiązania dla rosnących wyzwań związanych z weryfikacją zaawansowanych systemów AI.