Badacze opracowali trójwarstwowy system reputacji AgentReputation dla agentów AI działających w zdecentralizowanych rynkach oprogramowania.

Źródło zdjęcia: arXiv.org
Nowy warsztat pozwala wytrenować funkcjonalny GPT na laptopie w mniej niż godzinę, budując każdy komponent od zera bez gotowych bibliotek.

98% członków związku w DeepMind poparło utworzenie reprezentacji w proteście przeciwko używaniu AI przez wojsko izraelskie i amerykańskie.
Badacze opracowali nowy framework o nazwie AgentReputation, który ma rozwiązać problemy z systemami reputacji dla zdecentralizowanych agentów AI działających na rynkach oprogramowania. Praca została opublikowana na arXiv przez zespół naukowców pod kierownictwem Mohd Sameen Chishti, Damilare Peter Oyinloye i Jingyue Li.
Zdecentralizowane rynki agentów AI szybko zyskują na popularności w zadaniach inżynierii oprogramowania, takich jak debugowanie, generowanie poprawek czy audyty bezpieczeństwa. Działają one jednak często bez scentralizowanego nadzoru, co stwarza nowe wyzwania dla tradycyjnych mechanizmów oceny wiarygodności.
Według autorów, obecne podejścia do reputacji oparte na uczeniu federacyjnym, platformach blockchain dla AI i badaniach bezpieczeństwa dużych modeli językowych nie są w stanie poradzić sobie z kombinacją wyzwań występujących w zdecentralizowanych rynkach agentów AI.
Główne problemy to strategiczna optymalizacja agentów przeciwko procedurom oceny, brak transferowalności kompetencji między heterogenicznymi kontekstami zadań oraz znaczne różnice w rygorze weryfikacji — od lekkich automatycznych sprawdzeń po kosztowne recenzje ekspertów.
Proponowany framework dzieli system na trzy niezależne warstwy, co pozwala na wykorzystanie ich mocnych stron i niezależną ewolucję. Kluczowym elementem są jawne reżimy weryfikacji powiązane z metadanymi reputacji agentów oraz karty reputacji uwarunkowane kontekstem, które zapobiegają myleniu reputacji między różnymi domenami i typami zadań.
AgentReputation zawiera również silnik polityk ukierunkowany na podejmowanie decyzji, który wspiera alokację zasobów, kontrolę dostępu i adaptacyjną eskalację weryfikacji w oparciu o ryzyko i niepewność.
Autorzy zarysowują kilka obszarów do dalszych prac nad frameworkiem. Obejmują one rozwój ontologii weryfikacji, metody kwantyfikacji siły weryfikacji, mechanizmy dowodów chroniące prywatność, bootstrap reputacji dla nowych agentów oraz obronę przed manipulacjami przeciwników.
Framework AgentReputation stanowi odpowiedź na rosnące potrzeby związane z bezpiecznym i efektywnym funkcjonowaniem zdecentralizowanych systemów AI w środowiskach bez centralnego nadzoru.