Firma dzieli się praktycznymi rozwiązaniami kontroli, sandboxingu i telemetrii dla bezpiecznego wykorzystania autonomicznych systemów programist

Naukowcy opracowali GraphDC — wieloagentowy system wykorzystujący strategię 'dziel i zwyciężaj' do skuteczniejszego rozwiązywania problemów grafowych.

Tom Steyer proponuje rewolucyjny plan finansowany podatkiem od firm technologicznych, który ma chronić pracowników przed skutkami automatyzacji AI.
OpenAI opublikowało szczegółowy przewodnik dotyczący bezpiecznego wdrażania agentów kodujących Codex w środowiskach produkcyjnych. Firma dzieli się praktycznymi rozwiązaniami dotyczącymi kontroli, ograniczeń i telemetrii, które pozwalają organizacjom na bezpieczne wykorzystanie autonomicznych systemów programistycznych.
W miarę wzrostu możliwości systemów AI, coraz częściej działają one w imieniu użytkowników, wykonując zadania wcześniej wymagające bezpośredniej interwencji człowieka. Agenci kodujący mogą samodzielnie przeglądać repozytoria, uruchamiać komendy i współpracować z narzędziami deweloperskimi.
OpenAI opracowało system kontroli oparty na zasadzie, że Codex powinien być produktywny w ograniczonym środowisku, gdzie rutynowe działania są bezproblemowe, a działania wysokiego ryzyka wymagają przeglądu.
Sandboxing i zatwierdzenia działają symbiotycznie. Sandbox określa techniczne granice wykonywania, w tym gdzie Codex może zapisywać pliki, czy ma dostęp do sieci i które ścieżki pozostają chronione. Polityka zatwierdzania decyduje, kiedy agent musi poprosić o pozwolenie, na przykład gdy potrzebuje wykonać działanie poza sandboxem.
Firma wprowadza tryb Auto-review dla rutynowych żądań zatwierdzenia. Ta funkcja automatycznie zatwierdza określone typy żądań, redukując częstotliwość przerywania pracy użytkownika. Codex wysyła planowane działanie i najnowszy kontekst do podagenta auto-zatwierdzania, który może automatycznie zatwierdzić działania o niskim ryzyku.
OpenAI nie uruchamia Codex z nieograniczonym dostępem wychodzącym. Zarządzana polityka sieciowa pozwala na oczekiwane destynacje, blokuje niepożądane miejsca docelowe i wymaga zatwierdzenia dla nieznanych domen. Takie podejście umożliwia Codex ukończenie typowych, sprawdzonych przepływów pracy bez udzielania mu szerokiego dostępu do sieci.
System zarządza również sposobem uwierzytelniania Codex. Poświadczenia CLI i MCP OAuth są przechowywane w bezpiecznej pięści kluczy systemu operacyjnego, logowanie jest wymuszane przez ChatGPT, a dostęp jest przypięty do korporacyjnego obszaru roboczego ChatGPT firmy. To rozwiązanie wiąże użycie Codex z kontrolami na poziomie obszaru roboczego i udostępnia aktywność Codex w platformie logów zgodności ChatGPT.
Kontrola to tylko połowa zadania. Po wdrożeniu agentów zespoły bezpieczeństwa potrzebują wglądu w to, co robią i dlaczego. Tradycyjne logi bezpieczeństwa nadal są przydatne przy analizowaniu działań podjętych przez Codex, ale głównie odpowiadają na pytanie „co się stało”: proces się rozpoczął, plik się zmienił, podjęto próbę połączenia sieciowego.
Codex może zapewnić zespołom bezpieczeństwa bardziej świadomy agentów widok sytuacji. System obsługuje OpenTelemetry do strukturalnego logowania działań agenta, zapewniając kontekst dotyczący intencji użytkownika i decyzji agenta. Ta telemetria natywna dla agentów pozwala audytorom zrozumieć nie tylko co agent zrobił, ale także dlaczego podjął dane działania.
OpenAI demonstruje, że odpowiedzialne wdrażanie agentów AI wymaga przemyślanej architektury kontroli, która równoważy produktywność z bezpieczeństwem, zapewniając jednocześnie pełną widoczność działań systemu.