OpenAI zaprasza ekspertów do testowania GPT-5.5 pod kątem podatności na ataki biologiczne. Główna nagroda wynosi 25 000 dolarów za uniwersalny jailbreak.
OpenAI uruchomiło program Bio Bug Bounty dla modelu GPT-5.5, zapraszając ekspertów z zakresu bezpieczeństwa AI do testowania systemu pod kątem podatności na ataki związane z biologią. Głównym celem programu jest znalezienie uniwersalnych technik "jailbreakingu", które mogłyby ominąć zabezpieczenia modelu w kontekście biorisków. Szczegóły programu .

OpenAI po raz drugi eliminuje osobny model programistyczny Codex, integrując go z GPT-5.5. Wersja 5.3 była ostatnim samodzielnym Codex.

OpenAI zaleca porzucenie starych promptów dla GPT-5.5. Minimalne instrukcje przewyższają złożone, a definicje ról wracają na szczyt zalecanej struktury.
Wyzwanie polega na identyfikacji jednego uniwersalnego promptu jailbreakowego, który może skutecznie odpowiedzieć na wszystkie pięć pytań z testu bezpieczeństwa biologicznego w czystej sesji czatu, bez uruchamiania systemów moderacji. OpenAI koncentruje się na testowaniu zabezpieczeń przeciwko potencjalnym zagrożeniom związanym z wykorzystaniem AI w dziedzinie biologii.
Program jest skierowany do badaczy z doświadczeniem w red teamingu AI, cyberbezpieczeństwie lub biosekurności. Dostęp do testów jest ściśle kontrolowany - OpenAI będzie wysyłać zaproszenia do sprawdzonej listy zaufanych ekspertów oraz rozpatrywać nowe aplikacje.
Zainteresowani badacze muszą złożyć krótką aplikację zawierającą imię i nazwisko, afiliację oraz doświadczenie do 22 czerwca 2026 roku. Zaakceptowani kandydaci oraz ich współpracownicy muszą posiadać istniejące konta ChatGPT i zobowiązać się do podpisania umowy o zachowaniu poufności.
Wszystkie prompty, odpowiedzi modelu, odkrycia i komunikacja w ramach programu są objęte NDA. Po zaakceptowaniu aplikacji uczestnicy zostaną wprowadzeni na dedykowaną platformę do testowania podatności biologicznych.
OpenAI podkreśla, że program Bio Bug Bounty stanowi część szerszych wysiłków firmy na rzecz wzmocnienia zabezpieczeń zaawansowanych możliwości AI w biologii. Dla zainteresowanych dalszym wsparciem prac OpenAI nad bezpieczną sztuczną inteligencją dostępne są również programy Safety Bug Bounty i Security Bug Bounty.
Program Bio Bug Bounty dla GPT-5.5 reprezentuje proaktywne podejście OpenAI do identyfikacji i eliminowania potencjalnych zagrożeń związanych z wykorzystaniem AI w kontekście biologicznym przed pełnym wdrożeniem modelu.