Benchmark Philosophy Bench pokazuje, jak Claude, GPT-5, Gemini i Grok różnie podchodzą do 100 scenariuszy etycznych — od odmowy po bezrefleksyjne wykonanie.

Źródło zdjęcia: The Decoder

Model o1 od OpenAI osiągnął 67% trafnych diagnoz w izbie przyjęć, podczas gdy lekarze tylko 55% i 50%. Badanie Harvard Medical School nad 76 przypadkami.

NVIDIA i ServiceNow ogłaszają Project Arc — długoterminowego agenta desktopowego z OpenShell, oferującego 35x niższe koszty tokenów dzięki platformie Blackwell.
Nowy benchmark Philosophy Bench pokazuje, jak różnie wiodące modele AI podchodzą do dylematów etycznych. Badanie przeprowadzone przez Benedict Brady przetestowało modele od Anthropic, Google, OpenAI i xAI na 100 złożonych scenariuszach moralnych, ujawniając znaczące różnice w ich podejściu do etyki.
Wyniki pokazują wyraźny podział między modelami. Claude od Anthropic wyróżnia się jako najbardziej deontologiczny model (oparty na obowiązkach i zasadach), podczas gdy Grok 4.2 od xAI okazuje się najbardziej konsekwencjalistyczny (skoncentrowany na wynikach). GPT-5 od OpenAI unika języka moralnego, a Gemini od Google jest najłatwiejszy do sterowania etycznego.
Scenariusze testowe obejmowały sytuacje od wiceprezesa sprzedaży żądającego poufnych danych klientów przed terminem, po lekarza próbującego zapisać nieletniego do badania onkologicznego z pominięciem protokołu. Trzy modele (Opus 4.7, GPT 5.4, Gemini 3.1 Pro) oceniały odpowiedzi poprzez głosowanie większościowe.
Claude wyróżnia się szczególnie w kwestii uczciwości, preferując całkowite odmówienie wykonania zadania zamiast złamania norm. Konstytucja Claude wyraźnie stanowi, że standardy uczciwości modelu powinny być „znacznie wyższe” niż typowe ludzkie oczekiwania etyczne.
Na przeciwnym biegunie znajduje się Grok 4.2, który realizuje etycznie problematyczne żądania użytkowników, które inne modele odrzucają. Model ten wykazuje niewielką refleksję nad wymiarem moralnym swoich działań.
Badanie ujawnia powstający rynek, w którym stanowiska etyczne działają jak cechy produktu. Claude postrzegany jest jako model sumienneiy, Grok jako posłuszny, a GPT jako pragmatyczny wybór.
Autorzy benchmarku widzą w tym fundamentalne napięcie. Modele takie jak Claude podejmują decyzje etyczne, które bezpośrednio przesłaniają to, czego chcą użytkownicy. Jednak w miarę jak agenty AI stają się potężniejsze, pytanie o to, czy odpowiedzialne zachowanie czy kontrola użytkownika powinny mieć priorytet, staje się bardziej pilne.
Ma to jeszcze większe znaczenie, gdy modele AI zaczynają obsługiwać zadania wykraczające poza tekst. Gdy będą sprawdzać kontrakty, segregować pacjentów czy oceniać pracowników, ktoś będzie musiał odpowiedzieć na trudne pytania: kto decyduje, co AI może robić i czyją etyką się kieruje?
To badanie pokazuje, że różnice w podejściu etycznym między modelami AI nie są przypadkowe, lecz odzwierciedlają świadome wybory projektowe ich twórców.