Anthropic nazwał nową funkcję agentów AI „dreaming”. Krytycy ostrzegają, że antropomorfizacja może zniekształcać nasze postrzeganie i zaufanie do technologii.

Źródło zdjęcia: WIRED

Naukowcy opracowali TUR-DPO — metodę dostrajania modeli językowych, która analizuje nie tylko odpowiedzi, ale także sposób rozumowania AI.

Europejski zespół stworzył automatyczny system oceny ESG dla SME, wykorzystujący AI i platformę n8n. Rozwiązanie wspiera realizację Zielonego Ładu.
Anthropic wprowadził nową funkcję o nazwie „dreaming” (marzenie) podczas konferencji deweloperskiej w San Francisco. To część infrastruktury agentów AI firmy, zaprojektowanej do automatyzacji procesów software'owych. Funkcja analizuje transkrypcje ostatnich działań agenta i próbuje wyciągnąć wnioski mające poprawić jego wydajność. Jednak nazwa ta, podobnie jak inne określenia używane przez firmy AI, naśladuje procesy kognitywne człowieka, co budzi kontrowersje wśród krytyków.
Agenty AI często wykonują wieloetapowe zadania, odwiedzając różne strony internetowe lub czytając multiple plików. Funkcja „dreaming” pozwala agentom szukać wzorców w logach aktywności i ulepszać swoje możliwości na podstawie tych spostrzeżeń.
Od wybuchu rewolucji chatbotów w 2022 roku, liderzy firm AI intensywnie nazywają aspekty swoich narzędzi według procesów zachodzących w ludzkim mózgu. OpenAI wydało swój pierwszy model „reasoning” w 2024 roku, gdzie chatbot potrzebował „thinking time”. Firma opisywała to jako „nową serię modeli AI zaprojektowanych do spędzania większej ilości czasu na myśleniu przed odpowiedzią”. Liczne startupy również odnoszą się do swoich chatbotów jako posiadających „memories” o użytkowniku — nie chodzi tu o szybką pamięć komputerową, ale o bardziej ludzkie fragmenty informacji: mieszka w San Francisco, lubi popołudniowe mecze baseballu i nie znosi melona.
To konsekwentne podejście marketingowe wykorzystywane przez liderów AI, którzy nadal stawiają na branding zacierający granice między tym, co robią ludzie, a tym, co potrafią maszyny. Nawet sposób, w jaki firmy rozwijają chatboty jak Claude, z wyraźnymi „osobowościami”, może sprawiać, że użytkownicy czują się, jakby rozmawiali z czymś, co ma potencjał głębokiego życia wewnętrznego.
W Anthropic ta antropomorfizacja sięga głębiej niż tylko strategie marketingowe. „Omawiamy także Claude'a w terminach zwykle zarezerwowanych dla ludzi (np. 'cnota', 'mądrość')” — czytamy w części konstytucji Anthropic opisującej, jak firma chce, aby Claude się zachowywał. „Robimy to, ponieważ oczekujemy, że rozumowanie Claude'a będzie domyślnie czerpać z ludzkich konceptów, biorąc pod uwagę rolę ludzkiego tekstu w treningu Claude'a; i myślimy, że zachęcanie Claude'a do przyjmowania pewnych ludzkich cech może być aktywnie pożądane.” Firma zatrudnia nawet filozofa, aby próbował zrozumieć „wartości” bota.
Sposób, w jaki mówimy o tych maszynach, wpływa na to, co myślimy, że mogą osiągnąć. „Jako błąd logiczny, antropomorfizm zniekształca moralne osądy dotyczące AI, takie jak te dotyczące jego moralnego charakteru i statusu, a także osądy dotyczące odpowiedzialności i zaufania” — czytamy w artykule badawczym opublikowanym w czasopiśmie AI & Ethics. Nieużywanie bardziej zdystansowanego języka o botach naraża użytkowników na ryzyko nadmiernego zaufania do narzędzi i przypisywania im cech, których naprawdę nie posiadają.
Ta tendencja do humanizacji sztucznej inteligencji może prowadzić do błędnych oczekiwań i niewłaściwego zrozumienia ograniczeń technologii, co ma istotne implikacje dla bezpiecznego i świadomego korzystania z narzędzi AI.