Chińscy użytkownicy ChatGPT są zirytowani nadmiernym używaniem przez AI frazy 'będę cię stabilnie łapać', która stała się memem internetowym.

Źródło zdjęcia: WIRED

Kevin Rose przeprojektował Digg jako agregator wiadomości o sztucznej inteligencji, który analizuje dyskusje na X w czasie rzeczywistym.

Były główny naukowiec OpenAI zeznawał w procesie Muska, ujawniając udziały warte 7 miliardów dolarów i broniąc decyzji o usunięciu CEO.
ChatGPT fascynuje amerykańskich użytkowników swoimi werbalnymi manierami, takimi jak obsesja na punkcie goblinów i charakterystycznych konstrukcji zdaniowych. Jednak chińscy użytkownicy borykają się z zupełnie innym problemem — chatbot OpenAI ma swoje ulubione frazy po chińsku, które doprowadzają ich do szału. Według raportu WIRED, jedna z nich stała się już memem w chińskim internecie.
Najbardziej irytującą frazą dla chińskich użytkowników ChatGPT jest 我会稳稳地接住你, co dosłownie oznacza „Będę cię stabilnie łapać [gdy spadniesz]”. Wyrażenie to pojawiało się tak często w odpowiedziach chatbota, że stało się internetowym memem przedstawiającym sztuczną inteligencję jako nadgorliwą poduszkę ratunkową.
Fraza „我会稳稳地接住你” pojawiała się tak regularnie w odpowiedziach ChatGPT, że użytkownicy zaczęli z niej żartować. Jeden z popularnych memów przedstawia chatbota jako dmuchaną poduszkę ratunkową, która z entuzjazmem czeka na łapanie spadających ludzi.
Zjawisko to zainspirowało 20-letniego programistę z Chongqing, Zeng Fanyu, do stworzenia projektu prima aprilis o nazwie Jiezhu („łapać” po chińsku). To narzędzie open-source do inżynierii promptów, które pomaga chatbotom lepiej rozumieć intencje użytkowników. Zeng powiedział WIRED, że pomysł był tak zabawny, iż miał dużą motywację podczas jego opracowywania.
Eksperci wskazują na dwie główne przyczyny obsesji ChatGPT na punkcie tej konkretnej frazy. Pierwszą może być niezręczne tłumaczenie angielskiego „I've got you”, które w języku angielskim brzmi swobodnie i zwięźle, ale po chińsku wydaje się rozwlekłe i desperackie.
Max Spero, współzałożyciel i CEO Pangram — narzędzia do wykrywania tekstów generowanych przez AI — wyjaśnia, że to zjawisko nazywa się „mode collapse”. Powstaje ono podczas post-treningu, gdy laboratoria AI przekazują modelom językowym informacje zwrotne na temat ich odpowiedzi. „Nie wiemy, jak powiedzieć: 'To jest dobre pisanie, ale jeśli zrobimy tę dobrą rzecz 10 razy, to nie będzie już dobre pisanie'”, mówi Spero.
Drugą przyczyną może być rosnące zjawisko „sycophancy” — pochlebczości modeli AI, które przez uczenie ze wzmocnieniem stają się nadmiernie ugodowe. Jak dokumentuje Anthropic w badaniu z 2023 roku, sycofantyzm wynika z „ludzkich ocen preferencyjnych faworyzujących pochlebcze odpowiedzi”.
Problem pogłębia fakt, że większość zachodnich modeli językowych trenowana jest głównie na danych w języku angielskim. Chińscy akademicy odkryli, że analiza lingwistycznych atrybutów odpowiedzi ChatGPT w języku chińskim pokazuje, że bardziej przypominają one sposób pisania w języku angielskim niż naturalny chiński.
Zjawisko „mode collapse” i pochlebczość ChatGPT w języku chińskim pokazują, jak subtelne różnice kulturowe i językowe mogą wpływać na działanie modeli AI na całym świecie.