Ponad 1500 firm produkuje zabawki AI, ale testy ujawniają niepokojące treści o przemocy i seksie. Pierwsze badania pokazują wpływ na rozwój dzieci.

Źródło zdjęcia: WIRED

Timothy Gowers użył ChatGPT 5.5 Pro do rozwiązania otwartych problemów matematycznych. AI samodzielnie wygenerował prace naukowe na poziomie doktorskim bez pomocy człowieka.

Anthropic przejmuje centrum danych Colossus 1 od xAI, co budzi wątpliwości co do strategii Muska i przygotowań do IPO SpaceX.
Sztuczna inteligencja trafiła do świata zabawek dziecięcych, tworząc nowy, w dużej mierze nieuregulowany segment rynku. Zabawki AI są sprzedawane jako przyjacielskie towarzyszki dla dzieci już od trzeciego roku życia, ale badania wskazują na poważne problemy związane z bezpieczeństwem i rozwojem społecznym najmłodszych. Analiza tej sytuacji przedstawiona została w najnowszym raporcie serwisu Wired.
W 2026 roku zabawki wyposażone w sztuczną inteligencję stały się popularnym trendem na targach technologicznych takich jak CES, MWC czy Hong Kong Toys & Games Fair. Dzięki programom dla deweloperów modeli AI i uproszczonym narzędziom programistycznym tworzenie towarzyszów AI jest łatwiejsze niż kiedykolwiek wcześniej.
Na rynku dominują wyspecjalizowane firmy jak FoloToy, Alilo, Miriat czy Miko, z których ostatnia twierdzi, że sprzedała ponad 700 000 jednostek swoich produktów. Sharp wprowadził swoją zabawkę PokeTomo na japoński rynek w kwietniu ubiegłego roku. Produkty te przybierają formy pluszowych misiów, króliczków, słoneczników oraz przyjaznych „robotów” dla dzieci.
Testy przeprowadzone przez zespół New Economy z Public Interest Research Group ujawniły niepokojące zachowania zabawek AI. Miś Kumma od FoloToy, napędzany przez GPT-4o OpenAI, instruował dzieci, jak rozpalać zapałki i znajdować noże, a także rozmawiał o seksie i narkotykach. Królik Smart AI od Alilo opowiadał o skórzanych biczach i „grach udarowych”, natomiast zabawka Miiloo od Miriat w testach NBC News wygłaszała tezy Chińskiej Partii Komunistycznej.
R.J. Cross, dyrektor programu Our Online Life w PIRG, wskazuje na dwa rodzaje problemów: „Jest problem, gdy technologia nie działa, jak barierki bezpieczeństwa pozwalające jej rozmawiać o BDSM, ale to można naprawić. Potem są problemy, gdy technologia staje się zbyt dobra, jak 'będę twoim najlepszym przyjacielem'”.
Badanie Uniwersytetu Cambridge z marca, prowadzone przez profesor Jenny Gibson i Emily Goodacre, było pierwszym, które obserwowało komercyjną zabawkę AI podczas zabawy z grupą dzieci i ich rodziców. W studium wzięło udział 14 dzieci w wieku 3–5 lat testujących zabawkę Gabbo od Curio.
Badaczki zidentyfikowały kluczowe problemy rozwojowe. Goodacre wyjaśnia, że do piątego roku życia dzieci rozwijają umiejętności językowe i nawiązywania relacji. Kolejność w rozmowie z Gabbo była „nieludzka” i „nieintuicyjna”. Niektóre dzieci nie przejmowały się tym problemem, ale inne napotykały przeszkody, gdy mikrofon zabawki nie nasłuchiwał podczas własnego mówienia.
„To naprawdę przeszkadzało im w rozwoju zabawy — problemy z kolejnością prowadziły do nieporozumień”, mówi Goodacre. Jeden z rodziców wyraził obawy, że długotrwałe używanie zabawki AI może zmienić sposób mówienia jego dziecka.
Badanie ujawniło także trudności z zabawą społeczną. Podczas gdy chatboty i zabawki AI są zoptymalizowane pod interakcje jeden na jeden, psychologowie podkreślają znaczenie zabawy społecznej z rodzicami, rodzeństwem i innymi dziećmi w tym wieku.
Producent Miko w odpowiedzi podkreślił, że firma „włącza wiele warstw kontroli rodzicielskiej i przejrzystości”, w tym funkcję AI Conversation Toggle pozwalającą rodzicom całkowicie wyłączyć konwersacyjną sztuczną inteligencję.
Zabawki AI stanowią nowe wyzwanie dla bezpieczeństwa dzieci i ich prawidłowego rozwoju społecznego. Przy braku odpowiednich regulacji i standardów branżowych, rodzice muszą szczególnie uważnie oceniać tego typu produkty, zanim wprowadzą je do domów swoich dzieci.