Analiza 19 418 interakcji pokazuje, jak studenci wykorzystują AI podczas nauki programowania — najlepsi uczą się, najsłabsi delegują zadania.

Źródło zdjęcia: arXiv.org

Nowy domyślny model ChatGPT ma generować o ponad połowę mniej fałszywych informacji w obszarach wysokiego ryzyka jak medycyna i prawo.

Badacze przedstawili matematyczne ramy do zrozumienia, kiedy grupa agentów AI może działać jako jeden kolektywny agent z własnymi celami.
Nowe badania naukowe rzucają światło na fenomen „vibe coding” — sposób, w jaki studenci współpracują z AI podczas nauki programowania, komunikując się w naturalnym języku zamiast pisać kod linia po linii. Analiza 19 418 interakcji między 110 studentami a sztuczną inteligencją ujawnia znaczące różnice w strategiach uczenia się między najlepszymi a najsłabszymi uczniami. Badanie zostało opublikowane na arXiv i zostanie przedstawione na 27. Międzynarodowej Konferencji Sztucznej Inteligencji w Edukacji (AIED'26).
Badanie wykazało wyraźne wzorce w sposobie, w jaki różni studenci wykorzystują AI podczas programowania. Najlepsi uczniowie angażowali się w instrumentalne poszukiwanie pomocy, charakteryzujące się dociekliwością i eksploracją. Ich podejście skutkowało odpowiedziami AI podobnymi do tych, jakie dałby doświadczony tutor — szczegółowymi wyjaśnieniami, wskazówkami metodologicznymi i pomocą w zrozumieniu podstawowych koncepcji.
Z kolei słabi studenci częściej uciekali się do wykonawczego poszukiwania pomocy, regularnie przekazując AI odpowiedzialność za wykonanie zadań. W takich przypadkach sztuczna inteligencja przyjmowała rolę wykonawcy, dostarczając gotowe rozwiązania bez głębszego kontekstu edukacyjnego. Ten wzorzec może prowadzić do powierzchownego uczenia się i uzależnienia od zewnętrznej pomocy.
Wyniki badania pokazują, że obecne systemy generatywnej AI działają jako pasywne narzędzia, które dostosowują się do intencji użytkownika bez względu na to, czy są one korzystne dla procesu uczenia się. Autorzy argumentują, że aby AI ewoluowało z narzędzia w prawdziwego partnera edukacyjnego, systemy muszą wykraczać poza zwykłe wypełnianie poleceń.
Badacze postulują stworzenie pedagogicznie zorientowanego designu, który byłby w stanie rozpoznać nieproduktywne delegowanie zadań i adaptacyjnie kierować interakcje edukacyjne w stronę dociekliwości. Taki system powinien zapewniać, że partnerstwa student-AI wzmacniają, a nie zastępują wysiłek poznawczy uczącego się.
Badanie oparte na analizie 19 418 sekwencji interakcji dostarcza cennych wskazówek dla projektantów systemów edukacyjnych wykorzystujących AI. Kluczowe jest stworzenie rozwiązań, które będą aktywnie wspierać rozwój umiejętności myślenia krytycznego i rozwiązywania problemów, zamiast umożliwiać studentom unikanie tych procesów poprzez delegowanie zadań na sztuczną inteligencję.