Modele AI przeszły od podstawowej arytmetyki do problemów olimpijskich w dwa lata. Badacze OpenAI tłumaczą, dlaczego matematyka stała się kluczem do AGI.

Źródło zdjęcia: The Decoder
Urządzenia intymne z AI za 20 funtów uczą się naszych preferencji, gromadząc dane biometryczne bardziej osobiste niż historia przeglądania internetu.

Greg Brockman opisał w sądzie agresywne zachowanie Elona Muska podczas spotkania w 2017 roku, gdy CEO Tesli żądał pełnej kontroli nad OpenAI.
Sztuczna inteligencja przeszła drogę od podstawowej arytmetyki do rozwiązywania problemów matematycznych na poziomie olimpijskim w zaledwie dwa lata. Badacze z OpenAI tłumaczą w najnowszym odcinku podcastu, dlaczego matematyka stała się kluczowym testem na drodze do sztucznej inteligencji ogólnej (AGI). Szczegóły ich analiz można znaleźć w pełnym raporcie.
Sebastian Bubeck i Ernest Ryu z OpenAI przedstawili fascynujący obraz postępu AI w matematyce. Jeszcze cztery lata temu Bubeck był pod wrażeniem, gdy model Minerva od Google potrafił narysować linię przez punkty na układzie współrzędnych. Dziś te systemy pomagają zdobywcom Medalu Fieldsa w ich codziennej pracy.
Dla Bubecka matematyka nie stała się miarą postępu AGI przypadkowo. Wymaga dokładnie takiego rodzaju zdolności, jakich potrzebuje system o ogólnej inteligencji. Dowody matematyczne wymagają długiego, spójnego rozumowania przez godziny, dni, a nawet lata. Jeden błąd gdziekolwiek w łańcuchu rozumowania niszczy cały argument, bez względu na to, jak poprawna jest reszta.
Badacze chcą przenieść te umiejętności z treningu matematycznego do innych dziedzin — od biologii po materiałoznawstwo. Bubeck porównuje to do edukacji ludzkiej: studenci uczą się matematyki nie dlatego, że będą pisać dowody, ale dlatego, że przedmiot zmusza ich do logicznego myślenia.
Matematyka ma też praktyczne zalety jako benchmark. Problemy są jasno sformułowane, odpowiedzi można sprawdzić, a nikt nie spiera się o to, czy wynik jest poprawny. Metodę treningu OpenAI charakteryzuje uniwersalność — nie jest specyficzna dla matematyki, co oznacza, że postęp w innych naukach powinien nastąpić.
Bubeck i Ryu omówili także problemy Erdősa — kolekcję otwartych pytań pozostawionych przez zmarłego węgierskiego matematyka. Bubeck ujawnił, że wewnętrzne modele początkowo znalazły rozwiązania dziesięciu problemów oznaczonych jako otwarte, głównie poprzez głębokie przeszukiwanie literatury. Jego mylący tweet na ten temat wywołał publiczną sprzeczkę z CEO Google Demisem Hassabisem, ponieważ wielu ludzi odczytało to jako twierdzenie, że OpenAI wyprodukował nowe dowody.
Dziś ChatGPT i wewnętrzne modele rzeczywiście wygenerowały ponad dziesięć genuinnie nowych rozwiązań godnych publikacji w czasopismach akademickich. To, co wydawało się nierealistycznym twierdzeniem, stało się rzeczywistością, a tempo przyspiesza. Bubeck widzi w tym dowód, że modele przechodzą od rekombinowania istniejącej wiedzy do produkowania nowej matematyki.
Obaj badacze ostrzegają przed powierzchownym używaniem tych narzędzi. Ekspertyza ma większe znaczenie niż kiedykolwiek, argumentują, ponieważ tylko wyszkoleni matematycy mogą produktywnie wykorzystać modele. Nie-matematycy publikujący długie dowody generowane przez AI w mediach społecznościowych zazwyczaj się mylą.
Ryu widzi ten sam wzór w programowaniu, gdzie całe pokolenie traci umiejętność korzystania z debuggerów. Bubeck uważa, że twierdzenia o tym, iż naukowcy nie są już potrzebni, są niebezpieczne. Instytucje akademickie muszą aktywnie odzyskać swoją rolę. Jednocześnie AI może przyspieszyć weryfikację dowodów — proces, który obecnie zajmuje lata — i oznaczać problemy w opublikowanych pracach.
Badacze budują „zautomatyzowanego badacza”, który może pracować nad problemami samodzielnie przez długie okresy czasu, co może zrewolucjonizować sposób prowadzenia badań naukowych.