Timothy Gowers użył ChatGPT 5.5 Pro do rozwiązania otwartych problemów matematycznych. AI samodzielnie wygenerował prace naukowe na poziomie doktorskim bez pomocy człowieka.

Źródło zdjęcia: The Decoder

Nvidia zainwestował ponad 40 mld USD w firmy AI, w tym 30 mld w OpenAI. Krytycy wskazują na cyrkuliczne transakcje między tymi samymi podmiotami.
Dane OpenAI za Q1 2026 pokazują, że kobiety stanowią już ponad połowę użytkowników ChatGPT, a największy wzrost adopcji odnotowano w krajach Ameryki Łacińskiej i Afryki.
Brytyjski matematyk Timothy Gowers, laureat Medalu Fieldsa, wykorzystał model ChatGPT 5.5 Pro do rozwiązania otwartych problemów z teorii liczb. Sztuczna inteligencja samodzielnie wygenerowała kompletne prace naukowe w mniej niż dwie godziny, jak relacjonuje portal The Decoder.
Według Gowersa, wyniki osiągnięte przez AI można porównać do poziomu doktorskiego, a model potrafił samodzielnie udoskonalić istniejące granice matematyczne. Co więcej, matematyk podkreśla, że jego własny wkład w badania był zerowy — całą pracę wykonał model.
Gowers, który pełni funkcję profesora kombinatoryki w Collège de France i jest członkiem Trinity College Cambridge, podał modelowi otwarte problemy z pracy teoretyka liczb Mela Nathansona. Praca badała możliwe rozmiary określonych zbiorów sum całkowitych i efektywność konstrukcji zbiorów o zadanych właściwościach.
Nathanson udowodnił wykładniczą granicę dla jednego z problemów i zadał pytanie, czy można ją poprawić. ChatGPT 5.5 Pro „myślał” przez 17 minut i 5 sekund, po czym dostarczył najlepszą możliwą konstrukcję z granicą kwadratową. Kluczowym pomysłem było zastąpienie komponentu w dowodzie Nathansona bardziej efektywnym wariantem, dobrze znanym w kombinatoryce, ale którego zastosowanie do tego konkretnego problemu nie było oczywiste.
Znacznie trudniejszy okazał się uogólniony wariant problemu, nad którym wcześniej pracował Isaac Rajagopal, student MIT, który udowodnił wykładniczą zależność. Gowers przekazał ChatGPT pracę Rajagopala i poprosił o ulepszenie.
Po 16 minutach i 41 sekundach model dostarczył pierwsze usprawnienie, które Rajagopal ocenił jako poprawne, ale rutynową modyfikację swojej pracy. Kiedy Gowers „zachłannie” poprosił o znacznie mocniejszą granicę, model po kolejnych sesjach obliczeniowych (łącznie około 40 minut) poprawił granicę z wykładniczej na wielomianową.
Rajagopal określił kluczowy pomysł modelu jako „dość genialny”. AI znalazła nieintuicyjny sposób kompresji określonych struktur algebraicznych, aby zmieściły się w znacznie mniejszym zakresie liczbowym bez utraty kluczowych właściwości kombinatorycznych.
Gowers wyciąga daleko idące wnioski z tego eksperymentu. Twierdzi, że dolna granica wkładu w matematykę będzie teraz polegać na udowadnianiu rzeczy, których LLM-y nie potrafią udowodnić, zamiast po prostu udowadniania czegoś, czego nikt wcześniej nie udowodnił.
Matematyk stawia prowokacyjne pytanie: „Załóżmy, że matematyk rozwiązał poważny problem, prowadząc długą wymianę z LLM-em, w której matematyk odegrał użyteczną rolę przewodnią, ale LLM wykonał całą pracę techniczną i miał główne pomysły. Czy uznalibyśmy to za wielkie osiągnięcie matematyka? Myślę, że nie”.
Mimo rewolucyjnych możliwości AI, Gowers nadal widzi wartość w samodzielnym rozwiązywaniu problemów matematycznych, argumentując, że ci, którzy rozwiązali trudne problemy na własną rękę, zyskują wgląd w proces rozwiązywania problemów, którego nie można uzyskać z samego czytania.