Liderzy branży AI ujawnili największe wyzwania: niedobory chipów przez 5 lat, Google rozważa centra danych w kosmosie, a alternatywy dla LLM mogą działać tysiące razy szybciej.

Źródło zdjęcia: TechCrunch

Badanie pokazuje, że modele AI zdolne do rozumowania wykazują rosnące uprzedzenia pozycyjne proporcjonalnie do długości trajektorii myślenia.
System MachinaCheck skraca analizę wykonalności CNC z godzin do 30 sekund, działając lokalnie na AMD MI300X bez ryzyka utraty poufnych danych.
Pięciu architektów gospodarki AI ujawniło podczas konferencji Milken Global Conference w Beverly Hills największe wyzwania branży. W rozmowie z redakcją TechCrunch wzięli udział przedstawiciele kluczowych ogniw łańcucha dostaw AI — od producentów chipów po twórców alternatywnych architektur.
Na scenie pojawili się: Christophe Fouquet, CEO ASML (holenderska firma z monopolem na maszyny do litografii ultrafiletowej), Francis deSouza, COO Google Cloud, Qasar Younis, współzałożyciel Applied Intuition (firma fizycznej AI warta 15 miliardów dolarów), Dimitry Shevelenko z Perplexity oraz Eve Bodnia z Logical Intelligence, startupu kwestionującego fundamentalną architekturę branży.
Boom na AI napotyka twarde fizyczne bariery, które zaczynają się głębiej w stosie technologicznym niż wielu przypuszcza. Fouquet z ASML jako pierwszy zwrócił uwagę na „ogromne przyspieszenie produkcji chipów”, jednocześnie wyrażając „silne przekonanie”, że mimo wszystkich wysiłków „przez następne dwa, trzy, może pięć lat, rynek będzie ograniczony podażą”.
DeSouza z Google Cloud podkreślił skalę problemu, przypominając że przychody Google Cloud przekroczyły 20 miliardów dolarów w ostatnim kwartale przy wzroście o 63 procent. Jeszcze bardziej wymowny był wzrost backlogu — zobowiązanych, ale jeszcze niedostarczonych przychodów — które niemal podwoiły się w jednym kwartale z 250 do 460 miliardów dolarów. „Popyt jest realny”, stwierdził ze spokojem.
Dla Younisa z Applied Intuition, która buduje systemy autonomiczne dla samochodów, ciężarówek, dronów i sprzętu obronnego, głównym ograniczeniem nie są chipy, lecz dane z rzeczywistego świata. „Musisz je znaleźć w prawdziwym świecie”, powiedział, dodając że żadna ilość symulacji syntetycznej nie wypełni tej luki. „Minie dużo czasu, zanim będzie można w pełni trenować modele działające w świecie fizycznym syntetycznie”.
Jeśli chipy to pierwsze wąskie gardło, energia to kolejne, które już się nadciąga. DeSouza potwierdził, że Google traktuje centra danych w kosmosie jako poważną odpowiedź na ograniczenia energetyczne. „Uzyskujesz dostęp do obfitszej energii”, zauważył. Przestrzeń kosmiczna to jednak próżnia, co eliminuje konwekcję i pozostawia promieniowanie jako jedyny sposób odprowadzania ciepła — znacznie wolniejszy i trudniejszy w inżynierii proces niż systemy chłodzenia powietrzem i cieczą używane dziś w centrach danych.
DeSouza argumentował za efektywnością przez integrację. Strategia Google polegająca na współprojektowaniu pełnego stosu AI — od niestandardowych chipów TPU po modele i agentów — przynosi korzyści w watach na operację zmiennoprzecinkową, których firma kupująca gotowe komponenty po prostu nie może odtworzyć. „Uruchamianie Gemini na TPU jest znacznie bardziej energooszczędne niż jakakolwiek inna konfiguracja”, ponieważ projektanci chipów wiedzą, co nadchodzi w modelu przed jego wydaniem.
Fouquet wtórował temu punktowi później w dyskusji. „Nic nie może być bezcenne”, powiedział. Branża znajduje się teraz w dziwnym momencie, inwestując nadzwyczajne ilości kapitału, napędzana strategiczną koniecznością. Ale więcej obliczeń oznacza więcej energii, a więcej energii ma swoją cenę.
Podczas gdy reszta branży debatuje nad skalą, architekturą i efektywnością wnioskowania w ramach paradygmatu dużych modeli językowych, Bodnia buduje coś zupełnie innego. Jej firma Logical Intelligence opiera się na tak zwanych modelach energetycznych (EBM) — klasie AI, która nie przewiduje następnego tokena w sekwencji, ale próbuje zrozumieć reguły leżące u podstaw danych, w sposób który według niej jest bliższy rzeczywistemu działaniu ludzkiego mózgu.
„Język to interfejs użytkownika między moim mózgiem a twoim”, powiedziała. „Samo rozumowanie nie jest przywiązane do żadnego języka”. Jej największy model ma 200 milionów parametrów — w porównaniu do setek miliardów w wiodących LLM — a ona twierdzi, że działa tysiące razy szybciej. Co ważniejsze, został zaprojektowany do aktualizowania swojej wiedzy wraz ze zmianami danych, zamiast wymagania treningu od zera.