Mowy końcowe w procesie Muska przeciwko Altmanowi ujawniły chaos w obronie i plotki o kulisach AI, w tym wykorzystanie OpenAI przez xAI.

Źródło zdjęcia: The Verge

Nowa metoda MIGP eliminuje problem niepraktycznych porcji w algorytmach żywieniowych, oferując rozwiązania z naturalnymi jednostkami żywności.

Badacze z UC Berkeley stworzyli system automatycznie wykrywający luki w benchmarkach AI. BenchJack zhakował niemal wszystkie popularne testy.
Koniec procesu sądowego Musk przeciwko Altman zakończył się dzisiaj mowami końcowymi, które okazały się spektakularną kompromitacją prawnika Elona Muska. Steven Molo mylił nazwiska pozwanych, błędnie twierdził, że Musk nie żąda pieniędzy, i przedstawił mało dowodów na rzeczywiste roszczenia prawne. Analiza całego procesu pokazuje jednak, że prawdziwą wartością sprawy były plotki i rewelacje o kulisach świata AI.
Prawniczka OpenAI Sarah Eddy skutecznie skontrowała chaotyczną obronę, układając dowody w porządku chronologicznym i serwując uszczypliwe komentarze o Musku. Jak zauważyła: „Nawet matka jego dzieci nie może potwierdzić jego wersji wydarzeń”.
Mowy końcowe pokazały dramatyczną różnicę w przygotowaniu stron. Steven Molo, reprezentujący Muska, popełnił serię podstawowych błędów — mylił Greg Brockmana z „Greg Altmanem”, musiał być korygowany przez sędzinę Yvonne Gonzalez Rogers w kwestii roszczeń finansowych, a jego argumentacja była chaotyczna i niespójna.
W przeciwieństwie do tego, zespół OpenAI z Sarah Eddy i Williamem Savittem metodycznie rozłożył obronę Muska na czynniki pierwsze. Savitt szczególnie skutecznie wykazał, ile razy Musk „nie pamiętał” kluczowych szczegółów, kwestionując, jak doświadczony biznesmen mógł nie zrozumieć czterostronicowego arkusza warunków przesłanego przez OpenAI.
Proces ujawnił fascynujące szczegóły o kulisach wojny w świecie AI. Musk przyznał, że xAI wykorzystywało destylację innych modeli, w tym OpenAI, co tłumaczy podejrzanie szybki rozwój Groka w 2024 roku.
Szczególnie intrygująca okazała się rola Miry Murati, która podczas odsunięcia Altmana grała na dwie strony — najpierw dostarczając materiały, które doprowadziły do jego usunięcia, a następnie przekazując mu informacje o działaniach zarządu i publicznie krytykując decyzję.
Proces ujawnił też, że inżynierowie OpenAI, w tym Greg Brockman, pracowali przy oprogramowaniu do autonomicznej jazdy Tesli, będąc teoretycznie zatrudnieni przez OpenAI. Dodatkowo Shivon Zilis nie powiedziała współpracownikom z zarządu, że Musk jest ojcem jej dzieci, aż do momentu gdy Business Insider dotarł do dokumentów sądowych.
Poza spektaklem sądowym, proces ujawnił fundamentalną prawdę: Elon Musk radzi sobie w AI znacznie gorzej niż sugeruje jego publiczny wizerunek. Wielokrotnie przewidywał porażkę OpenAI, próbował sabotować firmę i wykradać jej badaczy — w przypadku Andreja Karpathy'ego nawet się to udało.
Jednak xAI pozostaje problematycznym przedsięwzięciem. Firma stała się „czarną dziurą dla pieniędzy” i została przejęta przez SpaceX, traci badaczy, a jej główne centrum danych zajmie konkurencyjna Anthropic zamiast xAI. Użytkownicy korporacyjni są zmuszani do korzystania z produktów xAI, a skuteczność Groka wynika głównie z destylacji cudzych modeli.
Jak trafnie zauważyli już w 2018 roku Brockman i Sutskever w korespondencji z Zilis, Musk „naprawdę nie odrobił pracy domowej w kwestii AI/AGI” — co ich niepokoiło w kontekście współpracy z nim. Proces potwierdził słuszność ich obaw i pozostawia pytanie, czy inwestorzy planowanego IPO SpaceX zwrócą na to uwagę.