Badacze opracowali LACE — technikę umożliwiającą równoległym procesom rozumowania w AI wzajemne dzielenie się wiedzą i korekcję błędów.

Źródło zdjęcia: arXiv.org
Zespół badaczy z Yang Li na czele opracował LACE (Lattice Attention for Cross-thread Exploration) — nowatorską metodę, która pozwala dużym modelom językowym na współdzielenie wiedzy między równoległymi procesami rozumowania podczas wnioskowania. i pokazuje, jak modele AI mogą być bardziej efektywne dzięki współpracy między równoległymi ścieżkami myślenia.
• Przełom w architekturze: LACE wprowadza mechanizm cross-thread attention, który umożliwia równoległym procesom rozumowania dzielenie się spostrzeżeniami i wzajemne korygowanie błędów podczas wnioskowania
• Problem izolacji: Obecne duże modele językowe rozumują w izolacji — mimo że często generuje się wiele równoległych ścieżek rozumowania, nie współdziałają one ze sobą i często popełniają te same błędy
• Syntetyczne dane treningowe: Naukowcy opracowali pipeline do generowania syntetycznych danych, które uczą modele komunikacji i korekcji błędów między wątkami
• Znaczące poprawy: Eksperymenty wykazały poprawę dokładności rozumowania o ponad 7 punktów procentowych w porównaniu ze standardowym równoległym wyszukiwaniem
• Nowy paradygmat: Badanie przekształca rozumowanie z kolekcji niezależnych prób w skoordynowany, równoległy proces
Tradycyjne podejście do rozumowania w dużych modelach językowych opiera się na generowaniu wielu niezależnych ścieżek myślenia, które następnie są oceniane osobno. LACE zmienia ten paradygmat, wprowadzając mechanizm, który pozwala tym ścieżkom na aktywną komunikację i wzajemne wspieranie się podczas procesu wnioskowania.
Kluczowym elementem innowacji jest przeprojektowanie architektury modelu w celu umożliwienia cross-thread attention. Dzięki temu równoczesne procesy rozumowania mogą dzielić się pośrednimi spostrzeżeniami i korygować nawzajem swoje błędy w czasie rzeczywistym.
Głównym wyzwaniem w rozwoju LACE był brak naturalnych danych treningowych, które wykazywałyby takie współpracujące zachowania. Zespół badawczy rozwiązał ten problem, opracowując syntetyczny pipeline danych, który jawnie uczy modele komunikacji i korekcji błędów między wątkami.
Ten innowacyjny proces treningowy pozwala modelom nauczyć się, jak efektywnie współdzielić informacje między równoległymi procesami myślenia i jak wykorzystywać te informacje do poprawy ogólnej jakości rozumowania.
Wyniki badań sugerują, że duże modele językowe mogą być znacznie bardziej efektywne, gdy równoległe ścieżki rozumowania mają możliwość interakcji. 22-stronicowe badanie z 15 figurami demonstruje potencjał tej metody do fundamentalnej zmiany sposobu, w jaki AI podchodzi do złożonych problemów wymagających rozumowania.
LACE otwiera nową ścieżkę rozwoju dla systemów AI, gdzie współpraca między równoległymi procesami może prowadzić do bardziej niezawodnych i dokładnych wyników niż tradycyjne metody oparte na izolowanym przetwarzaniu.