Anthropic rozszerza platformę Claude o „Dreaming” — funkcję analizującą wcześniejsze sesje agentów i wykrywającą wzorce błędów oraz sprawdzone przepływy pracy.

Źródło zdjęcia: The Decoder

Chiński model Ernie 5.1 osiąga wyniki konkurencyjne z najlepszymi AI przy 94% niższych kosztach trenowania. Wykorzystuje innowacyjny pipeline.
OpenAI tworzy globalną sieć klubów studenckich na uniwersytetach, oferując praktyczne nauczanie AI, wczesny dostęp do narzędzi i wsparcie wydarzeń.
Anthropic rozszerza swoją platformę Claude Managed Agents o trzy nowe funkcje mające na celu zwiększenie niezawodności i adaptacyjności agentów AI w rzeczywistych zastosowaniach. Najciekawszą nowością jest „Dreaming” — proces, który analizuje wcześniejsze sesje agentów, identyfikuje wzorce i dzieli się spostrzeżeniami między sesjami, wykrywając powtarzające się błędy lub sprawdzone przepływy pracy. Szczegóły nowych funkcji zostały przedstawione w artykule na The Decoder.
Dreaming działa jako asynchroniczne zadanie, które czyta istniejący magazyn pamięci i opcjonalnie do 100 wcześniejszych sesji. Proces obejmuje usuwanie duplikatów i przestarzałych wpisów, a następnie budowanie nowej, uporządkowanej pamięci na ich podstawie. Ważne jest, że oryginalna pamięć pozostaje nienaruszona podczas tego procesu.
Interfejs Dreaming w konsoli Claude umożliwia użytkownikom wybór magazynu pamięci i modelu, określenie sesji do analizy oraz uruchomienie procesu. Funkcja jest obecnie dostępna jako podgląd badawczy, a deweloperzy mogą ubiegać się o dostęp przez formularz na stronie Claude.
Funkcja Outcomes pozwala deweloperom definiować rubryki — dokumenty ze specyficznymi kryteriami sukcesu, takimi jak „plik CSV zawiera kolumnę cen z wartościami numerycznymi”. Oddzielny ewaluator sprawdza następnie wyniki agenta względem tych kryteriów we własnym oknie kontekstu, bez wpływu rozumowania agenta. Jeśli wynik nie spełnia specyfikacji, ewaluator identyfikuje luki, a agent poprawia swoją pracę.
Orkiestracja wieloagentowa wprowadza model, w którym główny agent (koordynator) zarządza pracą kilku wyspecjalizowanych agentów. Każdy agent działa we własnym wątku z izolowanym kontekstem, własnym modelem, systemowym promptem i dedykowanymi narzędziami, ale wszyscy współdzielą ten sam system plików. Koordynator może delegować zadania równolegle, na przykład przekazując jednocześnie przegląd kodu i tworzenie testów różnym agentom. System obsługuje do 20 różnych agentów i maksymalnie 25 jednocześnie działających wątków.
Outcomes, orkiestracja wieloagentowa i funkcja pamięci są dostępne jako publiczne bety w ramach platformy Anthropic Managed Agents. Więcej szczegółów można znaleźć w dokumentacji, na blogu Claude oraz w konsoli Claude. Te nowe funkcje mają na celu uczynienie agentów AI bardziej niezawodnymi i zdolnymi do uczenia się z własnych doświadczeń w rzeczywistych zastosowaniach.