2 artykuły z tym tagiem
Allen Institute for AI przedstawił EMO — model MoE pozwalający używać jedynie 12,5% ekspertów przy zachowaniu pełnej wydajności dla konkretnych zadań.
Nowy model ZAYA1–8B z 700M aktywnych parametrów osiąga 91,9% na AIME'25, konkurując z większymi modelami jak GPT-5-High dzięki architekturze MoE++.