Chiński DeepSeek wypuścił model V4 dorównujący GPT-5.4 i Claude przy 90% niższych kosztach pamięci i rewolucyjnym oknie kontekstu 1 miliona tokenów.

Źródło zdjęcia: MIT Technology Review

Kierownictwo OpenAI przewiduje znaczące przyspieszenie rozwoju sztucznej inteligencji w najbliższych miesiącach. Główny naukowiec firmy Jakub Pachocki podczas prezentacji GPT-5.5 zapowiedział ["dość z

Claude łączy się z ponad 200 aplikacjami codziennego użytku. Może zaplanować weekend, dobierając muzykę, transport i noclegi w jednej rozmowie.
W piątek chińska firma DeepSeek opublikowała podgląd swojego długo wyczekiwanego modelu V4, który stanowi najważniejsze wydanie od momentu premiery modelu rozumującego R1 w styczniu 2025 roku. Nowy model oferuje znacznie wydłużone okno kontekstu dzięki innowacyjnemu podejściu do mechanizmu uwagi, pozostając jednocześnie open source i dostępnym dla wszystkich użytkowników. Szczegółową analizę znaczenia tego wydania przedstawia MIT Technology Review.
DeepSeek V4 pojawia się po miesiącach spekulacji i wyzwań dla firmy, w tym odejściu kluczowych pracowników i zwiększonej kontroli ze strony rządów USA i Chin. Model dostępny jest w dwóch wersjach: V4-Pro dla zadań programistycznych i złożonych agentów oraz szybszą i tańszą wersję V4-Flash.
DeepSeek V4 kontynuuje filozofię firmy oferowania wydajności na poziomie najlepszych komercyjnych modeli przy znacznie niższych kosztach. V4-Pro kosztuje 1,74$ za milion tokenów wejściowych i 3,48$ za tokeny wyjściowe, co stanowi ułamek cen porównywalnych rozwiązań od OpenAI czy Anthropic. Jeszcze bardziej atrakcyjna cenowo jest wersja V4-Flash - około 0,14$ za milion tokenów wejściowych.
Pod względem wydajności V4 stanowi ogromny skok w porównaniu do R1. Według wyników benchmarków udostępnionych przez firmę, V4-Pro konkuruje z wiodącymi modelami zamkniętymi, dorównując wydajności Claude-Opus-4.6, GPT-5.4 i Gemini-3.1. W porównaniu z innymi modelami open source, takimi jak Qwen-3.5 od Alibaba czy GLM-5.1 od Z.ai, DeepSeek V4 przewyższa je wszystkie w zadaniach programistycznych, matematycznych i z zakresu nauk ścisłych.
Firma przeprowadziła także wewnętrzne badanie wśród 85 doświadczonych programistów - ponad 90% z nich umieściło V4-Pro wśród swoich top wyborów do zadań programistycznych.
Kluczową innowacją V4 jest rozszerzone okno kontekstu wynoszące 1 milion tokenów - wystarczająco dużo, by pomieścić wszystkie trzy tomy "Władcy Pierścieni" wraz z "Hobitem". To rozmiar dorównujący najnowszym wersjom modeli takich jak Gemini czy Claude.
Najważniejsze jednak jest sposób, w jaki DeepSeek osiągnął ten cel. V4 wprowadza znaczące zmiany architektoniczne, szczególnie w mechanizmie uwagi, który pomaga modelom rozumieć każdą część zapytania w relacji do reszty tekstu. Wraz z wydłużaniem się tekstu, te porównania stają się znacznie kosztowniejsze, czyniąc uwagę głównym wąskim gardłem dla modeli z długim kontekstem.
Innowacja DeepSeek polega na zwiększeniu selektywności modelu w kwestii tego, na co zwraca uwagę. Zamiast traktować cały wcześniejszy tekst jako równie ważny, V4 kompresuje starsze informacje i skupia się na częściach, które prawdopodobnie mają znaczenie w danym momencie, jednocześnie zachowując pełny tekst w pobliżu, aby nie przegapić ważnych szczegółów.
Ta optymalizacja drastycznie obniża koszty wykorzystania długiego kontekstu. W kontekście 1 miliona tokenów V4-Pro wykorzystuje jedynie 27% mocy obliczeniowej wymaganej przez poprzedni model V3.2, przy jednoczesnym zmniejszeniu zużycia pamięci do 10%. Redukcja w V4-Flash jest jeszcze większa - zaledwie 10% mocy obliczeniowej i 7% pamięci.
DeepSeek V4 potwierdza pozycję firmy jako znaczącego gracza w rozwoju otwartych modeli AI, oferując wydajność konkurencyjną wobec najlepszych komercyjnych rozwiązań przy ułamku kosztów i z pełną dostępnością kodu źródłowego.