Brian Meeker krytykuje tokenmaxxing i przedstawia praktyczne zasady zarządzania narzędziami AI w zespołach deweloperskich bez przymusu i manipulacji.

Nowe badanie MIT Technology Review pokazuje, że przedsiębiorstwa porzucają model 'możliwości teraz, kontrola później' na rzecz suwerennych systemów AI.
Politycy z obu stron wykorzystują strach przed AI, a protesty przeciwko centrom danych przechodzą już w groźby i ataki fizyczne.
Brian Meeker, doświadczony menedżer zespołów programistycznych, opublikował na swoim blogu szczegółowy przewodnik dotyczący wypracowania spójnej polityki AI w zespołach deweloperskich. Autor krytykuje popularne w 2026 roku podejście „tokenmaxxing” i przedstawia praktyczne zasady zarządzania narzędziami AI w pracy programistów.
Meeker porównuje obecną sytuację do swoich doświadczeń z pierwszej pracy w kancelarii prawnej, gdzie nowa dyrektor próbowała mierzyć wydajność pracowników stoperem — co zakończyło się fiaskiem, gdyż ludzie zachowują się inaczej pod obserwacją.
Autor ostro krytykuje najnowszą modę w zarządzaniu zespołami programistycznymi — tokenmaxxing. To praktyka polegająca na tworzeniu rankingów pracowników na podstawie liczby wykorzystanych tokenów AI. Meeker porównuje ją do innych „naiwnych metryk”, które programiści natychmiast zaczynają manipulować.
„Wystarczy stworzyć pętlę, która marnuje tokeny i wskoczyć na szczyt rankingu. Albo zmarnować akurat tyle, żeby pokazać, że 'używasz' AI, ale nie na tyle dużo, żeby musieć tłumaczyć swoje wykorzystanie” — pisze autor.
Tego typu podejście stanowi jego zdaniem „metrykę próżności udającą przywództwo”, która odwraca uwagę od rzeczywistego celu pracy — pomagania klientom w osiąganiu ich celów.
Polityka AI zaproponowana przez Meekera opiera się na czterech fundamentalnych zasadach:
Brak mandatu AI — zespół nie ma obowiązku używania narzędzi AI, a oceny pracowników nie zależą od intensywności ich wykorzystania. Autor argumentuje, że istnieje sprzeczność w podejściu „maksymalistów AI”: z jednej strony twierdzą, że kto nie wsiądzie do pociągu AI teraz, zostanie w tyle, z drugiej — że cała wiedza stanie się bezwartościowa za sześć miesięcy.
Zrozumienie kodu — każdy kod wygenerowany przez AI pozostaje odpowiedzialnością programisty. Niezależnie od tego, jak dużą część pull requesta napisała sztuczna inteligencja, developer musi rozumieć działanie kodu i dopasować go do istniejących wzorców zespołu.
Gotowość na brak AI — zespół musi być przygotowany na sytuację, gdy narzędzia AI staną się niedostępne. Technologia wciąż się rozwija, a umiejętności programistyczne nie mogą być całkowicie uzależnione od zewnętrznych serwisów.
Meeker podkreśla, że zarządza zespołem sceptycznie nastawionym do AI — i ma ku temu dobre powody, zarówno etyczne, jak i dotyczące produktywności. Zauważa jednak, że obecna generacja modeli językowych powoduje „największe zamieszanie w inżynierii oprogramowania” w jego prawie dwudziestoletniej karierze.
Autor zachęca seniorów do eksperymentowania z narzędziami AI w sposób, który najlepiej im odpowiada — czy to jako integralną część codziennego workflow, czy jako okazjonalne narzędzie do prototypowania. Jednocześnie podkreśla, że wszyscy programiści mają profesjonalny obowiązek wypróbowywania tych narzędzi, gdyż przestrzeń rozwija się tak szybko, że doświadczenia sprzed sześciu miesięcy mogą być już nieaktualne.
Kluczowym elementem polityki jest również dbanie o zespół i klientów — kod musi być wysokiej jakości, niezależnie od tego, czy powstał przy pomocy AI czy bez niego. Programiści nie powinni obciążać recenzentów kodu dodatkową pracą związaną z weryfikacją jakości generowanych fragmentów.
Przewodnik Meekera stanowi praktyczną odpowiedź na chaos związany z wdrażaniem AI w zespołach programistycznych, oferując wyważone podejście między wykorzystaniem potencjału nowych technologii a zachowaniem wysokich standardów profesjonalnych.