Badanie kanadyjskiego rejestru AI ujawnia, że 86% z 409 systemów służy wewnętrznej efektywności, a transparency może maskować rzeczywiste problemy.

Źródło zdjęcia: arXiv.org

NSA korzysta z Mythos Preview – najmocniejszego modelu Anthropic, podczas gdy Pentagon klasyfikuje firmę jako zagrożenie i próbuje ją zablokować.

Platforma Vercel została zhakowana przez skompromitowane narzędzie AI. Cyberprzestępcy z grupy ShinyHunters próbują sprzedać wykradzione dane pracowników.
Rząd Kanady uruchomił w listopadzie 2025 roku pierwszy Federalny Rejestr AI, który miał być symbolem transparentności w wykorzystaniu sztucznej inteligencji przez administrację publiczną. Jednak nowe badanie naukowe opublikowane na arXiv ujawnia, że tego typu rejestry mogą być bardziej narzędziem bureaucratycznej gry niż prawdziwym instrumentem odpowiedzialności.
Zespół badaczy pod kierownictwem Dipto Das przeanalizował kompletny zbiór danych rejestru, obejmujący 409 systemów AI używanych przez kanadyjską administrację federalną. Wyniki badania zostały zaakceptowane na konferencję FAccT 2026 i rzucają światło na to, jak rządy mogą konstruować narrację o sztucznej inteligencji.
Badacze wykorzystali framework ADMAPS (Algorithmic Decision-Making Adapted for the Public Sector), łącząc analizę ilościową z jakościowym kodowaniem dedukcyjnym. Przeanalizowali wszystkie 409 systemów zarejestrowanych w kanadyjskim rejestrze, co dało im pełny obraz wykorzystania AI w administracji federalnej.
Rejestr przedstawia AI przede wszystkim jako narzędzie optymalizacji wewnętrznych procesów. Dominują aplikacje wspierające działania administracyjne, a nie systemy podejmujące decyzje bezpośrednio wpływające na życie obywateli. Ta obserwacja kontrastuje z publiczną debatą, która koncentruje się głównie na algorytmicznych systemach decyzyjnych w obszarach takich jak opieka społeczna czy wymiar sprawiedliwości.
Autorzy argumentują, że rejestry AI nie są neutralnymi lustrem aktywności rządowej, lecz aktywnymi instrumentami "projektowania ontologicznego", które konfigurują granice odpowiedzialności. Kanadyjski rejestr konstruuje obraz sztucznej inteligencji jako "niezawodnego narzędzia" zamiast "spornego procesu podejmowania decyzji".
To podejście prowadzi do systematycznego pomijania kluczowych aspektów implementacji AI w sektorze publicznym. Rejestr nie uwzględnia złożoności zarządzania niepewnością, procesów szkolenia personelu ani mechanizmów ludzkiego nadzoru, które są niezbędne dla odpowiedzialnego wdrażania systemów AI.
Badanie wskazuje na fundamentalny paradoks współczesnych inicjatyw transparentności w obszarze AI. Chociaż rejestry mają zwiększać odpowiedzialność, mogą w rzeczywistości prowadzić do jej automatyzacji - przekształcając ją w biurokratyczne ćwiczenie zgodności, które oferuje widoczność bez rzeczywistej możliwości kwestionowania.
Autorzy konkludują, że bez fundamentalnej zmiany w projektowaniu takich narzędzi, artefakty transparentności mogą stać się performatywnymi ćwiczeniami, które maskują rzeczywiste wyzwania związane z wdrażaniem AI w sektorze publicznym. Prawdziwa odpowiedzialność wymaga nie tylko ujawnienia informacji o systemach, ale także stworzenia mechanizmów umożliwiających ich kwestionowanie i kontrolę społeczną.