Bruksela zakazuje narzędzi do generowania seksualizowanych deepfake'ów w odpowiedzi na skandal z chatbotem Elona Muska. Nowe przepisy od grudnia 2026.

Źródło zdjęcia: Spider's Web
Najnowsze modele Claude osiągają perfekcyjny wynik w testach bezpieczeństwa. Kluczem okazało się uczenie AI dlaczego pewne działania są właściwe.

Amazon Web Services opisuje ewolucję skalowania AI i przedstawia warstwową architekturę opartą na GPU Blackwell B200/B300 oraz narzędziach open source.
Unia Europejska wprowadza bezpośredni zakaz aplikacji służących do tworzenia seksualizowanych deepfake'ów i materiałów przedstawiających dzieci. Decyzja Brukseli to odpowiedź na skandal z ubiegłego roku, gdy użytkownicy chatbota Grok należącego do firmy xAI Elona Muska masowo generowali seksualizowane obrazy kobiet i dzieci, jak podaje Spider's Web.
Nowe przepisy obejmą systemy AI zdolne do generowania obrazów, nagrań wideo lub audio przedstawiających nagie osoby albo osoby uczestniczące w czynnościach seksualnych bez ich zgody. Regulacje dotyczą zarówno producentów takich narzędzi, jak i firm udostępniających je na rynku europejskim.
Unijni negocjatorzy nie ukrywają, że impulsem do zmian stały się wydarzenia z ubiegłego roku związane z chatbotem Grok. Użytkownicy narzędzia należącego do firmy xAI Elona Muska zaczęli masowo generować seksualizowane obrazy kobiet i dzieci. Pomimo ogromnej krytyki i styczniowej blokady dalszego generowania grafik, w serwisie wciąż można znaleźć pozostałości skandalu.
Zakaz obejmie również wykorzystywanie AI do tworzenia materiałów przedstawiających seksualne wykorzystywanie dzieci. Parlament Europejski podkreśla, że regulacje dotyczą zarówno producentów takich narzędzi, jak i firm udostępniających je na rynku europejskim bez odpowiednich zabezpieczeń.
Zmiany nie ograniczają się wyłącznie do zakazu „nudifierów”. UE poinformowała o przesunięciu terminu wdrożenia obowiązkowego znakowania treści generowanych przez AI. Zgodnie z nowym prawem, wszystkie systemy AI pozwalające na generowanie obrazów będą musiały zostać wyposażone w mechanizmy automatycznego umieszczania znaków wodnych, które mają pozwalać na wykrywanie i śledzenie materiałów stworzonych przez modele generatywne.
Bruksela zdecydowała się również przesunąć terminy wejścia w życie najbardziej rygorystycznych przepisów AI Act. Systemy wysokiego ryzyka, wykorzystywane w biometrii, edukacji, zatrudnieniu, infrastrukturze krytycznej, organach ścigania czy kontroli granicznej, będą objęte nowymi obowiązkami dopiero od 2 grudnia 2027 roku. Jeszcze później — od 2 sierpnia 2028 roku — zaczną obowiązywać przepisy dotyczące systemów AI będących elementami bezpieczeństwa produktów objętych innymi regulacjami sektorowymi.
Pakiet zmian zawiera również szereg uproszczeń dla przedsiębiorstw. Firmy produkujące maszyny wykorzystujące AI nie będą już musiały równocześnie spełniać wymagań AI Act i odrębnych regulacji bezpieczeństwa dla maszyn. Unijni prawodawcy zawęzili też definicję „komponentu bezpieczeństwa”, dzięki czemu część produktów wykorzystujących AI wyłącznie do optymalizacji działania uniknie klasyfikacji jako systemy wysokiego ryzyka.
Nowelizacja rozszerza ponadto ulgi regulacyjne dla małych i średnich przedsiębiorstw oraz umożliwia wykorzystywanie danych osobowych do wykrywania uprzedzeń i błędów w systemach AI, pod warunkiem zastosowania odpowiednich zabezpieczeń.
Porozumienie osiągnięte przez Parlament Europejski i Radę UE wymaga jeszcze formalnego zatwierdzenia przez oba organy. Europejscy prawodawcy planują zakończyć cały proces przed 2 sierpnia 2026 roku.