Sztuczna inteligencja rozszerza powierzchnię ataków i dodaje złożoność. Eksperci wzywają do przeprojektowania strategii bezpieczeństwa.

Źródło zdjęcia: MIT Technology Review

Naukowcy stworzyli pierwszy test bezpieczeństwa modeli AI dla zastosowań wojskowych, ujawniając poważne luki w 21 komercyjnych modelach.

GPT-5.5 Instant zastępuje poprzedni model z lepszą dokładnością w medycynie, prawie i finansach oraz wynikiem 81,2 w teście matematycznym AIME 2025.
Cyberbezpieczeństwo stoi dziś przed poważnymi wyzwaniami, które znacznie wykraczają poza tradycyjne zagrożenia. Jak wynika z prezentacji na konferencji MIT Technology Review EmTech AI, sztuczna inteligencja nie tylko rozszerza powierzchnię ataków, ale także dodaje nową warstwę złożoności do i tak już przeciążonych systemów zabezpieczeń. Pełny materiał dostępny jest na stronie MIT Technology Review.
Sesja prowadzona przez Tarique Mustafę, współzałożyciela i CEO GC Cybersecurity, skupia się na kluczowym problemie współczesnej cyberbezpieczności: tradycyjne podejścia do zabezpieczeń nie są już wystarczające w erze AI.
Tarique Mustafa wnosi do dyskusji bogate doświadczenie jako współzałożyciel i CEO/CTO dwóch firm cyberbezpieczeństwa opartych na AI: GCCybersecurity oraz jej spinoutu zajmującego się zgodnością danych, Chorology. Jako uznany na arenie międzynarodowej autorytet w zakresie reprezentacji wiedzy, rachunku wnioskowania i planowania AI, poświęcił swoją karierę na stosowanie autonomicznie współpracującej sztucznej inteligencji do rozwiązywania złożonych wyzwań na ultra-wysoką skalę.
W GC Cybersecurity Mustafa zaprojektował podstawowe algorytmy AI zasilające platformę 4. i 5. generacji w pełni autonomicznej ochrony przed wyciekami danych i eksfiltracji — jedną z najbardziej zaawansowanych platform tego typu. Jego dorobek obejmuje wielokrotne patenty USPTO oraz ponad 20 lat doświadczenia na stanowiskach kierowniczych w takich firmach jak Symantec, DHL Airways IT, MCI WorldCom czy EDS.
Główny problem, na który wskazuje prezentacja, dotyczy fundamentalnego niedopasowania między sposobem, w jaki tradycyjnie projektowane są systemy cyberbezpieczeństwa, a rzeczywistością środowiska z AI. Starsze podejścia zakładają dodawanie warstw zabezpieczeń do już istniejących systemów, podczas gdy AI wymaga zintegrowanego podejścia od podstaw.
Rozszerzenie powierzchni ataków przez AI oznacza nie tylko więcej potencjalnych punktów wejścia dla cyberprzestępców, ale także nowe rodzaje zagrożeń, których tradycyjne systemy mogą w ogóle nie wykryć. To wymaga nie tylko nowych narzędzi, ale całkowicie nowego sposobu myślenia o bezpieczeństwie cyfrowym.
Prezentacja na konferencji MIT Technology Review podkreśla pilną potrzebę przemyślenia strategii cyberbezpieczeństwa w kontekście wszechobecności AI. Jak pokazuje doświadczenie ekspertów takich jak Tarique Mustafa, przyszłość leży w systemach, które mają AI wbudowane w swoje DNA zabezpieczeń, a nie dodane jako zewnętrzną warstwę ochrony.