Reporterzy z Fortune i innych mediów rutynowo używają AI do tworzenia artykułów. Czy to koniec tradycyjnego dziennikarstwa?

Źródło zdjęcia: WIRED

NSA korzysta z Mythos Preview – najmocniejszego modelu Anthropic, podczas gdy Pentagon klasyfikuje firmę jako zagrożenie i próbuje ją zablokować.

Badanie kanadyjskiego rejestru AI ujawnia, że 86% z 409 systemów służy wewnętrznej efektywności, a transparency może maskować rzeczywiste problemy.
Legendarny dziennikarz sportowy Red Smith powiedział kiedyś, że pisanie felietonu to proste zadanie: „Wystarczy usiąść przy maszynie do pisania i krwawić". W 2026 roku krew jednak nie jest już potrzebna — wystarczy usiąść przy laptopie i pozwolić Claude'owi lub ChatGPT napisać artykuł za siebie. Tak wynika z najnowszych raportów z frontu dziennikarskiego, które budzą niepokój wśród tradycyjnych pisarzy.
Maxwell Zeff z WIRED opisał w swoim artykule dziennikarzy, którzy bez skrępowania wykorzystują AI do generowania przynajmniej części swojej prozy. Alex Heath, reporter technologiczny, przyznał, że regularnie zleca AI pisanie szkiców na podstawie swoich materiałów. „Widzę AI jako narzędzie", mówi Heath. „Nie zastępuje ono niczego — jedyne, co zastąpiło, to żmudna praca, której i tak nie chciałem robić".
Równocześnie The Wall Street Journal przedstawił profil Nicka Lichtenberga z Fortune, który w znacznym stopniu polega na AI przy tworzeniu swoich tekstów. Jego proces pracy wygląda następująco: wymyśla nagłówek, zleca Perplexity lub Google Notebook LM napisanie pierwszej wersji, którą następnie przenosi bezpośrednio do systemu zarządzania treścią Fortune. Dopiero potem edytuje artykuł, wykorzystując swoją wiedzę i doświadczenie.
Redaktor naczelna Fortune, Alyson Shontell, próbuje złagodzić kontrowersje, twierdząc, że Lichtenberg „nie używa AI jako zastępstwa pisania", a jego artykuły są „wspomagane przez AI, a nie napisane przez AI". Podkreśla, że nadal wykonuje „ambitne reportaże, analizy i przeróbki, które są bardzo oryginalne".
Termin „wspomagane przez AI" wykonuje tutaj ogromną pracę semantyczną. Lichtenberg sam opisał swój proces jako niemal jednokrotne wykorzystanie AI — „kiedy mówię jednokrotne, mam na myśli, że prawie nie musiałem nic robić", przyznał w rozmowie z Reuters Institute for the Study of Journalism.
Debata odzwierciedla głębszy konflikt między różnymi podejściami do komunikacji. Autor wspomina spotkania z postaciami z Doliny Krzemowej, które traktują ludzką ekspresję jako przeszkodę w przekazywaniu czystej informacji. Sergey Brin z Google argumentował, że książki są nieefektywnym sposobem wyjaśniania rzeczy. Crypto-magnat Samuel Bankman-Fried twierdził, że „jeśli napisałeś książkę, spartaczyłeś sprawę — powinien to być post na blogu o sześciu akapitach".
Marc Andreessen posunął się jeszcze dalej, sugerując w podkaście, że introspekcja była niedawnym i niepożądanym rozwojem w ludzkim doświadczeniu. Takie podejście zakłada, że ludzka ekspresja przeszkadza w przekazywaniu czystych informacji.
Paradoksalnie, nawet AI nie akceptuje takiego stanowiska — dlatego modele językowe są trenowane do naśladowania ludzkiej ekspresji. Ludzie potrzebują połączenia z tym, co czytają, ale ponieważ AI nie żyje w rzeczywistym świecie ani nie ma autentycznych ludzkich doświadczeń, nie może zapewnić tej autentycznej więzi, którą czytelnicy podświadomie poszukują w tekstach pisanych przez ludzi.