Firmy technologiczne organizują spotkania z liderami religijnymi w ramach inicjatywy Faith-AI Covenant, szukając wskazówek etycznych dla rozwoju AI.

Źródło zdjęcia: The Decoder

Nvidia zainwestował ponad 40 mld USD w firmy AI, w tym 30 mld w OpenAI. Krytycy wskazują na cyrkuliczne transakcje między tymi samymi podmiotami.

Claude Mythos jako pierwszy model przekroczył możliwości pomiarowe METR, podczas gdy eksperci ostrzegają przed AI jako autonomicznymi operatorami cyberataków.
Firmy technologiczne Anthropic i OpenAI szukają wskazówek etycznych u przywódców religijnych, organizując spotkania w ramach inicjatywy „Faith-AI Covenant”. Pierwszy okrągły stół odbył się w Nowym Jorku, a kolejne planowane są w Pekinie, Nairobi i Abu Dhabi, jak donosi The Decoder.
Spotkanie zorganizował Interfaith Alliance for Safer Communities (IAFSC) z siedzibą w Genewie — organizacja założona w 2018 roku, która angażuje liderów religijnych w kwestie ekstremizmu, radykalizacji, handlu ludźmi i ochrony dzieci.
Baroness Joanna Shields, partnerka w Interfaith Alliance i była dyrektor Google oraz Facebook, tłumaczy, że regulacje prawne nie nadążają za tempem rozwoju AI. Obecnie prowadzi firmę Precognition, która doradza rządom i korporacjom w kwestiach sztucznej inteligencji i przewidywania strategicznego. Jej zdaniem celem inicjatywy jest wypracowanie wspólnych standardów etycznych.
IAFSC podkreśla historyczne znaczenie tego momentu, argumentując, że tradycje religijne od wieków pomagają ludzkości interpretować świat i definiować moralne granice. Sztuczna inteligencja zaczyna wpływać na te same obszary, zmieniając sposób, w jaki ludzie zdobywają wiedzę, formułują osądy i szukają przewodnictwa.
Anthropic jest bardziej aktywny w przestrzeni religijnej — firma już wcześniej angażowała liderów wiary w kształtowanie swojej „Claude Constitution”. Sam Altman z OpenAI również odwołuje się do duchowych metafor, mówiąc na przykład o rozwijaniu „magicznej inteligencji na niebie” czy że czuje się „po stronie aniołów”.
Nie wszyscy w branży przyjmują inicjatywę entuzjastycznie. Dylan Baker z Distributed AI Research Institute ostrzega, że debata wokół „etycznej AI” przesłania bardziej fundamentalne pytanie: czy określone systemy AI w ogóle powinny być budowane.
Badaczka AI Rumman Chowdhury z organizacji non-profit Humane Intelligence, która testuje systemy AI pod kątem bezpieczeństwa i sprawiedliwości, nazywa te rozmowy „w najlepszym przypadku rozproszeniem uwagi”. Jej zdaniem skupienie na etyce religijnej odwraca uwagę od konkretnych pytań o regulacje, władzę i kontrolę nad systemami AI.
Brian Boyd z Future of Life Institute dostrzega w spotkaniu „pewien aspekt PR”. Jak zauważa, Dolina Krzemowa długo działała zgodnie z mottem „ruszaj szybko i łam rzeczy” i „złamała zbyt wiele rzeczy i skrzywdziła zbyt wiele osób” w tym procesie. Nowe zbliżenie do religii może być próbą odbudowania zaufania.
Inicjatywa „Faith-AI Covenant” reprezentuje rzadką próbę bezpośredniego dialogu między tradycjami religijnymi, zakorzenionymi w wiekach moralnego i duchowego autorytetu, a sztuczną inteligencją jako szybko rozwijającą się siłą definiującą współczesne życie.