Firmy coraz częściej używają AI do monitorowania emocji pracowników, choć systemy wykazują bias rasowy i opierają się na kwestionowanej nauce.

Źródło zdjęcia: The Decoder
Jeśli agent AI podwaja szybkość pisania kodu, musi zmniejszyć koszty jego utrzymania o połowę. Inaczej zespoły programistyczne skazują się na długoterminowe problemy.

Dokumenty sądowe ujawniają, jak Microsoft obawiał się utraty OpenAI na rzecz Amazon i negatywnych komentarzy o platformie Azure w 2017–2018 roku.
Sztuczna inteligencja do rozpoznawania emocji coraz częściej pojawia się w miejscach pracy, mimo że opiera się na wątpliwych podstawach naukowych i może prowadzić do dyskryminacji pracowników. Jak wynika z najnowszego raportu The Atlantic, pracodawcy wykorzystują tego typu oprogramowanie do monitorowania nastrojów pracowników podczas spotkań, rozmów z klientami czy rekrutacji.
Ellen Cushing z The Atlantic przetestowała na sobie usługę MorphCast, która analizowała jej mimikę podczas spotkania z szefem i uznała, że była „rozbawiona”, „zdeterminowana” i „zainteresowana”, choć czasami „niecierpliwa”. Ten eksperyment posłużył jako punkt wyjścia do szerszego spojrzenia na rozwijającą się branżę „emotion AI” i „affective computing”.
Produkty emotion AI analizują wszystko — od nagrań wideo z rozmów kwalifikacyjnych po audio z call center i transkrypcje czatów. Producent mebli Framery testował krzesła biurowe wyposażone w biosensory mierzące tętno, częstość oddychania i poziom nerwowości. Integracje ze Slack-iem jak Aware i Microsoft Azure oferują analizę sentymentu wewnętrznej komunikacji, podczas gdy firmy jak Imentiv sprzedają narzędzia do analizy emocjonalnej w procesie rekrutacji.
Jednak podstawy naukowe tych rozwiązań są mocno kwestionowane. Jak tłumaczy neuronaukowiec Lisa Feldman Barrett, cytowana w artykule: „ruchy — czy to na twarzy, w ciele, czy tony głosu — nie mają inherentnego znaczenia emocjonalnego. Mają znaczenie relacyjne”. W USA ludzie marszczą brwi ze złości tylko w około 35 procentach przypadków.
Szczególnie niepokojące są dowody na bias rasowy w tych systemach. Badanie Lauren Rhue wykazało, że AI do rozpoznawania emocji oceniała czarnoskórych graczy NBA jako bardziej gniewnych niż ich białych kolegów z drużyny, „nawet w niektórych przypadkach, gdy się uśmiechali”.
Wątpliwa nauka i niekontrolowany nadzór już powodują konkretne szkody. Według śledztwa New York Times z 2022 roku, pracownicy socjalni w UnitedHealth otrzymywali gorsze oceny za brak aktywności klawiatury podczas rozmów z pacjentami. ACLU oskarżyło platformę rekrutacyjną HireVue i jej klienta Intuit o odmówienie awansu głuchej pracowniczce zespołu ds. dostępności, z uzasadnieniem w emailu, że powinna „ćwiczyć aktywne słuchanie”. Obie firmy zaprzeczyły tym zarzutom.
Unia Europejska już zakazała tego typu emotion AI w miejscu pracy w ramach AI Act, z wyjątkami tylko dla celów medycznych i bezpieczeństwa. MorphCast zareagował na to przeprowadzką siedziby z Florencji do Bay Area w USA.
Mimo regulacji w UE, globalny rynek emotion AI ma się potroić do 9 miliardów dolarów do 2030 roku. Cushing kończy swój raport dystopijną wizją: bardziej niepokojąca niż wadliwe systemy byłaby przyszłość, w której oprogramowanie faktycznie działa — a pracownicy musieliby dodatkowo do swoich obowiązków „pracować nad tym, żeby robot emocji myślał, że jestem wystarczająco pogodny”.
Rozwój technologii emotion AI w miejscu pracy rodzi poważne pytania o granice prywatności i skuteczność nadzoru opartego na wątpliwych podstawach naukowych.