Chad Markey miał doskonałe kwalifikacje, ale nie otrzymywał zaproszeń na rozmowy. Podejrzewał systemy AI o błędną interpretację jego medycznych przerw.

Źródło zdjęcia: WIRED

Współzałożyciel OpenAI stanął przed sądem w sprawie Muska, broniąc majątku wartego nawet 30 miliardów dolarów i odpierając zarzuty o „moralną niewypłacalność”.

Benchmark Philosophy Bench pokazuje, jak Claude, GPT-5, Gemini i Grok różnie podchodzą do 100 scenariuszy etycznych — od odmowy po bezrefleksyjne wykonanie.
Chad Markey, student ostatniego roku medycyny na Dartmouth, miał doskonałe oceny, publikacje w prestiżowych czasopismach medycznych i świetne referencje. Mimo to nie otrzymywał zaproszeń na rozmowy kwalifikacyjne do rezydentury. Jego podejrzenia skierowały się ku sztucznej inteligencji używanej do preselekcji kandydatów. Historia opisana przez WIRED pokazuje, jak AI w rekrutacji może krzywdzić doskonałych kandydatów.
Markey przeanalizował swoją dokumentację medyczną i zauważył potencjalnie problematyczne sformułowanie. Jego ocena studencka (MSPE) opisywała jego przerwy w nauce jako „dobrowolne” i podjęte z „przyczyn osobistych”. W rzeczywistości były to medycznie konieczne przerwy związane z diagnozą autoimmunologicznej choroby kręgosłupa, która czasami uniemożliwiała mu chodzenie.
Markey obawiał się, że systemy AI używane przez szpitale do preselekcji aplikacji mogą automatycznie odrzucać kandydatów z takimi „czerwonymi flagami” w dokumentacji, nie analizując kontekstu medycznego wyjaśnionego w narracyjnej części dokumentu.
Przez sześć miesięcy Markey próbował zrozumieć, jak działają systemy AI używane w rekrutacji medycznej. Pisał kody w Pythonie, składał wnioski prawne i prowadził własne badania, próbując zajrzeć do „czarnej skrzynki” algorytmów rekrutacyjnych.
Jego obsesja na punkcie zrozumienia systemu odzwierciedla szerszy problem w branży rekrutacyjnej. Dyrektor generalny jednej z platform rekrutacyjnych przyznał, że branża znajduje się w „pętli zagłady AI” — działy HR skarżą się na falę aplikacji generowanych przez AI, co prowadzi do potrzeby większej liczby filtrów AI, a kandydaci skarżą się na niesprawiedliwe odrzucanie.
Obecnie tylko kilka stanów amerykańskich reguluje używanie AI w procesach rekrutacyjnych. Illinois, New Jersey i Kolorado zabraniają używania dyskryminacyjnych narzędzi, ale wymagają głównie powiadomienia kandydatów o używaniu AI. Kalifornia ma bardziej rygorystyczne przepisy, wymagające regularnego testowania narzędzi AI pod kątem stronniczości.
Żadne z tych przepisów nie dają jednak kandydatom możliwości zrozumienia, jak konkretny system AI ich ocenił lub czy wobec nich dyskryminował. Markey, podobnie jak miliony innych poszukujących pracy, pozostaje bez odpowiedzi na pytanie: czy AI zniszczyło moją aplikację?
Historia Markey'a ilustruje rosnący problem przejrzystości i sprawiedliwości w erze automatyzacji procesów rekrutacyjnych, gdzie ludzie muszą dostosowywać się do nieprzejrzystych algorytmów zamiast być ocenianymi przez innych ludzi.