Twój koszyk jest obecnie pusty!
autorka jest członkinią Community CampusAI
Kandydat siada przed kamerą, odpowiada na pytania i wysyła nagranie. Kilka dni później dostaje odmowę. Nie wie, że decyzja zapadła zanim ktokolwiek z firmy zobaczył jego twarz – system przeanalizował tempo mówienia, pauzy i mimikę. I uznał, że kandydat nie pasuje.
Tak wyglądał proces rekrutacji np. w Unilever w latach 2016-2020, gdy firma testowała automatyczną analizę zachowania kandydatów za pomocą narzędzia HireVue. Korzystało z niego też wielu innych gigantów, w tym Ikea, Hilton, Oracle czy Dow Jones.
Narzędzia takie jak HireVue powstają jako odpowiedź na konkretny problem. Decyzja o automatyzacji rekrutacji rzadko bierze się z fascynacji technologią. Najczęściej pojawia się wtedy, gdy liczba zgłoszeń zaczyna wygrywać z czasem i zasobami HR.
Unilever otrzymywał rocznie ponad 1,8 miliona aplikacji. Przeczytać je wszystkie ręcznie? Nierealne.
Dlatego proces ułożono w etapach. Najpierw system porządkował zgłoszenia i odrzucał te, które nie spełniały podstawowych kryteriów. Potem kandydaci przechodzili krótkie testy poznawcze. A na końcu nagrywali asynchroniczną rozmowę rekrutacyjną – i tu wchodził HireVue.
Na tym etapie system analizował nie tylko treść odpowiedzi, ale też zachowanie przed kamerą: tempo, pauzy, intonację, mimikę. Część kandydatów wypadała z rekrutacji, zanim ktokolwiek z firmy zobaczył ich nagranie.
Tu pojawia się granica. Samo nagrywanie to organizacja pracy. Automatyczna analiza zachowania – mimiki, głosu, pauz – to już ocena kandydata jako osoby, często na podstawie sygnałów, które nie mówią o kompetencjach. Właśnie ten element, tzw. „czytanie twarzy”, HireVue wycofał w styczniu 2021 roku, po skardze organizacji EPIC z 2019 roku.
Gdzie kończy się narzędzie, a zaczyna decyzja?
Artykuł 22 RODO wprost zakazuje w pełni automatycznych decyzji, które wywołują skutki prawne lub w istotny sposób wpływają na człowieka — a odrzucenie w procesie naboru bez wątpienia nim jest.
Przepisy przewidują trzy wyjątki: gdy taka decyzja jest niezbędna do zawarcia umowy, gdy pozwala na to prawo lub gdy kandydat wyrazi na to wyraźną zgodę. Warto jednak wiedzieć, że w rekrutacji zgoda to grząski grunt. Ze względu na nierównowagę sił kandydat rzadko czuje, że ma realny wybór, co sprawia, że taka zgoda bywa łatwa do podważenia jako niedobrowolna.
Dlatego kluczowym „bezpiecznikiem” dla Twojej firmy jest prawo do interwencji ludzkiej. Nie może być ono fikcją. Ktoś z zespołu musi realnie zweryfikować wynik algorytmu, a nie tylko bezrefleksyjnie kliknąć „OK”, zatwierdzając listę do odrzucenia.
Kandydat musi też wiedzieć, kto za tę decyzję odpowiada i pod jaki adres może się zgłosić, by poprosić o ponowną, tym razem już ludzką ocenę swojej aplikacji. Przy decyzji o osobie nie wystarczy ogólna informacja, że „AI wspiera rekrutację”. Kandydat ma prawo wiedzieć, co dokładnie było oceniane i dlaczego te sygnały mają znaczenie dla roli, o którą się ubiega. Chodzi o transparentność procesu, nie o prawo do odwołania.
I tu wchodzi AI Act
Analiza zachowania – mimiki, tonu głosu, tempa mówienia – próbuje wywnioskować z nagrania więcej, niż ono faktycznie pokazuje. Zamiast pomiaru jest interpretacja, która łatwo myli stres z „brakiem pewności siebie”, introwersję z „brakiem kompetencji”, a akcent z „gorszą komunikacją”.
Dlatego AI Act wprowadził zakaz wykorzystywania systemów rozpoznawania emocji w miejscu pracy i w rekrutacji. Chodzi o systemy, które próbują wnioskować o emocjach lub stanie psychicznym na podstawie cech biometrycznych – mimiki, głosu, ruchów. Zakaz wszedł w życie 2 lutego 2025 r., a kary za naruszenie stały się egzekwowalne od 2 sierpnia 2025 r. – do 35 milionów euro lub 7% globalnego rocznego obrotu firmy, w zależności od tego, która kwota jest wyższa. To dotyczy każdej firmy. Ten sam zakaz obowiązuje małą firmę, która wdroży „sprytne” narzędzie do czytania emocji z nagrania na etapie rekrutacji do biura.
Dla firmy korzystającej z AI w rekrutacji to nie jest abstrakcyjny przepis z Brukseli, ale bardzo konkretne pytanie: czy mój system ocenia kandydata za to, co potrafi, czy za to, jak wygląda i jak wypada na kamerze? Jeśli w algorytmie pojawia się analiza mimiki, tonu głosu czy „pewności siebie” wyczytanej z twarzy, to nie mówimy już o uporządkowaniu procesu, tylko o współdecydowaniu z maszyną o człowieku na podstawie sygnałów biometrycznych.
Co to znaczy dla małych firm?
Unilever i mała firma to dwa różne światy pod względem skali, ale granica pozostaje ta sama. Rozróżnienie między automatyzacją procesu a automatyzacją decyzji o człowieku dotyczy każdej firmy.
Mała firma nie ma 1,8 miliona aplikacji. Ma za to skrzynkę mailową z CV, Excela, może prosty ATS (system do zarządzania rekrutacją) – i pokusę, żeby „coś z AI” wyręczyło ją w odsiewaniu kandydatów. I warto pamiętać: automatyzacja rekrutacji sama w sobie nie jest ryzykowna. Wręcz przeciwnie. Filtrowanie CV, porządkowanie zgłoszeń czy testy wiedzy to sposób na uporządkowanie chaosu.
Ryzyko pojawia się w momencie, gdy system zaczyna oceniać kandydata, a Ty przestajesz rozumieć, na jakiej podstawie powstał wynik. Test z Excela dla asystentki? Konkretna umiejętność, potrzebna do pracy. Ocena „pewności siebie” na podstawie mimiki? Interpretacja, która nie ma związku z realną pracą.
Wtedy Twoja firma nie automatyzuje już procesu, zaczyna współdecydować z algorytmem o człowieku. I to jest moment, w którym odpowiedzialność nie znika, zmienia tylko formę. Nadal ponosi ją pracodawca. Rezygnacja z AI w rekrutacji nie jest oczywiście konieczna, automatyzować pracę można bezpiecznie. Automatyzować ocenę człowieka — już nie.
Jeśli dziś w Twojej firmie jakikolwiek system „ocenia nastawienie” albo „czyta emocje” z nagrań wideo czy głosu kandydata, to jest to ten moment, żeby go zatrzymać i zapytać dostawcę, co dokładnie mierzy, na jakiej podstawie i czy nie wchodzi już w zakazany przez AI Act obszar rozpoznawania emocji.




