Sztuczna inteligencja w rekrutacji pracowników – obowiązki, ryzyka i regulacje dla pracodawców

Spis treści

Wykorzystanie sztucznej inteligencji (AI) w procesach rekrutacyjnych staje się codziennością. Coraz więcej firm korzysta z algorytmów do selekcji kandydatów, analizy CV czy wstępnych rozmów online. Rozwiązania te pozwalają zaoszczędzić czas i środki, ale jednocześnie niosą ze sobą ryzyka prawne – od naruszenia prywatności po dyskryminację kandydatów.

Niniejszy poradnik wyjaśnia, jakie obowiązki prawne spoczywają na pracodawcach korzystających z systemów AI w rekrutacji, jakie zagrożenia dostrzega ustawodawca unijny i krajowy, oraz jakie środki ochronne należy wdrożyć, aby rekrutacja była zgodna z AI ActRODO i Kodeksem pracy.


Rola sztucznej inteligencji w procesach rekrutacyjnych

Sztuczna inteligencja (AI) rewolucjonizuje sposób, w jaki przedsiębiorcy poszukują pracowników. W wielu przypadkach systemy AI potrafią w ciągu sekund przeanalizować setki zgłoszeń, ocenić zgodność kwalifikacji z wymaganiami stanowiska, a nawet poprowadzić rozmowę wstępną z kandydatem poprzez chatbota.

Pandemia COVID-19 oraz dynamiczny wzrost pracy zdalnej znacząco przyspieszyły wdrażanie takich rozwiązań. Obecnie przedsiębiorcy coraz częściej inwestują w automatyczne systemy selekcji i oceny kandydatów, które zastępują tradycyjne działania działów HR.

Przykład:
Firma TechNova z Wrocławia wdrożyła system rekrutacyjny oparty na AI, który analizuje profile kandydatów z portali zawodowych i automatycznie odrzuca aplikacje niespełniające podstawowych kryteriów. W efekcie proces rekrutacji skrócił się o 60%, ale po kilku miesiącach spółka otrzymała skargę o dyskryminację, ponieważ system faworyzował osoby z określonych uczelni.

Takie sytuacje pokazują, że efektywność technologiczna nie może zastąpić odpowiedzialności prawnej.


Brak kompleksowych przepisów krajowych – ale obowiązki już istnieją

W polskim porządku prawnym nie ma jeszcze kompleksowej ustawy regulującej wykorzystanie sztucznej inteligencji w rekrutacji. Ramy prawne wynikają z kilku aktów:

  • Kodeksu pracy – w zakresie zakazu dyskryminacji i zasad równego traktowania;
  • RODO – w zakresie przetwarzania danych osobowych kandydatów;
  • AI Act – unijnego aktu o sztucznej inteligencji przyjętego 13 czerwca 2024 r., który zacznie być stosowany od 2 sierpnia 2026 r., ale zakazane praktyki obowiązują już od 2 lutego 2025 r.

Warto także odnotować, że w Polsce trwają prace nad ustawą o systemach sztucznej inteligencji (projekt z 15 października 2024 r.).


Odpowiedzialność pracodawcy za działanie AI w rekrutacji

Sztuczna inteligencja nie posiada obecnie podmiotowości prawnej – nie jest odrębnym „podmiotem” w rozumieniu prawa. Oznacza to, że pełną odpowiedzialność za jej działanie ponosi pracodawca.

Zgodnie z art. 3 Kodeksu pracy, pracodawcą jest osoba fizyczna, prawna lub jednostka organizacyjna nieposiadająca osobowości prawnej. To ten podmiot odpowiada za prawidłowe przeprowadzenie procesu rekrutacji, nawet jeśli korzysta z narzędzi automatycznych.

W praktyce oznacza to, że pracodawca może ponosić odpowiedzialność:

  • za szkody wyrządzone czynem własnym (art. 415 lub 416 Kodeksu cywilnego),
  • czynem cudzym (art. 429 lub 430 k.c.),
  • ruchem przedsiębiorstwa (art. 435 k.c.).

Choć w niektórych przypadkach możliwe są roszczenia zwrotne wobec dostawcy lub producenta systemu AI, to pracodawca zawsze pozostaje pierwszym adresatem odpowiedzialności wobec kandydata.


Czym jest „system sztucznej inteligencji” według AI Act

Zgodnie z art. 3 pkt 1 AI Act,
„system AI” oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.”

Definicja ta wskazuje, że AI to narzędzie technologiczne, które działa w sposób autonomiczny, ale zawsze w ramach celu określonego przez człowieka. Systemy te uczą się, wnioskują i podejmują decyzje, ale nie są zdolne do samodzielnej odpowiedzialności prawnej.

Z tego powodu wszelkie decyzje podjęte przez system AI – np. odrzucenie kandydata – są prawnie decyzjami pracodawcy.


Ryzyka prawne w rekrutacji z wykorzystaniem AI

Choć systemy rekrutacyjne oparte na AI niosą wiele korzyści (automatyzacja, oszczędność, eliminacja błędów ludzkich), to rodzą też poważne zagrożenia z punktu widzenia praw podstawowych kandydatów.

Najczęściej wskazywane ryzyka to:

  • dyskryminacja algorytmiczna (AI bias) – algorytmy uczące się na danych historycznych mogą utrwalać uprzedzenia, np. względem płci, wieku czy narodowości,
  • schematyzm i brak elastyczności – systemy AI nie uwzględniają niuansów i indywidualnych cech kandydatów,
  • naruszenie prywatności – analiza danych z portali społecznościowych może prowadzić do nielegalnego przetwarzania danych,
  • brak transparentności – kandydat nie wie, jakie kryteria zadecydowały o jego odrzuceniu.

Przykład:
Algorytm firmy RecruitSmart miał pomóc w eliminacji subiektywizmu w procesie naboru. Po kilku miesiącach audyt wykazał, że system częściej odrzucał aplikacje kobiet w wieku 30–40 lat, ponieważ „nauczył się”, że w historii firmy osoby z tej grupy częściej rezygnowały z pracy po urlopie macierzyńskim. To klasyczny przykład dyskryminacji algorytmicznej.


Kodeks pracy a rekrutacja z wykorzystaniem AI

Wykorzystanie sztucznej inteligencji nie zwalnia pracodawcy z obowiązków wynikających z Kodeksu pracy.

Pracodawca nadal musi:

  • zapewnić równe traktowanie kandydatów (art. 112 k.p.),
  • przeciwdziałać dyskryminacji (art. 94 pkt 2b k.p.),
  • szanować godność i dobra osobiste (art. 11 k.p.),
  • respektować prawo do prywatności (art. 111 k.p.).

Naruszenie tych zasad może skutkować roszczeniami kandydatów, w tym o odszkodowanie.


AI w rekrutacji a ochrona danych osobowych (RODO)

Każdy proces rekrutacji to przetwarzanie danych osobowych. Jeśli odbywa się przy pomocy systemu AI, pracodawca ma obowiązek zapewnić zgodność z RODO.

Administrator danych i podmiot przetwarzający

Zgodnie z art. 4 pkt 7 RODO, pracodawca, który decyduje o celach i sposobach przetwarzania danych kandydatów, jest administratorem danych. Jeśli korzysta z systemu AI dostarczonego przez zewnętrzną firmę, powinien zawrzeć z nią umowę powierzenia przetwarzania danych (art. 28 RODO).

Pracodawca musi też zweryfikować dostawcę systemu pod kątem bezpieczeństwa i zgodności z przepisami o ochronie danych.


Profilowanie kandydatów przez AI

Systemy rekrutacyjne AI często dokonują profilowania, czyli automatycznej oceny cech osoby na podstawie danych.

Art. 4 pkt 4 RODO definiuje profilowanie jako:
„dowolną formę zautomatyzowanego przetwarzania danych osobowych, które polega na wykorzystaniu danych osobowych do oceny niektórych czynników osobowych osoby fizycznej…”

W procesach rekrutacyjnych może to oznaczać np.:

  • ocenę „dopasowania” do stanowiska,
  • analizę tonu wypowiedzi w rozmowie wideo,
  • ocenę emocji na podstawie mimiki twarzy.

Takie działania niosą ryzyko błędnych ocen i naruszenia prawa do prywatności.

Prawa kandydatów przy zautomatyzowanym profilowaniu (RODO)

W procesach rekrutacyjnych wykorzystujących systemy sztucznej inteligencji może dochodzić do tzw. profilowania kandydatów, czyli tworzenia ich cyfrowych profili na podstawie danych osobowych. Takie działania podlegają szczególnym zasadom ochrony wynikającym z RODO.

Kandydaci mają prawo do:

  • uzyskania jasnych informacji o tym, że ich dane są przetwarzane przy użyciu algorytmów,
  • sprzeciwu wobec profilowania, jeśli uważają, że może ono negatywnie wpływać na ich prawa,
  • interwencji człowieka w sytuacji, gdy decyzja o zatrudnieniu została podjęta w pełni automatycznie.

Prawo sprzeciwu – art. 21 RODO

Zgodnie z art. 21 RODO:
„Osoba, której dane dotyczą, ma prawo w dowolnym momencie wnieść sprzeciw – z przyczyn związanych z jej szczególną sytuacją – wobec przetwarzania dotyczących jej danych osobowych opartego na art. 6 ust. 1 lit. e) lub f) RODO, w tym profilowania na podstawie tych przepisów.”

Oznacza to, że kandydat może zażądać zaprzestania przetwarzania jego danych, jeśli uzna, że przetwarzanie jest nieproporcjonalne wobec jego praw i wolności.
Pracodawca wówczas musi przeprowadzić tzw. test równowagi, czyli wykazać, że jego uzasadniony interes (np. potrzeba sprawnej rekrutacji) ma charakter nadrzędny wobec interesów osoby, której dane dotyczą.


Zakaz w pełni zautomatyzowanego podejmowania decyzji – art. 22 RODO

Jeszcze dalej idącą ochronę przewiduje art. 22 RODO, zgodnie z którym:
„Osoba, której dane dotyczą, ma prawo do tego, by nie podlegać decyzji, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec tej osoby skutki prawne lub w podobny sposób istotnie na nią wpływa.”

W praktyce oznacza to, że proces rekrutacji nie może być w pełni zautomatyzowany – zawsze musi istnieć element kontroli ludzkiej.
Algorytm nie może samodzielnie zdecydować o przyjęciu lub odrzuceniu kandydata, jeśli nie uczestniczy w tym człowiek.

Kandydat, wobec którego zastosowano zautomatyzowane profilowanie, ma prawo:

  • zażądać interwencji człowieka,
  • przedstawić własne stanowisko,
  • zakwestionować decyzję.

Jest to kluczowy przepis chroniący przed tzw. zautomatyzowaną dyskryminacją.


Ocena skutków dla ochrony danych (DPIA – art. 35 RODO)

Zastosowanie systemów AI w rekrutacji wiąże się z wysokim ryzykiem dla praw i wolności osób fizycznych. Dlatego pracodawca – jako administrator danych – ma obowiązek przeprowadzić ocenę skutków dla ochrony danych osobowych (ang. Data Protection Impact Assessment – DPIA).

Zgodnie z art. 35 ust. 1 RODO:
„Jeżeli dany rodzaj przetwarzania – w szczególności z użyciem nowych technologii – ze względu na swój charakter, zakres, kontekst i cele z dużym prawdopodobieństwem może powodować wysokie ryzyko naruszenia praw lub wolności osób fizycznych, administrator przed rozpoczęciem przetwarzania dokonuje oceny skutków planowanych operacji przetwarzania dla ochrony danych osobowych.”

Kiedy DPIA jest obowiązkowa?

W świetle komunikatu Prezesa UODO z 17 czerwca 2019 r. (M.P. 2019, poz. 666), oceny skutków wymagają m.in. operacje obejmujące:

  • profilowanie użytkowników portali społecznościowych w celach rekrutacyjnych,
  • analizę zachowań kandydatów na podstawie danych z różnych źródeł (np. mediów społecznościowych, systemów scoringowych),
  • przetwarzanie danych dotyczących wieku, płci lub pochodzenia w kontekście dopasowywania kandydatów do ofert pracy.

W praktyce oznacza to, że każdy system AI służący do rekrutacji co do zasady wymaga przeprowadzenia DPIA.
Brak takiej oceny może skutkować nałożeniem kar finansowych przez UODO.


Systemy wysokiego ryzyka według AI Act

Unijny AI Act klasyfikuje systemy sztucznej inteligencji według poziomu ryzyka. Wyróżnia cztery kategorie:

  1. Systemy wysokiego ryzyka,
  2. Systemy ograniczonego ryzyka,
  3. Systemy minimalnego ryzyka,
  4. Modele ogólnego przeznaczenia (GPAI).

Systemy wykorzystywane w rekrutacji zostały jednoznacznie zakwalifikowane jako systemy wysokiego ryzyka.

Z motywu 57 AI Act wynika:
„Systemy AI wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, należy zaklasyfikować jako systemy wysokiego ryzyka, ponieważ mogą one w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania i prawa pracownicze.”

To oznacza, że systemy rekrutacyjne podlegają szczególnym wymogom i nadzorowi.


Dlaczego rekrutacja to obszar wysokiego ryzyka?

AI może nieświadomie utrwalać historyczne wzorce dyskryminacji – np. wobec kobiet, osób starszych, niepełnosprawnych lub cudzoziemców.
Ponadto analiza danych biometrycznych, emocji czy zachowań wideo-kandydatów może prowadzić do naruszenia prywatności i dóbr osobistych.

Przykład:
Platforma rekrutacyjna TalentMatch AI wykorzystywała analizę mimiki twarzy podczas rozmów wideo. Kandydaci o mniejszej ekspresji emocjonalnej byli oceniani jako „mniej zaangażowani”. Po skardze jednej z kandydatek urząd nadzorczy uznał to za niedozwolone naruszenie zasady równego traktowania.


Obowiązki pracodawcy korzystającego z systemu wysokiego ryzyka

Zgodnie z art. 26 AI Act, podmiot stosujący system AI wysokiego ryzyka (czyli m.in. pracodawca) ma obowiązek:

  • stosować system zgodnie z instrukcją dostawcy,
  • zapewnić nadzór człowieka nad procesem działania AI,
  • powierzać obsługę systemu wyłącznie osobom posiadającym odpowiednie kompetencje i przeszkolenie,
  • wdrażać środki organizacyjne i techniczne zapewniające bezpieczeństwo danych i decyzji,
  • informować pracowników lub kandydatów, że w procesie rekrutacji stosowany jest system AI.

Brak spełnienia tych obowiązków może skutkować nie tylko karami administracyjnymi, lecz także roszczeniami cywilnymi kandydatów lub pracowników.


Obowiązek informowania kandydatów i pracowników

Nowością AI Act jest wymóg tzw. akceptacji społecznej systemów AI w miejscu pracy.
Zgodnie z art. 26 ust. 7 AI Act:
„Przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy podmioty stosujące będące pracodawcami informują przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka.”

Informacja ta powinna obejmować m.in.:

  • cel i zakres działania systemu,
  • sposób nadzoru człowieka nad jego decyzjami,
  • potencjalny wpływ na warunki zatrudnienia i dostęp do pracy.

W praktyce oznacza to, że kandydaci muszą wiedzieć, że w rekrutacji bierze udział algorytm AI. Ukrywanie tego faktu będzie stanowić naruszenie prawa.


Ocena skutków dla praw podstawowych – art. 29 AI Act

Oprócz obowiązków wynikających z RODO, pracodawca stosujący systemy AI wysokiego ryzyka musi również przeprowadzić ocenę skutków dla praw podstawowych, o której mowa w art. 29 AI Act.

To odrębny obowiązek, niezależny od oceny skutków dla ochrony danych osobowych (DPIA).
Celem tej analizy jest ocena, czy wykorzystanie systemu AI może naruszyć prawa takie jak:

  • prawo do prywatności,
  • prawo do równego traktowania i niedyskryminacji,
  • prawo dostępu do pracy,
  • wolność wyboru zawodu,
  • godność człowieka.

W ocenie należy wziąć pod uwagę nie tylko działanie systemu technicznego, ale też jego społeczny wpływ – np. czy nie utrwala uprzedzeń lub nie eliminuje określonych grup społecznych z procesu rekrutacji.


Jak wygląda praktycznie ocena skutków dla praw podstawowych

Pracodawca powinien:

  1. Zidentyfikować system AI, jego cel, dostawcę i sposób działania.
  2. Określić grupy osób narażone na ryzyko (np. kobiety, osoby starsze, cudzoziemcy, osoby z niepełnosprawnościami).
  3. Oszacować poziom ryzyka (niski, umiarkowany, wysoki).
  4. Ustalić środki ograniczające ryzyko – np. włączenie człowieka w proces oceny, audyt algorytmiczny, testy antydyskryminacyjne.
  5. Udokumentować cały proces – tak, aby w razie kontroli organu nadzorczego móc wykazać zgodność z prawem.

📄 Wskazówka:
Ocena skutków powinna być przeprowadzana przed wdrożeniem systemu rekrutacyjnego AI, a następnie regularnie aktualizowana, zwłaszcza gdy zmienia się sposób działania systemu (np. po aktualizacji modelu uczenia maszynowego).


Współodpowiedzialność pracodawcy i dostawcy systemu AI

AI Act wprowadza zasadę podziału obowiązków i odpowiedzialności pomiędzy dostawcę systemu a jego użytkownika (pracodawcę).

W praktyce oznacza to, że:

  • dostawca odpowiada za zapewnienie, że system spełnia wymagania techniczne i etyczne (np. przejrzystość, odporność na błędy, mechanizmy nadzoru ludzkiego),
  • pracodawca (użytkownik) odpowiada za to, że system jest używany zgodnie z jego przeznaczeniem i w sposób zgodny z prawem pracy oraz ochroną danych osobowych.

Zatem nawet jeśli system działa wadliwie z winy dostawcy, to kandydat lub pracownik może dochodzić roszczeń bezpośrednio od pracodawcy, który ewentualnie dopiero później będzie mógł kierować roszczenia regresowe wobec dostawcy.


Zakazane praktyki sztucznej inteligencji (art. 5 AI Act)

Od 2 lutego 2025 r. zaczynają obowiązywać przepisy AI Act dotyczące tzw. zakazanych praktyk. Mają one bezpośrednie znaczenie dla przedsiębiorców stosujących systemy rekrutacyjne oparte na AI.

Zgodnie z art. 5 AI Act, zakazane jest m.in.:

  1. Stosowanie technik podprogowych lub innych technik manipulacyjnych, które mogą wpływać na decyzje osoby bez jej świadomości.
    ➤ Przykład: chatbot rekrutacyjny, który sugeruje kandydatowi odpowiedzi wpływające na jego ocenę.
  2. Wykorzystywanie słabości określonych grup osób, np. ze względu na wiek, niepełnosprawność, sytuację ekonomiczną lub społeczną, w sposób, który może wyrządzić im szkodę.
    ➤ Przykład: system preferujący kandydatów z określonych dzielnic lub o określonym statusie społecznym.
  3. Stosowanie tzw. scoringu społecznego, czyli oceniania ludzi na podstawie ich zachowań, preferencji czy cech osobowości, w sposób wpływający na ich dostęp do zatrudnienia.
    ➤ Przykład: system AI oceniający kandydatów na podstawie analizy aktywności w mediach społecznościowych.
  4. Kategoryzacja biometryczna prowadząca do wnioskowania o cechach takich jak rasa, poglądy polityczne, przekonania religijne czy orientacja seksualna.
    ➤ Przykład: rozpoznawanie emocji i zachowań wideo w celu określenia „osobowości zawodowej” kandydata.

⚠️ Wszystkie powyższe praktyki są bezwzględnie zakazane – ich stosowanie może prowadzić do kar finansowych, a także roszczeń cywilnych z tytułu naruszenia dóbr osobistych lub dyskryminacji.


Akceptacja społeczna i dialog z pracownikami

AI Act zakłada, że skuteczne wdrożenie systemów sztucznej inteligencji w miejscu pracy wymaga transparentności i współpracy ze stroną społeczną.

W tym kontekście szczególne znaczenie ma planowana nowelizacja ustawy o związkach zawodowych, która przewidywała możliwość żądania przez organizacje związkowe informacji o:
„parametrach, zasadach i instrukcjach, na których opierają się algorytmy lub systemy sztucznej inteligencji, które mają wpływ na podejmowanie decyzji, a które mogą mieć wpływ na warunki pracy i płacy, dostęp do zatrudnienia i jego utrzymanie, w tym profilowanie.”

Choć przepis ten ostatecznie nie został uchwalony, jego treść odzwierciedla rosnące znaczenie społecznego nadzoru nad sztuczną inteligencją.
W praktyce warto więc informować przedstawicieli pracowników o planowanym wdrożeniu narzędzi AI, zwłaszcza jeśli mogą one wpływać na decyzje kadrowe.


Praktyczne rekomendacje dla przedsiębiorców

Aby zapewnić zgodność z prawem i uniknąć ryzyk, pracodawcy powinni wdrożyć zestaw dobrych praktyk w zakresie AI w rekrutacji.

✅ 1. Przeprowadź audyt narzędzi AI przed wdrożeniem

Zbadaj, w jaki sposób system podejmuje decyzje, jakie dane analizuje i czy zapewnia mechanizm nadzoru ludzkiego.

✅ 2. Zapewnij przejrzystość wobec kandydatów

Informuj kandydatów, że ich dane są analizowane przez system AI. Wskaż cel, zakres i skutki tej analizy.

✅ 3. Włącz człowieka w proces decyzyjny

Nigdy nie powierzaj ostatecznej decyzji o zatrudnieniu wyłącznie algorytmowi. Utrzymuj nadzór człowieka nad wynikami systemu.

✅ 4. Unikaj przetwarzania nadmiarowych danych

Nie analizuj danych z portali społecznościowych ani informacji niemających związku z wykonywaną pracą.

✅ 5. Przeprowadź DPIA i ocenę skutków dla praw podstawowych

Dokumentuj wszystkie działania i decyzje dotyczące systemu AI. To najlepsza obrona w razie kontroli lub sporu.

✅ 6. Wybieraj dostawców zgodnych z prawem

Weryfikuj dostawców pod kątem zgodności ich produktów z RODO i AI Act. Żądaj dokumentacji i certyfikatów jakości systemu.

✅ 7. Regularnie monitoruj działanie systemu

AI uczy się i ewoluuje. Wymaga więc ciągłego nadzoru, testów oraz okresowego audytu etycznego i prawnego.


📄 Przykład wdrożeniowy:

Firma HRCloud Polska planowała wykorzystać AI do automatycznej analizy CV. Przed wdrożeniem przeprowadzono:

  • audyt danych wejściowych (usunięto dane o wieku i płci),
  • testy antydyskryminacyjne,
  • ocenę skutków dla ochrony danych (DPIA),
  • ocenę skutków dla praw podstawowych (AI Act art. 29),
  • oraz przeszkolenie zespołu HR w zakresie interpretacji wyników algorytmu.

W efekcie system uzyskał pozytywną ocenę zgodności, a rekrutacja stała się bardziej przejrzysta i szybka – bez ryzyka naruszeń.

Podsumowanie: sztuczna inteligencja jako wsparcie, nie zastępstwo człowieka

Sztuczna inteligencja może być potężnym narzędziem w rękach pracodawców – pozwala skrócić proces rekrutacji, ograniczyć koszty, a nawet zwiększyć trafność decyzji personalnych. Jednak AI nie zwalnia z obowiązków prawnych i nie może całkowicie zastąpić człowieka w procesie zatrudnienia.

W świetle obowiązujących przepisów:

  • pełną odpowiedzialność za decyzje rekrutacyjne ponosi pracodawca, niezależnie od poziomu automatyzacji,
  • systemy AI stosowane w rekrutacji są systemami wysokiego ryzyka – wymagają nadzoru człowieka, oceny skutków dla ochrony danych i praw podstawowych,
  • procesy w pełni zautomatyzowane są niedopuszczalne – kandydat ma prawo do interwencji ludzkiej (art. 22 RODO),
  • od 2 lutego 2025 r. obowiązują zakazane praktyki AI, które całkowicie eliminują m.in. techniki manipulacyjne, scoring społeczny czy kategoryzację biometryczną,
  • pracodawca musi informować kandydatów i pracowników o stosowaniu systemów AI, a także zapewnić im prawo do sprzeciwu, dostępu do informacji i odwołania od decyzji.

W praktyce oznacza to, że bezpieczne wykorzystanie AI w rekrutacji wymaga równowagi: automatyzacja może wspierać proces decyzyjny, ale ostateczna odpowiedzialność i kontrola zawsze muszą należeć do człowieka.


Najważniejsze wnioski dla przedsiębiorców

📌 1. AI w rekrutacji to narzędzie wysokiego ryzyka.
Każdy system rekrutacyjny AI wymaga oceny skutków dla ochrony danych (art. 35 RODO) oraz oceny wpływu na prawa podstawowe (art. 29 AI Act).

📌 2. Nadzór człowieka jest obowiązkowy.
Nie wolno powierzać decyzji o zatrudnieniu wyłącznie algorytmowi. Pracodawca musi mieć realną możliwość ingerencji w decyzję systemu.

📌 3. Transparentność wobec kandydatów to konieczność.
Kandydat musi wiedzieć, że w procesie rekrutacji bierze udział system AI – brak informacji jest naruszeniem prawa.

📌 4. Zakazane praktyki od lutego 2025 r.
Pracodawcy powinni już teraz przeanalizować swoje systemy i wyeliminować funkcje oparte na technikach manipulacyjnych lub kategoryzacji biometrycznej.

📌 5. Odpowiedzialność za błędy AI spoczywa na pracodawcy.
Nawet jeśli błąd powstał po stronie dostawcy systemu, wobec kandydata odpowiedzialność ponosi użytkownik (pracodawca).


Praktyczne kroki wdrożeniowe dla firm

Aby dostosować się do obowiązujących przepisów, przedsiębiorca powinien:

  1. Zidentyfikować wszystkie procesy HR, w których używa AI (np. selekcja CV, chatboty, scoring kandydatów).
  2. Ocenić ryzyko – zarówno prawne, jak i społeczne.
  3. Przeprowadzić audyt dostawców – upewnić się, że ich rozwiązania są zgodne z AI Act i RODO.
  4. Przygotować dokumentację zgodności – DPIA, ocena skutków dla praw podstawowych, polityka etycznego wykorzystania AI.
  5. Przeszkolić personel HR – aby potrafił interpretować decyzje algorytmu i reagować w razie błędów.
  6. Utworzyć punkt kontaktowy dla kandydatów – do zgłaszania sprzeciwu lub pytań dotyczących zautomatyzowanej rekrutacji.

Podstawa prawna

  • art. 3, 10, 11, 94 pkt 2b, 111, 112, 113 – ustawa z dnia 26 czerwca 1974 r. – Kodeks pracy (t.j. Dz.U. z 2025 r. poz. 277 z późn. zm.)
  • art. 4 pkt 4, art. 6 ust. 1 lit. f, art. 12–14, art. 21, art. 22, art. 26, art. 35 – rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (RODO)
  • rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (AI Act)
  • komunikat Prezesa UODO z dnia 17 czerwca 2019 r. (M.P. z 2019 r. poz. 666)
  • projekt ustawy o systemach sztucznej inteligencji z dnia 15 października 2024 r. (RCL nr 12390551)

Tematy zawarte w poradniku

  • wykorzystanie sztucznej inteligencji w rekrutacji pracowników,
  • obowiązki pracodawcy przy stosowaniu AI,
  • odpowiedzialność prawna za decyzje algorytmiczne,
  • profilowanie kandydatów i ochrona danych osobowych (RODO),
  • zakazane praktyki sztucznej inteligencji od 2025 r.,
  • systemy wysokiego ryzyka według AI Act,
  • przejrzystość i informowanie kandydatów o stosowaniu AI.

Linki do źródeł

Ostatnia aktualizacja: 14.10.2025
Czy ta porada była dla Ciebie pomocna?

Zobacz również: