Zautomatyzowane narzędzia AI coraz częściej wspierają rekrutację, zarządzanie pracą i ocenę efektywności pracowników. Jednak od 2025 roku, w związku z wejściem w życie rozporządzenia AI Act, pracodawcy muszą przygotować się na nowe obowiązki i ograniczenia. Ten poradnik pomoże Ci zrozumieć, jak wdrażać systemy AI zgodnie z prawem, by nie narazić się na sankcje i zadbać o bezpieczeństwo prawne swojej firmy.
Dlaczego temat jest ważny?
Coraz więcej przedsiębiorstw sięga po sztuczną inteligencję, by automatyzować procesy HR: od selekcji kandydatów, przez ocenę wyników pracy, aż po decyzje o awansach. Jednak wejście w życie AI Act oznacza rewolucję – to pierwsze na świecie tak kompleksowe przepisy regulujące zasady wykorzystania AI w relacjach pracodawca–pracownik. Ich naruszenie grozi wysokimi karami oraz sporami z pracownikami i organizacjami związkowymi. Z tego poradnika dowiesz się, na co zwrócić uwagę, aby nie popełnić najczęstszych błędów i wdrożyć AI zgodnie z aktualnymi przepisami.
Czym jest system AI według AI Act? Nowa definicja i praktyczne konsekwencje
Sztuczna inteligencja w oczach prawodawcy UE
Zgodnie z art. 3 pkt 1 rozporządzenia AI Act, system AI to każdy system maszynowy, który potrafi działać autonomicznie, przetwarzać dane wejściowe i generować na ich podstawie wyniki wpływające na środowisko fizyczne lub wirtualne. Praktycznie oznacza to, że wszelkie narzędzia, które samodzielnie podejmują decyzje, rekomendują działania lub klasyfikują kandydatów, podlegają rygorystycznym wymogom AI Act.
Ważne!
Nie wszystkie narzędzia informatyczne są uznawane za systemy AI. Jeśli narzędzie wyłącznie przypisuje punkty według sztywno ustalonych kryteriów, ale nie uczy się na podstawie nowych danych – nie podlega przepisom AI Act.
Dla kogo są nowe przepisy?
AI Act reguluje działania producentów, dostawców, operatorów i importerów systemów AI – ale największe znaczenie mają dla pracodawców i działów HR korzystających z narzędzi automatycznej oceny, analizy czy selekcji osób.
Kiedy zaczynają obowiązywać nowe zasady? Terminy wdrożenia AI Act
- Od 2 lutego 2025 r. – zaczynają obowiązywać definicje i zakazy praktyk niebezpiecznych (np. manipulacje AI, scoring społeczny).
- Od 2 sierpnia 2025 r. – możliwe będą kary za nieprzestrzeganie przepisów dotyczących m.in. systemów AI ogólnego przeznaczenia.
- Od 2 sierpnia 2026 r. – pełne wdrożenie regulacji, w tym obowiązków dotyczących systemów wysokiego ryzyka.
- Od 2 sierpnia 2027 r. – wejdą w życie szczególne przepisy dotyczące klasyfikacji AI w wybranych sektorach.
Przykład 1:
Firma rekrutacyjna „Pracownik+” korzysta z własnego narzędzia AI do selekcji CV. Już od 2 lutego 2025 r. musi sprawdzić, czy jej system nie wykorzystuje zakazanych praktyk (np. manipulacji, scoringu społecznego), inaczej grożą jej kary od 2 sierpnia 2025 r.
Jakich praktyk AI nie wolno stosować w miejscu pracy? Zakazy według AI Act
Przegląd najważniejszych zakazanych praktyk
Od 2025 r. pracodawcy nie mogą korzystać z systemów AI, które:
- Wykorzystują techniki podprogowe, manipulacyjne lub wprowadzające w błąd.
- Wykorzystują słabość osób (wiek, niepełnosprawność, sytuacja społeczna/ekonomiczna).
- Stosują scoring społeczny – systematyczną ocenę osoby na podstawie zachowań społecznych.
- Szacują ryzyko popełnienia przestępstwa wyłącznie na podstawie profilu psychologicznego.
- Tworzą bazy danych rozpoznawania twarzy bez zgody (np. pobierając obrazy z internetu).
- Wyciągają wnioski na temat emocji pracowników w pracy (np. AI oceniające nastrój pracownika).
- Kategoryzują osoby według cech biometrycznych do celów oceny cech osobistych, poglądów czy orientacji.
- Identyfikują osoby w czasie rzeczywistym w miejscach publicznych bez uzasadnienia prawnego.
Uwaga!
Zakazy mają wyjątki, np. w przypadku systemów AI stosowanych ze względów medycznych lub bezpieczeństwa, ale muszą być one bardzo ściśle uzasadnione.
Co to oznacza dla działu HR i przedsiębiorców?
Systemy oceniające „entuzjazm”, „lojalność”, „motywację” na podstawie zachowania, mimiki lub głosu – są zakazane, chyba że służą zdrowiu lub bezpieczeństwu i mają naukowe podstawy.
Przykład 2:
Firma logistyczna „Szybki Kurier” wdrożyła AI analizujące nagrania z rozmów pracowników z klientami, by ocenić ich „poziom zaangażowania”. Od 2025 r. taka praktyka jest niedozwolona, chyba że AI służy np. ocenie stanu zdrowia pracownika w sytuacji zagrożenia.
Zautomatyzowana ocena pracowników – nowe obowiązki dla pracodawców
Systemy AI jako systemy wysokiego ryzyka
Każdy system AI wykorzystywany do zatrudniania, oceny pracy czy zarządzania zespołem automatycznie uznawany jest za system wysokiego ryzyka. Oznacza to szereg dodatkowych obowiązków dla pracodawców, m.in.:
- Korzystanie tylko z narzędzi, które mają deklarację zgodności UE i szczegółową instrukcję od dostawcy.
- Wdrożenie środków organizacyjnych i technicznych zapewniających zgodność z instrukcją (np. regularne szkolenia, audyty).
- Przekazanie nadzoru nad AI osobie posiadającej odpowiednie kwalifikacje.
- Odpowiedzialność za jakość i reprezentatywność danych wprowadzanych do systemu (nie można wprowadzać tylko wybranych, korzystnych danych).
- Monitorowanie działania systemu AI i raportowanie incydentów do dostawcy i odpowiednich organów.
- Przechowywanie rejestrów działań systemu AI przez minimum 6 miesięcy.
Przykład 3:
Spółka handlowa „SuperMarket” korzysta z AI do oceny efektywności kasjerów. Przekazuje do systemu dane sprzedażowe i informacje o absencji. Musi dopilnować, aby dane były kompletne, a nie np. wybiórcze (wyłącznie z najbardziej ruchliwych dni).
Obowiązki informacyjne wobec pracowników – jak nie narazić się na zarzut braku przejrzystości?
Kiedy i jak informować pracowników o użyciu AI?
- Przed wdrożeniem AI – należy poinformować przedstawicieli pracowników i samych pracowników o planowanym użyciu systemów AI (najlepiej w trybie konsultacji przewidzianych przez Kodeks pracy).
- Na żądanie związku zawodowego – obowiązek udzielenia informacji o zasadach działania, parametrach i instrukcjach stosowanych algorytmów (w granicach tajemnicy handlowej).
- Na żądanie pracownika – pracodawca musi wytłumaczyć rolę AI w procesie podejmowania decyzji dotyczącej tej osoby, wskazać główne elementy decyzji i umożliwić jej weryfikację.
Wskazówka:
Stwórz jasne procedury informowania – mogą to być specjalne notyfikacje, polityki wewnętrzne lub zapisy w regulaminie pracy.
Przetwarzanie danych osobowych przy wykorzystaniu AI – co musi wiedzieć każdy pracodawca?
Neutralność AI Act wobec RODO
AI Act nie znosi ani nie ogranicza obowiązków wynikających z RODO i krajowych przepisów o ochronie danych osobowych. To oznacza, że każde przekazanie danych pracowników do systemu AI musi mieć solidną podstawę prawną (np. umowa, przepis prawa, zgoda pracownika). Pracodawca ponosi pełną odpowiedzialność za legalność, adekwatność i bezpieczeństwo przetwarzania danych.
Wskazówka:
Nie wystarczy powołać się na instrukcję dostawcy AI – należy samodzielnie zadbać o legalność przetwarzania danych osobowych i przeprowadzić ocenę skutków (DPIA), jeśli wymaga tego RODO.
Zakaz wyłącznego zautomatyzowanego podejmowania decyzji
Szczególne znaczenie ma art. 22 RODO, który stanowi:
„Osoba, której dane dotyczą, ma prawo nie podlegać decyzji opierającej się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołującej wobec niej skutki prawne lub w podobny sposób istotnie na nią wpływające.”
(art. 22 ust. 1, Rozporządzenie (UE) 2016/679)
W praktyce – nie wolno podejmować decyzji kadrowych (np. o zatrudnieniu, awansie, zwolnieniu) wyłącznie na podstawie działania AI, bez udziału człowieka. Wyjątki od tej zasady są bardzo ograniczone i wymagają spełnienia szczególnych warunków.
Obowiązki informacyjne i prawo do weryfikacji decyzji
Jeśli decyzja wobec pracownika została podjęta przy udziale AI, a wywołuje skutki prawne lub wpływa na sytuację tej osoby, pracodawca musi:
- wyjaśnić rolę AI w podejmowaniu decyzji,
- przedstawić główne elementy tej decyzji (np. które kryteria były decydujące),
- umożliwić pracownikowi zakwestionowanie decyzji i wyrażenie własnego stanowiska.
Przykład 4:
Pani Karolina starała się o pracę w firmie IT. Jej CV zostało odrzucone przez automatyczny system AI. Ma ona prawo żądać informacji, dlaczego tak się stało (np. brak wymaganego certyfikatu), i poprosić o ocenę jej kandydatury przez człowieka.
Dobre praktyki przy wdrażaniu AI w procesach HR i zarządzaniu personelem
Jak bezpiecznie wdrożyć system AI do oceny pracowników? – praktyczny poradnik krok po kroku
- Zidentyfikuj, czy stosowane narzędzie to system AI wg AI Act.
- Sprawdź, czy system działa autonomicznie i adaptacyjnie.
- Zweryfikuj zgodność narzędzia z przepisami AI Act.
- Skonsultuj się z dostawcą, poproś o deklarację zgodności UE i szczegółową instrukcję obsługi.
- Wprowadź procedury zgodnego wykorzystywania AI.
- Określ, kto i na jakich zasadach może korzystać z systemu.
- Przeszkol osoby nadzorujące system AI.
- Zapewnij, że będą to kompetentne osoby, zdolne do reagowania na incydenty.
- Stosuj wyłącznie kompletne i reprezentatywne dane wejściowe.
- Unikaj selektywnego wprowadzania danych, które mogą zniekształcić wyniki AI.
- Przechowuj rejestry działań systemu AI przez wymagany okres.
- Pamiętaj o zasadach bezpieczeństwa i ochrony danych osobowych.
- Regularnie informuj pracowników o wykorzystaniu AI w procesach HR.
- Rób to nie tylko na etapie wdrożenia, ale również przy każdej aktualizacji lub zmianie funkcjonalności.
- Przygotuj jasną politykę informacyjną dla kandydatów i pracowników.
- Wyjaśnij, jakie decyzje są podejmowane z udziałem AI i jak mogą być weryfikowane.
- Szanuj prawo do sprzeciwu, wyrażenia własnego stanowiska i interwencji człowieka.
- To kluczowe, jeśli chcesz uniknąć zarzutów o dyskryminację lub naruszenie praw pracowników.
- Monitoruj zmiany w przepisach prawa i praktykę sądów.
- Przepisy dotyczące AI i danych osobowych są bardzo dynamiczne.
Podsumowanie – kluczowe wnioski i praktyczne wskazówki
- Systemy AI w HR i zarządzaniu personelem od 2025 roku podlegają surowym wymogom prawnym – nie każde narzędzie AI można stosować dowolnie.
- Zakazane są zwłaszcza praktyki dotyczące oceny emocji, scoringu społecznego i wszelkich manipulacji.
- Pracodawca odpowiada nie tylko za legalność narzędzia, ale także za jakość i kompletność danych oraz przejrzystość procesu decyzyjnego.
- Pracownicy mają prawo być informowani o użyciu AI, mogą żądać wyjaśnień, a decyzje nie mogą być oparte wyłącznie na automacie.
- Naruszenie AI Act lub RODO grozi wysokimi karami finansowymi i odpowiedzialnością cywilną.
Podstawa prawna
- art. 3 pkt 1, art. 3 pkt 4, art. 6 ust. 2, art. 9, art. 10, art. 11, art. 13, art. 26, art. 47, art. 78, art. 86 – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (AI Act)
- art. 22 – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. (RODO)
- art. 28 – Ustawa z dnia 23 maja 1991 r. o związkach zawodowych
- ustawa z dnia 10 maja 2018 r. o ochronie danych osobowych
Tematy porad zawartych w poradniku
- automatyzacja oceny pracowników AI
- zakazy i obowiązki AI Act HR 2025
- wdrożenie AI zgodnie z RODO
- informowanie pracowników o AI w HR
- systemy AI wysokiego ryzyka kadry
Przydatne adresy urzędowe
- https://uodo.gov.pl/ – Urząd Ochrony Danych Osobowych
- https://ec.europa.eu/info/index_pl – Komisja Europejska (AI Act)
- https://www.gov.pl/web/rodzina – Ministerstwo Rodziny, Pracy i Polityki Społecznej
- https://www.sejm.gov.pl/ – Sejm RP (projekty ustaw i nowelizacje)