Dynamiczny rozwój sztucznej inteligencji sprawił, że technologia ta wkroczyła również w obszar zatrudnienia. Coraz częściej systemy AI są wykorzystywane do automatyzacji procesów rekrutacyjnych, monitorowania pracy, a nawet podejmowania decyzji o awansie lub zwolnieniu pracownika. Tego typu rozwiązania niosą jednak poważne ryzyka – zarówno prawne, jak i etyczne. W odpowiedzi na te wyzwania, Unia Europejska przyjęła w 2024 roku AI Act – pierwsze kompleksowe rozporządzenie regulujące zastosowanie AI w życiu publicznym, w tym również w relacjach pracowniczych.
📌 W tym poradniku dowiesz się:
- kiedy pracodawca musi stosować AI Act,
- co oznacza „system wysokiego ryzyka”,
- jakie obowiązki ciążą na pracodawcach,
- jakie konsekwencje niesie nieprawidłowe wdrożenie AI.
📚 Czym jest AI Act i dlaczego dotyczy pracodawców?
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. (tzw. AI Act) weszło w życie 1 sierpnia 2024 r. To pierwszy akt prawa unijnego, który systematyzuje zasady wykorzystywania sztucznej inteligencji. AI Act dzieli systemy AI na cztery poziomy ryzyka: minimalne, ograniczone, wysokie oraz zakazane. Szczególną uwagę poświęcono systemom wysokiego ryzyka, ponieważ mogą one bezpośrednio wpływać na prawa podstawowe obywateli – w tym pracowników.
Zgodnie z motywem 57 AI Act, systemy AI używane:
- do rekrutacji i selekcji kandydatów,
- oceny wyników pracy i awansów,
- przydzielania zadań i planowania pracy,
- monitoringu zachowania pracowników,
- podejmowania decyzji o zwolnieniu
– są kwalifikowane jako systemy wysokiego ryzyka.
To oznacza, że każdy pracodawca wykorzystujący tego rodzaju rozwiązania musi spełnić dodatkowe obowiązki regulacyjne.
⚖ Obowiązki pracodawców stosujących AI wysokiego ryzyka
1. Ocena ryzyka i dokumentacja techniczna
Pracodawca (lub podmiot dostarczający system AI) musi:
- przeprowadzić ocenę wpływu systemu AI na prawa podstawowe,
- opracować szczegółową dokumentację techniczną systemu (w tym opisać dane treningowe, źródła danych, mechanizmy decyzyjne AI).
🔍 Przykład: Firma rekrutacyjna HIREX wdrożyła system AI analizujący CV kandydatów. Po wejściu AI Act musi nie tylko udokumentować, na jakiej podstawie system ocenia kandydatów, ale też wskazać, czy algorytm nie dyskryminuje np. kobiet lub osób starszych.
2. Zasady przejrzystości i informowania pracownika
Zgodnie z AI Act, każdy użytkownik systemu wysokiego ryzyka musi zostać jasno poinformowany:
- że ma do czynienia z systemem AI,
- jakiego rodzaju decyzje będą przez niego podejmowane,
- czy ma możliwość zakwestionowania decyzji i żądania weryfikacji przez człowieka.
📄 Przykład: Pracodawca używa AI do monitorowania efektywności pracy zespołu zdalnego. Pracownicy muszą otrzymać informację, że ich aktywność jest oceniana przez algorytm, jakimi kryteriami się on kieruje i komu mogą zgłosić sprzeciw.
3. Nadzór człowieka nad AI
Każdy system wysokiego ryzyka musi podlegać nadzorowi ludzkiemu. Oznacza to, że:
- decyzje nie mogą być podejmowane wyłącznie automatycznie,
- musi istnieć możliwość interwencji człowieka na każdym etapie.
⚠️ Przykład: System AI automatycznie przydziela zadania kierowcom firmy logistycznej Ekspres24. Firma musi zapewnić możliwość ręcznej korekty decyzji AI w razie błędów – np. jeśli system przydzieli kierowcy trasę wykraczającą poza jego kwalifikacje.
4. Obowiązek zgłoszenia i notyfikacji
Jeśli pracodawca sam tworzy system AI lub go modyfikuje, podlega obowiązkowi:
- rejestracji systemu w europejskiej bazie systemów wysokiego ryzyka,
- współpracy z krajowym organem nadzoru – np. Prezesem UODO.
W praktyce oznacza to konieczność zachowania ścisłej dokumentacji oraz współpracy z wewnętrznym inspektorem ochrony danych (DPO).
🧩 Pracodawca a odpowiedzialność za skutki działania AI
AI Act jasno określa, że odpowiedzialność za decyzje podejmowane przez AI ponosi użytkownik systemu, a nie producent czy twórca algorytmu. Oznacza to, że jeśli system podejmie błędną decyzję – np. dyskryminuje kandydatów na stanowisko ze względu na płeć – to pracodawca ponosi konsekwencje prawne i finansowe.
W praktyce:
- może to oznaczać roszczenia z tytułu dyskryminacji (np. z art. 11 Kodeksu pracy),
- naruszenie przepisów RODO (kara do 20 mln euro),
- odpowiedzialność cywilną za szkody wyrządzone pracownikowi lub kandydatowi.
🔧 Jak przygotować firmę do stosowania AI zgodnie z prawem?
Krok po kroku:
- Audyt obecnych systemów IT – sprawdź, czy w firmie są już wykorzystywane rozwiązania AI.
- Identyfikacja poziomu ryzyka – oceń, czy któryś z systemów może zostać zakwalifikowany jako „wysokiego ryzyka”.
- Wdrożenie dokumentacji – opracuj dokumentację techniczną, ocenę ryzyka, politykę przejrzystości.
- Szkolenia dla kadry HR i kierownictwa – wyjaśnij, jak działa AI i jakie są zasady nadzoru człowieka.
- Konsultacja z prawnikiem i DPO – skorzystaj ze wsparcia ekspertów od ochrony danych osobowych i compliance.
🔚 Podsumowanie – kluczowe wnioski
✔ Wykorzystanie AI w zatrudnieniu to nie tylko technologia, ale i obowiązek prawny.
✔ Każdy system wysokiego ryzyka (rekrutacja, ocena, nadzór, zwolnienia) musi być zgodny z AI Act.
✔ Pracodawca ponosi odpowiedzialność za skutki działania AI – również za dyskryminację algorytmiczną.
✔ AI Act wymusza większą transparentność i szacunek dla praw pracowniczych w cyfrowym środowisku pracy.
✔ Wdrożenie AI wymaga przygotowania dokumentacji, szkoleń i nadzoru człowieka.
🧾 Podstawa prawna
- art. 3, art. 6, art. 9–15 – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (AI Act)
- motyw 57 – AI Act
- art. 47 – Konstytucja Rzeczypospolitej Polskiej
- art. 11 – Kodeks pracy
🔍 Tematy porad zawartych w poradniku
- AI Act zatrudnienie 2025
- algorytmy w HR obowiązki pracodawcy
- sztuczna inteligencja a prawo pracy
- systemy wysokiego ryzyka AI
- dokumentacja AI pracodawca