Wykorzystanie sztucznej inteligencji w środowisku pracy przestaje być domeną eksperymentalnych projektów. Coraz więcej firm stosuje zaawansowane systemy AI do analizowania danych kadrowych, planowania pracy czy nawet bezpośredniego zarządzania zadaniami pracowników. Zjawisko to rodzi nie tylko nowe możliwości, ale i poważne pytania prawne. Kto ponosi odpowiedzialność, gdy sztuczna inteligencja popełni błąd, który prowadzi do szkody – materialnej lub niematerialnej? Czy odpowiedzialność ponosi pracodawca, twórca oprogramowania, a może sam pracownik? I czy w ogóle można przypisać winę „maszynie”?
W tym poradniku wyjaśniamy, jak wygląda odpowiedzialność odszkodowawcza w kontekście AI w relacjach pracodawca–pracownik, jakie są podstawy prawne jej przypisania oraz na co powinni uważać zarówno zatrudniający, jak i zatrudnieni.
Sztuczna inteligencja w pracy – nie tylko narzędzie
Do niedawna AI była traktowana jako zaawansowane narzędzie wspierające pracę człowieka. Obecnie coraz częściej jest „współdecydentem”, a nawet wyłącznym wykonawcą niektórych zadań – np. wstępnej selekcji kandydatów, ustalaniu harmonogramów zmianowych czy analizie efektywności pracy. Z tego względu coraz częściej pojawiają się sytuacje, w których działanie lub zaniechanie systemu AI skutkuje szkodą.
📌 Przykład praktyczny:
Firma logistyczna „TransMatic” wdrożyła system AI zarządzający przydziałem tras kierowców. Wskutek błędnej klasyfikacji danych jeden z kierowców został skierowany w trasę ponadnormatywną, co doprowadziło do wypadku i uszczerbku na zdrowiu. Czy odpowiedzialność za to zdarzenie ponosi producent systemu, pracownik działu IT, czy pracodawca?
⚖️ Czy sztuczna inteligencja może odpowiadać prawnie?
Zgodnie z obowiązującym w Polsce stanem prawnym, sztucznej inteligencji nie można przypisać osobowości prawnej, a tym samym nie można przypisać jej odpowiedzialności cywilnoprawnej.
Odnoszenie się do art. 431 Kodeksu cywilnego, który mówi o odpowiedzialności za zwierzęta, nie jest uzasadnione – choć zarówno AI, jak i zwierzęta działają „autonomicznie”, przepis ten ma charakter szczególny i nie może być interpretowany rozszerzająco.
Art. 431 § 1 Kodeksu cywilnego: „Kto chowa zwierzę albo się nim posługuje, obowiązany jest do naprawienia wyrządzonej przez nie szkody, niezależnie od tego, czy było pod jego nadzorem, czy też zabłąkało się lub uciekło, chyba że ani on, ani osoba, za którą ponosi odpowiedzialność, nie ponoszą winy.”
⚠️ Przepis ten odnosi się wyłącznie do zwierząt – nie można go analogicznie stosować do AI.
🧑⚖️ Pracodawca odpowiada za szkody wyrządzone przez AI
W sytuacji, gdy sztuczna inteligencja, np. system zarządzania produkcją, działa wadliwie i doprowadza do szkody pracownika, odpowiedzialność ponosi pracodawca – zgodnie z zasadami odpowiedzialności deliktowej.
W praktyce mogą znaleźć zastosowanie następujące przepisy Kodeksu cywilnego:
- Art. 415 k.c. – odpowiedzialność za własne zawinione działanie,
- Art. 430 k.c. – odpowiedzialność za działania pracownika,
- Art. 435 k.c. – odpowiedzialność na zasadzie ryzyka za funkcjonowanie przedsiębiorstwa,
- Art. 429 k.c. – odpowiedzialność za powierzenie czynności osobie, która nie ma odpowiednich kwalifikacji.
👉 Kluczowe jest, że nawet jeśli bezpośrednią przyczyną szkody była decyzja AI, odpowiedzialność spada na podmiot, który się nią posługuje, czyli pracodawcę.
⚠️ Odpowiedzialność na zasadzie ryzyka – gdy AI to element przedsiębiorstwa
Warto zwrócić szczególną uwagę na art. 435 § 1 k.c., który mówi:
„Prowadzący na własny rachunek przedsiębiorstwo lub zakład wprawiany w ruch za pomocą sił przyrody ponosi odpowiedzialność za szkodę na osobie lub mieniu wyrządzoną komukolwiek przez ruch przedsiębiorstwa, chyba że szkoda nastąpiła wskutek siły wyższej albo wyłącznie z winy poszkodowanego lub osoby trzeciej, za którą nie ponosi odpowiedzialności.”
Systemy AI zasilane energią elektryczną i wbudowane w urządzenia lub systemy informatyczne spełniają kryteria działania „za pomocą sił przyrody”. Oznacza to, że pracodawca może odpowiadać na zasadzie ryzyka, niezależnie od winy, jeżeli szkoda została wyrządzona „przez ruch przedsiębiorstwa”.
📌 Przykład praktyczny:
Firma „BioTek” wykorzystuje AI do dozowania substancji chemicznych w laboratorium. Wskutek błędu systemu dozuje on niewłaściwą ilość substancji, co powoduje poparzenie chemiczne pracownika. Nawet jeśli system był certyfikowany i obsługiwany prawidłowo – pracodawca i tak ponosi odpowiedzialność, ponieważ AI była integralnym elementem procesu technologicznego przedsiębiorstwa.
Odpowiedzialność za produkt niebezpieczny a sztuczna inteligencja
Jedną z koncepcji stosowanych przez część doktryny prawa cywilnego w odniesieniu do szkód wywołanych przez sztuczną inteligencję jest odpowiedzialność za produkt niebezpieczny, uregulowana w art. 449¹ i kolejnych Kodeksu cywilnego.
Zgodnie z art. 449¹ § 1 k.c.:
„Kto wytwarza produkt niebezpieczny w rozumieniu niniejszego rozdziału, jest odpowiedzialny za szkodę wyrządzoną komukolwiek przez ten produkt, chyba że zachodzą okoliczności wyłączające odpowiedzialność przewidziane w ustawie.”
Systemy AI mogą zostać uznane za „produkt” w sytuacji, gdy:
- są zintegrowane z urządzeniem fizycznym (np. robotem, czujnikiem, automatem),
- zostały wprowadzone do obrotu przez producenta jako gotowe rozwiązanie,
- posiadają autonomiczne funkcje decyzyjne.
Wówczas, jeśli wada AI (np. błąd algorytmu) prowadzi do szkody, możliwe jest dochodzenie odpowiedzialności od producenta lub dystrybutora danego systemu. Jednakże w stosunkach pracy główną odpowiedzialność cywilną nadal ponosi pracodawca, jako podmiot wdrażający produkt i organizujący proces pracy.
⚠️ W praktyce oznacza to, że pracownik poszkodowany przez działanie AI w pracy w pierwszej kolejności kieruje roszczenia do pracodawcy, nie do producenta.
🧠 Odpowiedzialność na zasadzie winy – kiedy trzeba udowodnić błąd
W niektórych przypadkach odpowiedzialność pracodawcy lub osoby trzeciej może być oparta nie na zasadzie ryzyka, ale na zasadzie winy, zgodnie z art. 415 lub art. 430 k.c.
Art. 415 k.c.: „Kto z winy swojej wyrządził drugiemu szkodę, obowiązany jest do jej naprawienia.”
Art. 430 k.c.: „Kto powierza wykonanie czynności osobie, która przy wykonywaniu tej czynności podlega jego kierownictwu i ponosi winę przy jej wykonywaniu, ten jest odpowiedzialny za szkodę wyrządzoną z winy tej osoby.”
W kontekście AI winę można przypisać:
- człowiekowi, który źle nadzorował system (np. pracownik IT lub kierownik projektu),
- pracodawcy, który wdrożył niedostosowany lub niezweryfikowany system,
- pracownikowi, który posługiwał się AI wbrew procedurom lub w sposób rażąco nieostrożny.
📌 Przykład praktyczny:
W zakładzie produkcyjnym „InnoSteel” pracownik użył systemu AI do uruchomienia maszyny poza zatwierdzonym harmonogramem. AI nie rozpoznała obecności innych osób w strefie roboczej i doszło do wypadku. Dochodzenie wykazało, że pracownik złamał procedury bezpieczeństwa. W takiej sytuacji możliwe jest przypisanie mu winy, co skutkuje ograniczeniem odpowiedzialności pracodawcy lub nawet jej wyłączeniem.
🇪🇺 AI Act i AILD – europejskie wsparcie dla poszkodowanych
Unia Europejska podejmuje kroki w kierunku kompleksowego uregulowania odpowiedzialności za sztuczną inteligencję. W 2024 r. przyjęto rozporządzenie 2024/1689 (AI Act), a także trwają prace nad dyrektywą w sprawie odpowiedzialności za sztuczną inteligencję (Artificial Intelligence Liability Directive – AILD).
🎯 Najważniejsze założenia AILD:
- wprowadzenie domniemania związku przyczynowego pomiędzy działaniem AI a szkodą,
- odwrócenie ciężaru dowodu w określonych sytuacjach – pracodawca lub producent AI będzie musiał wykazać, że system nie zawiódł,
- obowiązek przechowywania i udostępniania dokumentacji dotyczącej działania AI (np. logów, parametrów, decyzji systemu),
- uproszczenia proceduralne dla poszkodowanych – szczególnie w sprawach pracowniczych.
📄 Ułatwienia dowodowe w AI Act:
AI Act wprowadza obowiązek transparentności systemów AI wysokiego ryzyka, czyli m.in. tych używanych w zarządzaniu zatrudnieniem. Osoby poszkodowane mogą żądać od twórców AI ujawnienia:
- danych szkoleniowych systemu,
- zasad działania algorytmu,
- decyzji podejmowanych przez system.
To bardzo istotne ułatwienie – pozwala udowodnić, że szkoda powstała na skutek konkretnego działania AI.
👷♂️ A co z odpowiedzialnością pracownika?
Zgodnie z art. 114 i następne Kodeksu pracy, pracownik ponosi odpowiedzialność za szkody wyrządzone pracodawcy przy wykonywaniu obowiązków pracowniczych, ale jego odpowiedzialność jest ograniczona.
Art. 119 Kodeksu pracy: „Jeżeli pracownik, w granicach obowiązków pracowniczych, wyrządził szkodę nieumyślnie, odpowiada tylko do wysokości trzymiesięcznego wynagrodzenia.”
Jeśli szkoda powstała w wyniku rażącego niedbalstwa lub umyślnego działania, pracownik może odpowiadać w pełnym zakresie.
W kontekście AI oznacza to, że:
- jeśli pracownik obsługiwał system AI zgodnie z procedurami – nie ponosi odpowiedzialności za jego błąd,
- jeśli użył AI niewłaściwie, zignorował ostrzeżenia systemu lub działał bez uprawnień – może zostać pociągnięty do odpowiedzialności materialnej.
Kluczowe wnioski – co powinien wiedzieć pracodawca i pracownik?
🏢 Dla pracodawców:
✔ AI nie zwalnia z odpowiedzialności – nawet jeśli szkoda została wyrządzona przez system autonomiczny, odpowiedzialność cywilna spoczywa na podmiocie, który go wykorzystuje.
✔ Uważaj na odpowiedzialność na zasadzie ryzyka – jeżeli system AI działa jako integralna część przedsiębiorstwa (np. linia produkcyjna, system harmonogramowania), obowiązuje art. 435 k.c., a więc odpowiedzialność niezależna od winy.
✔ Zadbaj o dokumentację i kontrolę działania AI – to nie tylko wymóg bezpieczeństwa, ale również element obrony w ewentualnym procesie cywilnym. Jeśli system działa wadliwie, pracodawca musi wykazać, że zrobił wszystko, co racjonalnie możliwe, by temu zapobiec.
✔ Wdrażaj szkolenia i procedury – ich brak może zostać uznany za zawinione zaniechanie, co zwiększy zakres odpowiedzialności.
👷♀️ Dla pracowników:
✔ Korzystaj z AI zgodnie z procedurami – jeśli działasz zgodnie z zakresem obowiązków i wytycznymi pracodawcy, nie odpowiadasz za błędy systemu.
✔ Nie eksperymentuj z systemami AI bez zgody przełożonych – użycie AI poza zakresem upoważnienia może prowadzić do przypisania ci winy i odpowiedzialności majątkowej.
✔ W razie szkody – dokumentuj działanie systemu – zapisy, alerty i komunikaty AI mogą być dowodem, że działałeś zgodnie z instrukcjami.
⚖️ Podstawa prawna
- art. 415, art. 429, art. 430, art. 431, art. 435, art. 449¹ i n. – Kodeks cywilny
- art. 114–122 – Kodeks pracy
- Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 marca 2024 r. w sprawie sztucznej inteligencji (AI Act)
- Projekt dyrektywy Parlamentu Europejskiego i Rady w sprawie odpowiedzialności za sztuczną inteligencję (Artificial Intelligence Liability Directive – AILD)
🗂 Tematy porad zawartych w poradniku
- odpowiedzialność AI w pracy
- szkody spowodowane przez sztuczną inteligencję
- kto odpowiada za błąd algorytmu
- odszkodowanie w pracy z AI
- odpowiedzialność cywilna AI 2025
🌐 Przydatne linki
- https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX%3A32024R1689 – Rozporządzenie AI Act (2024/1689)