Wykorzystywanie narzędzi sztucznej inteligencji (AI) przez pracowników to dziś codzienność w polskich firmach – zarówno w dużych korporacjach, jak i w sektorze małych i średnich przedsiębiorstw. AI automatyzuje, przyspiesza pracę i zwiększa konkurencyjność. Jednocześnie rodzi szereg pytań o ryzyka prawne i odpowiedzialność za skutki korzystania z tych technologii. W tym poradniku dowiesz się, jak kształtuje się odpowiedzialność pracodawcy i pracownika w kontekście narzędzi AI, jakie są najczęstsze pułapki oraz jak zabezpieczyć się przed poważnymi konsekwencjami prawnymi i finansowymi.
Dlaczego temat odpowiedzialności za AI jest kluczowy dla Twojej firmy?
Coraz więcej procesów firmowych (od analizy danych, przez tworzenie treści, aż po obsługę klienta) opiera się na algorytmach uczenia maszynowego. To powoduje, że nie tylko menedżerowie IT, ale także prawnicy, kadra zarządzająca i sami pracownicy muszą rozumieć, jakie konsekwencje niesie używanie AI w miejscu pracy. Błędy w tym zakresie mogą kosztować firmę nie tylko utratę reputacji, ale również realne pieniądze – zwłaszcza w kontekście roszczeń osób trzecich, naruszenia praw autorskich, przepisów o ochronie danych osobowych czy odpowiedzialności odszkodowawczej wobec kontrahentów.
Podstawy prawne – nowe europejskie ramy dla AI
Do niedawna w polskim porządku prawnym nie istniały precyzyjne regulacje dotyczące odpowiedzialności za wykorzystanie AI przez pracowników. Dopiero 12 lipca 2024 r. w Dzienniku Urzędowym UE opublikowano rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13.06.2024 r. (tzw. AI Act), które wyznacza nowe, zharmonizowane ramy prawne dla wdrożenia sztucznej inteligencji we wszystkich państwach UE, w tym w Polsce.
Definicja AI (art. 3 pkt 1 AI Act):
„System sztucznej inteligencji oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.”
(art. 3 pkt 1 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689)
W praktyce, do systemów AI zalicza się zarówno narzędzia generatywne, chatboty, jak i zaawansowane systemy analizy danych czy automatyzacji procesów.
Kto ponosi odpowiedzialność za szkody związane z użyciem AI?
Kluczowe w polskim prawie pracy jest to, że ryzyko działalności gospodarczej ponosi pracodawca. Jeżeli w trakcie wykonywania pracy (np. generowania raportu, projektowania grafiki, kontaktów z klientem) pracownik używa narzędzi AI i w efekcie powstaje szkoda (np. naruszenie cudzych praw autorskich, wyciek danych osobowych, błąd w analizie danych skutkujący stratami finansowymi), za tę szkodę wobec osób trzecich odpowiada w pierwszej kolejności pracodawca.
Pracodawca nie może uwolnić się od tej odpowiedzialności tylko dlatego, że nie wiedział o użyciu AI przez pracownika lub nie udzielił na to zgody. To on jako organizator pracy ponosi ryzyko funkcjonowania przedsiębiorstwa.
Kluczowe obszary ryzyka – na co zwrócić uwagę?
Praca z AI w praktyce firmy generuje szereg ryzyk, które najczęściej dotyczą:
- Naruszenia praw autorskich – AI często korzysta z publicznych zbiorów danych, tekstów, grafik, muzyki, które mogą być objęte ochroną autorską. Ustalenie, czy dane wejściowe lub wygenerowane treści naruszają cudze prawa, jest trudne – szczególnie, gdy polityka dostawcy AI nie ujawnia źródeł danych treningowych.
- Naruszenia ochrony danych osobowych – Przekazywanie do narzędzi AI danych osobowych klientów, kontrahentów lub pracowników może skutkować naruszeniem RODO, zwłaszcza jeśli system nie jest odpowiednio zabezpieczony lub przetwarza dane poza Europejskim Obszarem Gospodarczym.
- Błędy technologiczne lub algorytmiczne – AI może działać wadliwie z przyczyn leżących zarówno po stronie systemu (np. błędy w algorytmie, wadliwe dane treningowe), jak i po stronie pracownika (nieprawidłowe użycie narzędzia, świadome zignorowanie błędów systemu).
- Brak wdrożenia odpowiednich regulacji wewnętrznych – Brak jasno określonych zasad korzystania z AI w firmie (w umowie o pracę, regulaminie pracy czy politykach wewnętrznych) może prowadzić do sytuacji, w której odpowiedzialność nie jest odpowiednio rozłożona między pracownika a pracodawcę.
Przykład praktyczny nr 1 (zmodyfikowany):
Firma IT z Wrocławia wdraża nowy system do automatycznego generowania raportów dla klientów. Pracownik Jan Nowak korzysta z narzędzia AI do generowania analiz finansowych. W jednym z raportów pojawiają się fragmenty tekstu, które są niemal identyczne z treściami opublikowanymi przez konkurencyjną firmę. Ta firma występuje z roszczeniem o naruszenie praw autorskich wobec pracodawcy.
Wynik: Pracodawca ponosi odpowiedzialność cywilną, nawet jeśli nie wiedział, że pracownik korzystał z AI. Może jednak dochodzić regresu wobec pracownika – jeśli ten działał z naruszeniem obowiązków lub bez zgody.
Odpowiedzialność pracownika za korzystanie z narzędzi AI
Choć pracodawca ponosi odpowiedzialność wobec osób trzecich za szkody wyrządzone przez pracownika podczas wykonywania pracy, nie oznacza to, że sam pracownik jest zawsze wolny od konsekwencji. W polskim prawie pracy zasady odpowiedzialności pracownika są jasno określone, ale sytuacje związane z AI wymagają szczególnej uwagi i często indywidualnej analizy.
Kiedy pracownik ponosi odpowiedzialność wobec pracodawcy?
Podstawą odpowiedzialności pracownika za korzystanie z narzędzi AI są przede wszystkim:
- Zakres udzielonej zgody przez pracodawcę na używanie AI w wykonywaniu obowiązków,
- Zasady i warunki określone w umowie o pracę, regulaminie pracy lub innych wewnętrznych aktach,
- Staranność i lojalność – obowiązek wykonywania pracy sumiennie, zgodnie z poleceniami i interesem pracodawcy.
Pracownik ponosi odpowiedzialność wobec pracodawcy, gdy:
- korzysta z AI bez zgody lub wbrew wyraźnym zakazom,
- nie przestrzega zasad bezpieczeństwa (np. wprowadza dane osobowe do narzędzia AI bez odpowiednich upoważnień),
- działa świadomie z naruszeniem wytycznych lub ignoruje ewidentne błędy działania systemu.
Uwaga! Pracodawca nie może wymagać od pracownika znajomości wszelkich szczegółów technicznych działania AI, ale musi jasno określić zasady jej użycia. Brak precyzyjnych regulacji nie obciąża pracownika.
Przykład praktyczny nr 2 (zmodyfikowany):
Przedsiębiorstwo handlowe z Gdańska wprowadziło politykę, w której wyraźnie zakazano przesyłania danych osobowych klientów do zewnętrznych narzędzi AI. Pracownica Anna Kowalczyk, mimo zakazu, wykorzystała popularny generator tekstów AI do przygotowania oferty handlowej, kopiując do systemu dane kontaktowe klientów. Narzędzie okazało się przechowywać dane na serwerach poza UE, co skutkowało naruszeniem przepisów RODO.
Wynik: Pracodawca odpowiada wobec klientów, jednak może żądać od pracownicy odszkodowania – w granicach określonych w kodeksie pracy, a w przypadku działania umyślnego (czyli świadomego złamania zakazu) nawet do pełnej wysokości szkody.
Zgoda pracodawcy na wykorzystywanie AI – jak ją poprawnie wprowadzić?
Zgoda pracodawcy na korzystanie przez pracownika z narzędzi AI powinna być wyrażona jednoznacznie i najlepiej mieć formę pisemną – w umowie o pracę, aneksie lub regulaminie. Warto w niej określić:
- jakie narzędzia AI mogą być wykorzystywane,
- do jakich czynności (np. analiza danych, tworzenie raportów, komunikacja z klientem),
- zakres odpowiedzialności i konieczność zgłaszania błędów systemu,
- zasady przetwarzania danych (szczególnie osobowych) w ramach tych narzędzi.
Przykład poprawnego zapisu w regulaminie pracy:
„Pracownik jest uprawniony do korzystania z narzędzi sztucznej inteligencji wymienionych w załączniku nr 1 wyłącznie w zakresie wykonywania obowiązków wynikających z niniejszej umowy o pracę, pod warunkiem przestrzegania wewnętrznych procedur bezpieczeństwa oraz zgłaszania wszelkich nieprawidłowości działania tych narzędzi bezpośredniemu przełożonemu.”
Co, jeśli pracodawca nie dopilnuje zasad wdrożenia AI?
Jeśli pracodawca nie określi wyraźnie zasad korzystania z AI, nie przeprowadzi szkoleń czy nie poinformuje o zakazach, odpowiedzialność za ewentualne naruszenia (np. wyciek danych, złamanie praw autorskich) pozostaje po stronie firmy, a nie pracownika. To na pracodawcy spoczywa obowiązek organizacji pracy i precyzyjnego regulowania kwestii związanych z użyciem nowych technologii.
Odpowiedzialność za nieprawidłowe działanie narzędzi AI
W praktyce błędy mogą wynikać zarówno z wadliwego działania systemu AI (np. błąd algorytmu, awaria sprzętu), jak i z niewłaściwego użytkowania przez pracownika. Odpowiedzialność rozkłada się wtedy następująco:
- Błąd systemu lub dostawcy AI: Pracodawca może dochodzić roszczeń wobec twórcy lub dostawcy narzędzia, jeśli nie działa ono zgodnie z deklarowaną specyfikacją.
- Świadome korzystanie z wadliwego narzędzia przez pracownika: Pracownik może zostać pociągnięty do odpowiedzialności dyscyplinarnej (np. upomnienie, nagana, wypowiedzenie umowy, a nawet zwolnienie dyscyplinarne na podstawie art. 52 § 1 pkt 1 k.p.) i materialnej (odszkodowanie – wysokość szkody, a w przypadku działania umyślnego nawet cała wartość wyrządzonej szkody).
Pamiętaj: Pracownik ma obowiązek zgłosić wszelkie zauważone nieprawidłowości w działaniu AI swojemu przełożonemu. Brak takiego zgłoszenia, szczególnie przy świadomości potencjalnej szkody, może być potraktowany jako ciężkie naruszenie obowiązków pracowniczych.
Brak zgody pracodawcy na korzystanie z narzędzi AI – skutki i zakres odpowiedzialności pracownika
Jednym z kluczowych zagadnień w praktyce HR oraz zarządzania ryzykiem w firmie jest sytuacja, gdy pracownik korzysta z narzędzi AI bez zgody lub wręcz wbrew zakazowi pracodawcy. Z punktu widzenia prawa pracy, zakres odpowiedzialności pracownika zależy od tego, czy miał on świadomość zakazu oraz czy pracodawca prawidłowo określił zasady korzystania z technologii.
Dwa scenariusze prawne:
1. Brak wiedzy pracownika o zakazie
Jeżeli pracodawca nie poinformował pracownika o zakazie korzystania z AI (np. nie zawarł odpowiednich zapisów w umowie o pracę, regulaminie czy nie przeprowadził szkoleń), nie można przypisać pracownikowi odpowiedzialności dyscyplinarnej ani materialnej za samo użycie AI. Odpowiedzialność za ewentualne szkody ponosi w takiej sytuacji wyłącznie pracodawca.
2. Świadome działanie pracownika wbrew zakazowi
Jeśli pracownik został jasno poinformowany o zakazie używania AI (np. otrzymał pisemne polecenie, zapoznał się z regulaminem), a mimo to korzysta z tych narzędzi, jego odpowiedzialność jest oparta na ogólnych przepisach kodeksu pracy. Obejmuje to:
- Odpowiedzialność materialną – do wysokości rzeczywistej szkody, ale maksymalnie do trzymiesięcznego wynagrodzenia (art. 119 k.p.), chyba że szkoda została wyrządzona umyślnie – wtedy pracownik odpowiada do pełnej wartości szkody (art. 122 k.p.).
- Odpowiedzialność dyscyplinarną – możliwe jest nałożenie kary porządkowej, wypowiedzenie umowy, a nawet rozwiązanie umowy o pracę bez wypowiedzenia w przypadku ciężkiego naruszenia podstawowych obowiązków pracowniczych.
Przykład praktyczny nr 3 (zmodyfikowany):
Spółka produkcyjna z Poznania wprowadziła wyraźny zakaz używania narzędzi AI do generowania ofert dla klientów ze względu na ryzyko wycieku danych. Pracownik Tomasz B. korzysta z AI do przygotowania korespondencji handlowej, ignorując zakaz. Efektem jest nieautoryzowane ujawnienie poufnych informacji kontrahenta, co skutkuje roszczeniem odszkodowawczym wobec firmy.
Wynik: Pracodawca, po udokumentowaniu naruszenia i wykazaniu winy pracownika, może nie tylko rozwiązać umowę z Tomaszem B. w trybie dyscyplinarnym, ale także dochodzić od niego odszkodowania do pełnej wartości wyrządzonej szkody, jeśli działanie było umyślne.
Granice odpowiedzialności – na co należy zwrócić uwagę?
Nie każda nieprawidłowość czy szkoda wynikająca z użycia AI przez pracownika oznacza automatyczną odpowiedzialność materialną czy dyscyplinarną. Decyduje o tym:
- Czy pracownik był właściwie poinformowany o zasadach korzystania (lub zakazie) AI,
- Czy jego działanie było umyślne czy nieumyślne,
- Jaki był faktyczny skutek działania (strata majątkowa, wyciek danych, naruszenie praw osób trzecich),
- Czy szkoda powstała na skutek nieprecyzyjnych instrukcji lub zaniedbań po stronie pracodawcy (np. brak szkoleń, niejasne procedury).
Orzecznictwo
Sąd Najwyższy wskazuje, że:
„Nawet umyślne niedopełnienie obowiązku nadzoru nad mieniem powierzonym pracownikowi z obowiązkiem wyliczenia się nie jest równoznaczne z umyślnym wyrządzeniem szkody”
(Wyrok SN z 14 grudnia 1999 r., I PKN 428/99)
Oznacza to, że dla przypisania winy umyślnej (a więc pełnej odpowiedzialności odszkodowawczej) musi istnieć zamiar wyrządzenia szkody, a nie samo naruszenie obowiązków pracowniczych.
Praktyczne rekomendacje dla pracodawców
Aby ograniczyć ryzyko związane z używaniem AI przez pracowników, warto:
- Precyzyjnie uregulować korzystanie z AI w dokumentach firmowych (umowa o pracę, regulamin pracy, polityki bezpieczeństwa),
- Wyraźnie informować pracowników o zasadach i zakazach dotyczących używania AI (np. przez szkolenia, komunikaty wewnętrzne, podpisanie stosownych oświadczeń),
- Regularnie aktualizować procedury wraz ze zmieniającymi się technologiami i przepisami prawa,
- Wprowadzić system monitorowania i zgłaszania błędów lub naruszeń – zarówno przez pracowników, jak i kadrę zarządzającą.
Podsumowanie – kluczowe wnioski i praktyczne wskazówki
Wykorzystanie sztucznej inteligencji w pracy niesie ogromny potencjał dla firm, ale też nowe ryzyka i odpowiedzialność – zarówno po stronie pracodawców, jak i pracowników. Najważniejsze zasady, które warto zapamiętać:
- To pracodawca ponosi odpowiedzialność wobec osób trzecich za szkody wyrządzone w trakcie wykonywania pracy, nawet jeśli nie miał świadomości, że pracownik użył AI.
- Pracownik ponosi odpowiedzialność wobec pracodawcy tylko wtedy, gdy naruszy zasady korzystania z AI lub wyraźny zakaz, a także gdy działa świadomie i z winy umyślnej.
- Podstawą prawidłowego zarządzania ryzykiem AI jest jasne uregulowanie tej kwestii w dokumentacji pracowniczej – w tym w umowie o pracę, regulaminach i politykach wewnętrznych.
- Pracodawca powinien zapewnić szkolenia, jasne komunikaty i procedury dotyczące korzystania z narzędzi AI, w tym ochrony danych i praw autorskich.
- Pracownik zawsze ma obowiązek zgłaszać wszelkie zauważone nieprawidłowości w działaniu AI, a pracodawca musi dbać o właściwy nadzór i monitoring nowych technologii.
Praktyczne checklisty
Dla pracodawcy:
- Czy w Twojej firmie są określone, jasne zasady korzystania z AI?
- Czy informujesz i szkolisz pracowników na temat ryzyk oraz odpowiedzialności?
- Czy procedury bezpieczeństwa obejmują kontrolę nad danymi wprowadzanymi do narzędzi AI?
- Czy każda zgoda na użycie AI jest udokumentowana?
Dla pracownika:
- Czy wiesz, jakie narzędzia AI możesz wykorzystywać, a które są zabronione?
- Czy zgłaszasz wszelkie błędy lub nieprawidłowości przełożonemu?
- Czy korzystasz z AI zgodnie z obowiązującymi wytycznymi i zakresem zgody pracodawcy?
Podstawa prawna
- Art. 3 pkt 1, rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (AI Act).
- Art. 100, art. 114–122, art. 30 § 4, art. 32 § 1, art. 52 § 1 pkt 1, art. 115, art. 119, art. 122 ustawy z dnia 26 czerwca 1974 r. – Kodeks pracy.
- RODO – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r.
- Wyrok SN z 14 grudnia 1999 r., I PKN 428/99.
Tematy porad zawartych w poradniku (SEO)
- odpowiedzialność pracownika za AI 2025
- AI w miejscu pracy prawo
- zgoda na AI w pracy
- odpowiedzialność za szkody AI
- zakaz użycia AI w pracy
Przydatne linki urzędowe
- https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX%3A32024R1689 (AI Act)
- https://isap.sejm.gov.pl/isap.nsf/download.xsp/WDU19740240141/U/D19740141Lj.pdf (Kodeks pracy)
- https://uodo.gov.pl/ (Urząd Ochrony Danych Osobowych)
- https://www.gov.pl/web/praca (Ministerstwo Rodziny, Pracy i Polityki Społecznej)
- https://europa.eu/european-union/law_pl (Eur-Lex – prawo UE)