Data publikacji: 25.12.2025

Kluczowe ryzyka dla ochrony danych osobowych przy wdrażaniu AI

W tym poradniku dowiesz się, jak bezpiecznie wdrożyć AI w firmie, na co zwracać uwagę i jakie działania podjąć, by uniknąć kar i zabezpieczyć interesy swojej firmy oraz klientów.

1. Przejrzystość przetwarzania – jak nie naruszyć art. 5 ust. 1 lit. a RODO?

Przetwarzanie danych przez AI musi być zgodne z prawem, rzetelne i przejrzyste dla osób, których dane dotyczą. Co to oznacza w praktyce? Każda osoba powinna wiedzieć:

  • jakie jej dane są przetwarzane,
  • w jakim celu,
  • jak długo będą przechowywane,
  • kto ma do nich dostęp.

Przykład praktyczny:
Spółka IT z Gdańska wdrożyła w swoim sklepie internetowym chatbot oparty na AI, który analizuje dane klientów i automatycznie dopasowuje oferty. Firma zadbała o szczegółowe informacje w polityce prywatności, ale nie poinformowała klientów, że AI podejmuje decyzje profilujące. Klientka, która dowiedziała się o tym przypadkiem, zgłosiła sprawę do UODO.

Wniosek:
Każda firma wdrażająca AI powinna zadbać, by osoba, której dane dotyczą, była jasno poinformowana o użyciu AI, profilowaniu czy zautomatyzowanych decyzjach. Bez tego istnieje ryzyko naruszenia zasady przejrzystości i grozi kara administracyjna.


2. Ograniczenie celu – art. 5 ust. 1 lit. b RODO

Dane mogą być zbierane i wykorzystywane tylko w jasno określonym, uzasadnionym celu. Niedopuszczalne jest wykorzystanie danych do innych, niezgłoszonych celów, nawet jeśli wydają się „podobne”.

Przykład praktyczny:
Miejska wypożyczalnia rowerów w Krakowie gromadzi dane użytkowników na potrzeby obsługi rezerwacji i płatności. Po roku zaczęła analizować te dane w celach marketingowych bez uzyskania nowej zgody klientów. Takie działanie jest niezgodne z zasadą ograniczenia celu.


3. Minimalizacja danych – art. 5 ust. 1 lit. c RODO

Systemy AI nie powinny przetwarzać więcej danych, niż jest to niezbędne do realizacji celu. Przetwarzanie „na zapas”, bo „może się przyda”, to ryzyko dla firmy.

Przykład praktyczny:
Startup z Poznania wdrożył AI do analizy opinii klientów o produktach. System domyślnie pobierał też adresy zamieszkania, które nie były potrzebne do analizy – wystarczyły imiona i treść opinii. Po audycie okazało się, że pobieranie tych danych było nadmiarowe i niezgodne z RODO.


4. Prawidłowość danych – art. 5 ust. 1 lit. d RODO

Dane przetwarzane przez AI muszą być prawidłowe i aktualne. Błędne dane mogą prowadzić do nieprawidłowych decyzji lub działań.

Przykład praktyczny:
Firma ubezpieczeniowa z Torunia korzystała z AI do automatycznego wyceny szkód komunikacyjnych. System bazował na przestarzałych danych o modelach samochodów, co powodowało zaniżanie wypłat odszkodowań i reklamacje klientów.


Prawa osób przy zautomatyzowanym podejmowaniu decyzji (profilowanie przez AI)

Zgodnie z RODO (art. 13 ust. 2 lit. f, art. 14 ust. 2 lit. g, art. 15 ust. 1 lit. h, art. 22 RODO), każda osoba, której dane są przetwarzane przez AI w sposób zautomatyzowany (np. profilowanie), ma określone prawa:

  • Prawo do uzyskania istotnych informacji o zasadach działania AI – osoba musi wiedzieć, jakie zasady rządzą podejmowaniem decyzji oraz jakie mogą być konsekwencje.
  • Prawo do zakwestionowania decyzji – osoba ma prawo nie zgodzić się na automatyczną decyzję.
  • Prawo do interwencji człowieka – osoba ma prawo żądać, by decyzję zweryfikował człowiek, nie tylko algorytm.
  • Prawo do wyrażenia swojego stanowiska – np. przedstawienia własnych argumentów, które mogą wpłynąć na decyzję.

Przykład praktyczny:
Firma rekrutacyjna z Wrocławia wykorzystała AI do wstępnej selekcji kandydatów. System automatycznie odrzucił aplikację pani Anny, bazując na analizie danych. Anna miała prawo:

  • dowiedzieć się, dlaczego jej aplikacja została odrzucona,
  • zażądać weryfikacji przez rekrutera,
  • przedstawić swoje dodatkowe kwalifikacje.

Zautomatyzowane podejmowanie decyzji – legalność działań AI (art. 22 RODO)

Zgodnie z art. 22 RODO, osoba, której dane dotyczą, ma prawo nie podlegać decyzji opierającej się wyłącznie na zautomatyzowanym przetwarzaniu (w tym profilowaniu), która wywołuje wobec niej skutki prawne lub w podobny sposób istotnie na nią wpływa. Wyjątki od tej zasady dotyczą sytuacji, gdy:

  1. Zautomatyzowane podejmowanie decyzji jest niezbędne do zawarcia lub wykonania umowy – np. automatyczna akceptacja wniosku kredytowego online.
  2. Takie przetwarzanie jest dozwolone prawem UE lub prawa krajowego, które przewiduje środki ochrony praw i wolności osoby, której dane dotyczą.
  3. Osoba wyraziła na to wyraźną zgodę.

Przykład praktyczny:
Bank internetowy „FinFlex” z Warszawy wprowadził system AI do przyznawania mikropożyczek. Decyzje kredytowe są podejmowane wyłącznie przez algorytm, bez udziału człowieka. W takim przypadku bank musi:

  • poinformować klienta o sposobie działania systemu,
  • zapewnić możliwość odwołania się od decyzji i kontaktu z konsultantem,
  • uzyskać zgodę klienta lub wykazać, że taki model jest niezbędny do realizacji umowy.

Brak adekwatnych zabezpieczeń i dokumentacji – ryzyko dla firmy (art. 5 ust. 1 lit. f, art. 24, 25, 32, 35 RODO)

Jednym z największych ryzyk wdrożenia AI jest niedostateczne zabezpieczenie danych oraz brak dokumentowania procesów i analiz ryzyka. Przedsiębiorca powinien zadbać o:

  • Zastosowanie odpowiednich środków technicznych i organizacyjnych (np. szyfrowanie, pseudonimizacja, dostęp ograniczony do upoważnionych osób).
  • Regularne przeglądy i aktualizacje zabezpieczeń.
  • Przeprowadzanie analizy ryzyka naruszeń praw lub wolności osób fizycznych.
  • Ocena skutków dla ochrony danych osobowych (DPIA) – szczególnie przy wdrażaniu nowych technologii, które mogą znacząco wpływać na prawa osób.

Przykład praktyczny:
Centrum medyczne z Opola wdrożyło AI do analizy dokumentacji pacjentów. Niestety, nie przeprowadzono oceny ryzyka ani nie zadbano o szyfrowanie danych. Po cyberataku dane osobowe pacjentów wyciekły do internetu. Firma została ukarana przez UODO za brak stosownych zabezpieczeń i nieprzeprowadzenie DPIA.


Błędy przy powierzeniu przetwarzania danych osobowych (art. 28 RODO)

Przedsiębiorcy często korzystają z zewnętrznych dostawców AI lub chmury obliczeniowej. Każde powierzenie danych musi odbywać się zgodnie z RODO – konieczna jest umowa powierzenia przetwarzania danych i weryfikacja partnera.

Typowe błędy:

  • Brak weryfikacji, czy dostawca spełnia wymogi RODO.
  • Brak pisemnej umowy powierzenia lub nieprawidłowa treść umowy.
  • Nieuprawnione dalsze przekazanie danych lub transfer do państw trzecich bez odpowiednich zabezpieczeń.

Przykład praktyczny:
Firma e-commerce „NovaMarket” z Łodzi wdrożyła usługę analizy zachowań klientów, korzystając z amerykańskiej platformy AI. Nie podpisano jednak umowy powierzenia danych i nie zweryfikowano zabezpieczeń. W efekcie dane klientów trafiły na zagraniczne serwery, a firma naraziła się na karę finansową.


Brak lub niekompletny rejestr czynności przetwarzania (art. 30 RODO)

Każda firma przetwarzająca dane osobowe musi prowadzić rejestr czynności przetwarzania – także wtedy, gdy wykorzystuje AI. Rejestr ten musi być:

  • Kompletny i aktualny – odzwierciedlający rzeczywiste procesy,
  • Zawierać szczegółowe informacje zgodnie z RODO (cele, kategorie danych, odbiorcy, opis zabezpieczeń itd.).

Przykład praktyczny:
Sieć restauracji „LunchSpot” z Katowic wdrożyła AI do automatycznej analizy zamówień i preferencji klientów, ale nie uaktualniła rejestru czynności przetwarzania o nowy proces. W trakcie kontroli okazało się, że dane są przetwarzane w sposób nieudokumentowany, co było naruszeniem obowiązków administratora.


Wyzwania dokumentacyjne i etyczne przy wdrożeniu AI

Wdrażając AI, przedsiębiorca powinien dokumentować ocenę prawną i etyczną rozwiązań, m.in.:

  • Zapewnić przejrzystość dla osób, których dane są przetwarzane przez AI.
  • Sprawdzić, czy dane wykorzystywane przez AI są adekwatne i nie nadmiarowe.
  • Zweryfikować, czy osoba ma rzeczywisty wpływ na decyzje podejmowane przez algorytm i czy zapewniona jest skuteczna interwencja człowieka.
  • Prowadzić dokumentację wszystkich analiz i wdrożonych zabezpieczeń.

Podsumowanie – kluczowe wnioski i praktyczne wskazówki

  • Zawsze informuj klientów o wykorzystaniu AI i przetwarzaniu ich danych – komunikacja musi być prosta i zrozumiała.
  • Przetwarzaj tylko te dane, które są naprawdę niezbędne – minimalizacja ryzyka.
  • Dokumentuj wszystkie procesy i decyzje – prowadź rejestr czynności oraz ocenę skutków dla ochrony danych (DPIA).
  • Zadbaj o silne zabezpieczenia techniczne i organizacyjne – regularnie testuj i aktualizuj systemy.
  • Zawrzyj odpowiednie umowy z dostawcami AI i chmury – weryfikuj ich zgodność z RODO.
  • Szkol pracowników i buduj świadomość w organizacji – błędy ludzkie to częsta przyczyna incydentów.

Podstawa prawna

  • art. 5 ust. 1 lit. a, b, c, d, f oraz ust. 2 – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO)
  • art. 13 ust. 2 lit. f, art. 14 ust. 2 lit. g, art. 15 ust. 1 lit. h, art. 22 – RODO
  • art. 24, 25, 28, 30, 32, 35 – RODO

Tematy porad zawartych w poradniku

  • wdrożenie AI zgodnie z RODO 2025
  • ochrona danych osobowych w systemach AI
  • rejestr czynności przetwarzania AI
  • powierzenie przetwarzania danych dostawcom AI
  • analiza ryzyka AI i RODO

Przydatne adresy urzędowe

Czy ta porada była dla Ciebie pomocna?

Zobacz również: