Współczesny rozwój technologii sprawia, że sztuczna inteligencja (AI) coraz śmielej wkracza w kolejne obszary życia – także do sądownictwa. Wymiar sprawiedliwości korzysta już z wielu narzędzi cyfrowych, a AI uznaje się za szansę na usprawnienie i przyspieszenie procedur. Jednak w sprawach karnych pojawia się wiele pytań: czy i jak można korzystać z AI na sali sądowej? Kiedy jej użycie jest pomocne, a kiedy zabronione? Jakie ryzyka i korzyści wiążą się z automatyzacją procesów? W tym poradniku omawiam, jak wygląda obecnie sytuacja prawna i praktyczna wykorzystania sztucznej inteligencji w polskim postępowaniu karnym – w oparciu o najnowsze regulacje, orzecznictwo oraz doświadczenia innych krajów.
Czym jest sztuczna inteligencja według prawa i dlaczego jej definicja ma znaczenie?
W pierwszej kolejności warto jasno wskazać, co rozumiemy pod pojęciem „sztuczna inteligencja” w kontekście wymiaru sprawiedliwości. Aktualnie najpełniejszą i prawnie wiążącą definicję AI znajdziemy w art. 3 pkt 1 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1684 z dnia 13 czerwca 2024 r. w sprawie sztucznej inteligencji (tzw. AI Act):
„system sztucznej inteligencji oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak: predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.”
Ta definicja obejmuje nie tylko zaawansowane systemy samouczące się (np. oparte na sieciach neuronowych), ale także programy, które automatyzują ocenę, prognozowanie lub rekomendacje w oparciu o duże zbiory danych.
Dlaczego to ważne? Ponieważ nie każdy algorytm używany w sądach czy przez organy ścigania będzie spełniał wymogi „AI” w rozumieniu prawa unijnego (np. proste generatory liczb losowych, takie jak stosowany w Polsce System Losowego Przydziału Spraw, nie są uznawane za AI).
Jakie są obecnie dozwolone zastosowania AI w postępowaniu karnym?
✅ AI jako narzędzie wsparcia, a nie decydent
Zgodnie z najnowszymi przepisami unijnymi oraz polskim Kodeksem postępowania karnego, AI może być wykorzystywana wyłącznie w określonych, pomocniczych obszarach procesu karnego. Chodzi przede wszystkim o działania techniczne i organizacyjne, które nie mają wpływu na ostateczne rozstrzygnięcia sądu, takie jak:
- Wspomaganie pracy biegłych sądowych: AI może wspierać analizę materiału dowodowego, np. przy rekonstrukcji przebiegu wypadków, badaniu zapisów elektronicznych czy analizie bilingów telefonicznych.
- Przygotowanie dokumentacji i transkrypcje: Automatyczne przekształcanie nagrań rozpraw na tekst czy anonimizacja dokumentów (usuwanie danych osobowych z akt).
- Analiza statystyk i wyszukiwanie podobnych spraw: AI może ułatwiać sądom i prokuratorom odnalezienie wcześniejszych, podobnych rozstrzygnięć, jednak zawsze decyzję co do ich przydatności podejmuje człowiek.
- Pomoc w tłumaczeniach: Sztuczna inteligencja bywa używana do tłumaczenia dokumentów procesowych, zwłaszcza gdy strony nie władają językiem polskim.
🟢 Przykład praktyczny 1: AI w analizie bilingów telefonicznych
W sprawie przeciwko panu Markowi G., prowadzonej przez Sąd Okręgowy w Gorzowie Wielkopolskim, biegły sądowy wykorzystał system AI do automatycznego przetwarzania danych z logowań do stacji BTS (nadajników telefonii komórkowej). Program potrafił w krótkim czasie ustalić trasę przemieszczania się podejrzanego na podstawie dziesiątek tysięcy połączeń telefonicznych. Sąd mógł dzięki temu szybko zweryfikować wersje zdarzeń prezentowane przez strony, choć ostateczna ocena wiarygodności należała do składu sędziowskiego.
🟢 Przykład praktyczny 2: AI jako wsparcie tłumacza sądowego
W jednej z warszawskich spraw gospodarczych, w której oskarżonym był obywatel Chin, AI została użyta do automatycznego tłumaczenia kilkuset stron dokumentacji księgowej. Przyspieszyło to postępowanie, jednak tłumaczenia były weryfikowane przez tłumacza przysięgłego, zanim zostały wprowadzone do akt jako dowód.
Gdzie zaczynają się granice? Kiedy użycie AI jest zabronione?
Najważniejsze ograniczenie: AI nie może zastąpić człowieka w ocenie dowodów, ustalaniu faktów, subsumpcji i wymierzaniu kary.
✖️ AI nie może być „dowodem” na temat wiarygodności oskarżonego lub świadka
Zgodnie z art. 170 § 1 pkt 1 Kodeksu postępowania karnego:
„Sąd oddala wniosek dowodowy, jeżeli przeprowadzenie dowodu jest niedopuszczalne.”
W praktyce oznacza to, że dowody wygenerowane przez AI (np. raport oceniający prawdopodobieństwo winy czy wiarygodność zeznań świadka na podstawie algorytmu) nie mogą być podstawą orzeczenia sądu. Podobnie AI nie może być wykorzystywana przez sędziego do podejmowania decyzji w zakresie ustaleń faktycznych czy prawnych. Sędzia musi samodzielnie ocenić materiał dowodowy, kierując się wiedzą, doświadczeniem oraz przepisami prawa.
Jakie ryzyka wiążą się z wykorzystaniem AI w postępowaniu karnym?
⚠️ Ryzyko błędnych decyzji i automatyzacji bez refleksji
Jednym z największych zagrożeń związanych z użyciem AI w procesie karnym jest ryzyko nadmiernego polegania na wynikach generowanych przez systemy sztucznej inteligencji. Nawet najbardziej zaawansowane programy opierają się na analizie dużych zbiorów danych historycznych i nie są w stanie uwzględnić indywidualnych okoliczności każdej sprawy – takich jak sytuacja osobista oskarżonego, jego stan zdrowia, motywacje czy inne czynniki społeczne.
Przykład z USA (sprawa „State v. Loomis”, Sąd Najwyższy stanu Wisconsin, 2016) pokazuje, że użycie algorytmu COMPAS, mającego przewidywać ryzyko recydywy, wzbudziło ogromne kontrowersje. Oskarżony twierdził, że algorytm opiera się na dyskryminujących kryteriach, takich jak rasa i płeć, a sędzia nie zweryfikował niezależnie tych ocen. Ostatecznie sąd uznał, że takie narzędzie może być pomocnicze, ale decyzja musi należeć do człowieka – nigdy do maszyny.
⚠️ Ryzyko naruszenia prawa do rzetelnego procesu i niezawisłości sądu
Polskie i europejskie regulacje podkreślają, że tylko człowiek – niezależny, bezstronny sędzia – może wydawać wyroki w sprawach karnych. Zgodnie z art. 45 ust. 1 Konstytucji RP:
„Każdy ma prawo do sprawiedliwego i jawnego rozpatrzenia sprawy bez nieuzasadnionej zwłoki przez właściwy, niezależny, bezstronny i niezawisły sąd.”
Automatyzacja rozstrzygnięć, czy to przez narzędzia AI, czy inne programy komputerowe, zawsze niesie ryzyko naruszenia tej gwarancji. AI nie posiada sumienia, nie jest w stanie wykazać się empatią, ani uwzględnić niuansów sprawy. Każda próba „przeniesienia” decyzji procesowych na algorytm prowadziłaby do utraty zaufania społecznego do wymiaru sprawiedliwości.
⚠️ Dyskryminacja i nieprzejrzystość działania algorytmów
Systemy AI „uczą się” na danych historycznych – jeśli więc dane te zawierają elementy uprzedzeń, system powiela te błędy. W procesie karnym istnieje niebezpieczeństwo, że AI będzie oceniać np. prawdopodobieństwo recydywy czy winę na podstawie niejawnych, dyskryminujących wzorców (wiek, płeć, pochodzenie etniczne). Ponadto, bardzo trudno jest zweryfikować, jakie dokładnie czynniki wzięła pod uwagę AI – co utrudnia prawo do obrony.
Stanowisko Unii Europejskiej i polskich przepisów – jasne granice wykorzystania AI
🏢 AI Act – rozporządzenie UE o sztucznej inteligencji
Unia Europejska już wprost zakwalifikowała systemy AI wykorzystywane do wspierania sądów i organów ścigania jako systemy wysokiego ryzyka (art. 6 AI Act). W motywie 61 tego rozporządzenia znajdziemy wyraźne zastrzeżenie:
„Wykorzystanie narzędzi AI może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować; podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka.”
Podobne stanowisko prezentuje polski Kodeks postępowania karnego. Dowód wygenerowany przez AI nie może być samodzielną podstawą rozstrzygnięcia (art. 170 § 1 pkt 1 k.p.k.). Ostateczna ocena każdego dowodu, ustalenie faktów, zastosowanie przepisów prawa i wymierzenie kary musi należeć wyłącznie do człowieka.
Przykłady sytuacji, w których AI może i nie może być wykorzystana – praktyczne casusy
🟢 AI jako narzędzie wsparcia biegłego
Przykład:
W sprawie prowadzonej przez Sąd Rejonowy w Lublinie, biegły z zakresu informatyki wykorzystał AI do analizy kilkuset gigabajtów materiałów elektronicznych (korespondencja e-mail, pliki z serwerów). System automatycznie wyszukiwał powiązane wątki i wykrywał schematy działania sprawców. Efektem było znaczne przyspieszenie opiniowania – biegły mógł skupić się na interpretacji i wyjaśnieniu kluczowych ustaleń, a sąd i strony uzyskały czytelny raport. Ostateczna ocena materiału należała do sądu.
✖️ AI jako narzędzie do oceny wiarygodności zeznań świadka
Przykład:
Obrońca oskarżonego w sprawie o oszustwo próbował wprowadzić do akt raport wygenerowany przez AI, w którym program „analizował” treść zeznań dwóch świadków i wskazywał, który z nich – według algorytmu – jest bardziej wiarygodny. Sąd oddalił taki wniosek na podstawie art. 170 § 1 pkt 1 k.p.k., uznając, że ocena wiarygodności świadków należy wyłącznie do sądu i nie może być „przerzucona” na program komputerowy.
Sytuacja w Polsce i wybrane rozwiązania zagraniczne
W Polsce trwają intensywne prace nad wdrożeniem AI do sądownictwa – m.in. do automatyzacji transkrypcji rozpraw, analizy statystyk czy wspierania pracy biegłych. Żaden z systemów nie jest jednak wykorzystywany do orzekania lub rozstrzygania spraw karnych.
W innych państwach wprowadzane są nawet ustawowe zakazy – np. we Francji nie wolno wykorzystywać danych o sędziach do prognozowania ich orzecznictwa, a naruszenie tego zakazu grozi odpowiedzialnością karną.
Podsumowanie – kluczowe wnioski i praktyczne wskazówki dla czytelnika
- Sztuczna inteligencja w postępowaniu karnym może być wykorzystywana wyłącznie pomocniczo – do automatyzacji czynności technicznych, wspierania pracy biegłych, anonimizacji dokumentów, transkrypcji czy tłumaczeń. Nigdy nie może decydować za człowieka w kwestiach kluczowych dla rozstrzygnięcia sprawy.
- AI nie może być wykorzystywana jako „dowód” na temat winy, wiarygodności oskarżonego czy świadka – wszelkie analizy, przewidywania i rekomendacje generowane przez algorytmy nie zastępują ludzkiej oceny i sąd powinien oddalać takie wnioski dowodowe.
- Ostateczna decyzja w sprawie karnej musi być podjęta przez niezależnego, bezstronnego i niezawisłego sędziego – to wymóg zarówno Konstytucji RP, jak i prawa unijnego.
- Nadmierna automatyzacja i powierzenie kluczowych decyzji AI grozi naruszeniem prawa do rzetelnego procesu, zasad niezawisłości oraz może prowadzić do dyskryminacji i braku zaufania do wymiaru sprawiedliwości.
- Przykłady użycia AI w praktyce: automatyczna analiza danych (np. bilingów), wsparcie biegłych przy przetwarzaniu dużych zbiorów danych, szybkie tłumaczenie dokumentów, transkrypcja nagrań z rozpraw – to obszary, gdzie AI realnie usprawnia proces, ale nie zastępuje roli człowieka.
- Wnioski dowodowe oparte na AI, które dotyczą kluczowych kwestii orzeczniczych, są w polskim procesie karnym niedopuszczalne.
Podstawy prawne
- art. 3 pkt 1 – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1684 z dnia 13 czerwca 2024 r. w sprawie sztucznej inteligencji (AI Act)
- art. 45 ust. 1 – Konstytucja Rzeczypospolitej Polskiej
- art. 170 § 1 pkt 1, art. 7, art. 393 § 3, art. 193 § 1 – Kodeks postępowania karnego
- motyw 61 – AI Act (UE)
- przykłady: orzeczenie State v. Loomis, Sąd Najwyższy Wisconsin (USA), francuska ustawa zakazująca wykorzystania danych o orzecznictwie sędziów
Tematy porad zawartych w poradniku (SEO frazy kluczowe)
- wykorzystanie AI w postępowaniu karnym 2025
- sztuczna inteligencja a dowody sądowe
- ograniczenia AI w sądownictwie
- AI w pracy biegłego sądowego
- automatyzacja dokumentów w sądach
Adresy urzędowe – więcej informacji
- https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:32024R1684 – pełny tekst AI Act
- https://isap.sejm.gov.pl/isap.nsf/download.xsp/WDU19970780483/U/D19970483Lj.pdf – Kodeks postępowania karnego
- https://www.prezydent.pl/prawo/konstytucja-rp – Konstytucja RP
- https://www.gov.pl/web/cyfryzacja/raport-sztuczna-inteligencja-w-sadownictwie – Raport GRAI o AI w sądownictwie
- https://www.coe.int/pl/web/artificial-intelligence – Rada Europy: AI i prawa człowieka