Akt w sprawie sztucznej inteligencji to przełomowe rozporządzenie unijne, które wprowadza pierwsze na świecie całościowe ramy prawne dotyczące projektowania, wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji (AI). Przedsiębiorcy, instytucje oraz osoby fizyczne, które w jakikolwiek sposób korzystają z technologii AI, muszą zapoznać się z jego treścią, ponieważ przepisy będą miały wpływ na ich codzienne działania już od 2025 roku.
To nie tylko dokument o charakterze technicznym – to manifest wartości, który stawia człowieka w centrum rozwoju sztucznej inteligencji. Unia Europejska jednoznacznie postawiła na antropocentryczne podejście, kontrastując z modelem amerykańskim (bardziej wolnorynkowym) czy chińskim (zorientowanym na cele polityczne).
Na czym polega Akt o AI i jakie są jego cele?
Rozporządzenie 2024/1689 – tzw. Akt w sprawie sztucznej inteligencji – to dokument, który ma zapewnić:
- ochronę praw podstawowych (w tym prywatności, wolności, równości),
- bezpieczeństwo ludzi w kontaktach z systemami AI,
- transparentność działania sztucznej inteligencji,
- a jednocześnie zachęcać do innowacji technologicznych w Europie.
W praktyce oznacza to, że Unia Europejska nie zamierza zakazać rozwoju AI, ale chce wprowadzić jasne reguły, które uchronią społeczeństwo przed najbardziej niebezpiecznymi zastosowaniami technologii.
Kogo dotyczy rozporządzenie AI?
Zakres podmiotowy Aktu jest bardzo szeroki. Obowiązki wynikające z regulacji dotyczą:
🧑💻 Dostawców (producenci systemów AI) – niezależnie od tego, gdzie mają siedzibę, jeśli ich produkty są używane na terenie Unii Europejskiej.
🏢 Użytkowników (podmioty stosujące AI w działalności) – w tym firmy, instytucje publiczne, uczelnie czy szpitale.
📦 Importera i dystrybutora systemów AI – odpowiedzialnych za wprowadzenie ich na rynek UE.
📍 Ważne: Nawet firmy spoza UE będą objęte przepisami, jeśli ich rozwiązania AI działają na terenie Unii (np. są używane przez klientów w Polsce czy Niemczech).
Kiedy Akt nie ma zastosowania?
Rozporządzenie nie ma zastosowania w kilku przypadkach, co warto wyraźnie podkreślić:
🚫 Bezpieczeństwo narodowe – AI wykorzystywana w systemach obrony i wojsku nie podlega regulacjom Aktu.
🧪 Badania naukowe i działalność rozwojowa – jeśli nie prowadzą do wprowadzenia systemu AI na rynek lub jego stosowania na dużą skalę.
🏡 Użytek osobisty – osoby fizyczne korzystające z AI wyłącznie w celach prywatnych, poza działalnością zawodową, nie podlegają przepisom Aktu.
📡 Dostawcy usług cyfrowych pośrednich – ich odpowiedzialność regulowana jest oddzielnie, w ramach Digital Services Act (DSA).
🔐 Ochrona danych osobowych i prywatność – pozostają nadal pod jurysdykcją RODO i dyrektyw ePrivacy.
Czym dokładnie jest „system AI” w rozumieniu Aktu?
To kluczowe pytanie, bo tylko systemy AI podlegają regulacji. Definicja zawarta w art. 3 pkt 1 Aktu brzmi:
„System AI” oznacza system maszynowy zaprojektowany do działania z różnym poziomem autonomii, który może wykazywać zdolność adaptacji i który wnioskuje, jak generować na podstawie danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.
Innymi słowy: jeśli twój program potrafi analizować dane i na tej podstawie podejmować działania (np. rekomendować produkty, diagnozować choroby, zarządzać ruchem pojazdów) – może być systemem AI w rozumieniu Aktu.
Nie będą nim natomiast zwykłe oprogramowania wykonujące określone operacje bez zdolności do uczenia się lub adaptacji – np. arkusze kalkulacyjne, szablony raportów czy proste makra.
Jakie systemy AI obejmuje Akt? Klasyfikacja według poziomu ryzyka
Jedną z najbardziej innowacyjnych cech Aktu AI jest klasyfikacja systemów sztucznej inteligencji według poziomu ryzyka, jaki mogą generować dla zdrowia, bezpieczeństwa, praw człowieka i innych kluczowych wartości.
🔴 1. Systemy zakazane – nieakceptowalne ryzyko
Niektóre zastosowania AI zostały całkowicie zakazane. Przykłady:
- systemy wykorzystujące techniki podprogowe lub manipulacyjne do wpływania na zachowanie ludzi,
- systemy scoringowe (np. ocena „jakości obywatela”) prowadzące do nierównego traktowania,
- automatyczne przewidywanie przestępstw tylko na podstawie cech osobistych,
- budowa baz danych z wizerunkami ludzi pozyskanymi przez masowe przeszukiwanie internetu (tzw. web scraping),
- analiza emocji pracowników lub uczniów przez AI,
- zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej (np. rozpoznawanie twarzy na ulicy).
Wykorzystanie takich systemów, nawet w dobrej wierze, może skutkować dotkliwymi karami (do 35 mln euro lub 7% globalnych obrotów rocznych firmy).
🟠 2. Systemy wysokiego ryzyka – dozwolone, ale pod ścisłymi warunkami
Systemy AI zaliczane do wysokiego ryzyka mogą być stosowane, jeśli spełnią szereg rygorystycznych wymogów dotyczących np. przejrzystości, dokumentacji technicznej, nadzoru czy bezpieczeństwa.
📌 Przykłady:
- AI oceniająca kandydatów do pracy lub decydująca o awansie,
- AI decydująca o przyjęciu do szkoły lub uczelni,
- systemy decydujące o przyznaniu świadczeń społecznych lub wysokości składki ubezpieczeniowej,
- AI wykorzystywane w sądach (np. do analizy dowodów) lub systemy wpływające na proces wyborczy.
Firmy i instytucje korzystające z takich systemów będą musiały je zgłosić do unijnej bazy danych oraz przestrzegać ścisłych reguł użytkowania.
🟡 3. Systemy ograniczonego ryzyka – z obowiązkiem informacyjnym
Tutaj wchodzą np. chatboty, które rozmawiają z użytkownikiem. Kluczowy obowiązek: jasne poinformowanie, że rozmowa nie toczy się z człowiekiem, ale z AI. Jeśli treści są syntetyczne (np. teksty, zdjęcia, wideo), muszą być oznaczone jako wygenerowane przez maszynę (np. „treść wygenerowana przez AI”).
🟢 4. Systemy minimalnego ryzyka – brak obowiązków
Zdecydowana większość systemów AI (np. systemy rekomendujące filmy, sortujące dokumenty, analizujące dane sprzedażowe) zalicza się do tej grupy. Nie podlegają one żadnym dodatkowym obowiązkom, o ile nie są wykorzystywane w sposób niezgodny z prawem lub nie stwarzają ukrytego ryzyka.
Co to oznacza dla firm i instytucji?
Jeśli prowadzisz działalność, która choćby częściowo korzysta z rozwiązań AI (własnych lub zewnętrznych), musisz podjąć konkretne kroki:
✅ 1. Inwentaryzacja AI
Sprawdź, czy i jakie systemy AI działają w Twojej organizacji. Czy to chatbot? System oceny CV? Algorytm do przetwarzania wniosków?
✅ 2. Klasyfikacja ryzyka
Oceń, do której grupy ryzyka należą wykorzystywane systemy. W razie wątpliwości warto zasięgnąć porady specjalisty od prawa technologicznego.
✅ 3. Dostosowanie do wymogów
Jeśli posiadasz systemy wysokiego ryzyka – dokumentacja, przejrzystość, audyty, nadzór. Jeśli chatbot – obowiązek informowania.
Podsumowanie
Akt o sztucznej inteligencji to prawo, które zmieni sposób, w jaki firmy i instytucje korzystają z AI w Unii Europejskiej. Jego siła tkwi w tym, że nie tylko zakazuje niebezpiecznych praktyk, ale też daje jasne ramy działania dla legalnych zastosowań.
🔍 Kluczem do zgodności z nowym prawem jest:
- wiedza o tym, co to jest system AI,
- umiejętność oceny ryzyka,
- wdrożenie obowiązków proporcjonalnych do tego ryzyka.
Podstawa prawna
- art. 2 lit. c, art. 3 pkt 1, art. 5, art. 70 ust. 1 – Rozporządzenie 2024/1689 w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń i dyrektyw UE
Tematy porad zawartych w poradniku
- rozporządzenie AI 2024
- regulacje AI w Unii Europejskiej
- klasyfikacja ryzyka AI
- obowiązki dla firm AI
- zakazane praktyki sztucznej inteligencji