1. Strona główna
  2. AI, RODO, EU Data Act, Cyberbezpieczeństwo, Kryptowaluty, E-handel
  3. Sztuczna Inteligencja (AI)
  4. Wyroby medyczne jako systemy AI wysokiego ryzyka – nowe obowiązki producentów i użytkowników

Wyroby medyczne jako systemy AI wysokiego ryzyka – nowe obowiązki producentów i użytkowników

W ostatnich latach medycyna coraz szerzej korzysta z narzędzi wykorzystujących sztuczną inteligencję – zwłaszcza w diagnostyce, analizie obrazów, monitoringu stanu pacjenta czy wspomaganiu decyzji terapeutycznych. Wraz z rosnącą rolą AI w ochronie zdrowia, Unia Europejska wprowadziła nowe regulacje, które diametralnie zmieniają wymagania wobec producentów, dostawców i użytkowników takich rozwiązań. Najnowsze akty prawne – rozporządzenie UE w sprawie sztucznej inteligencji (tzw. AI Act) oraz już obowiązujące MDR i IVDR – tworzą nowy, bardzo szczegółowy reżim prawny dla wyrobów medycznych będących systemami AI wysokiego ryzyka. Ten poradnik wyjaśni, jakie są nowe obowiązki, jak praktycznie rozpoznać, czy Twoje rozwiązanie podlega przepisom, oraz co zrobić, by bezpiecznie i legalnie wdrożyć AI w ochronie zdrowia.


Podstawy prawne: AI Act, MDR, IVDR

W czerwcu 2024 r. uchwalono unijne rozporządzenie w sprawie sztucznej inteligencji (AI Act), które jako jedno z pierwszych na świecie kompleksowo reguluje zasady wdrażania i wykorzystywania AI. Jest to akt prawny stosowany bezpośrednio w państwach członkowskich, a jego wejście w życie oznacza, że każdy podmiot działający na rynku unijnym musi spełnić określone w nim wymogi.

Równolegle, funkcjonują już od kilku lat rozporządzenie (UE) 2017/745 w sprawie wyrobów medycznych (MDR) oraz rozporządzenie (UE) 2017/746 dotyczące wyrobów medycznych do diagnostyki in vitro (IVDR). Oba te akty precyzują, co można uznać za wyrób medyczny oraz jakie warunki musi spełnić oprogramowanie wykorzystywane w medycynie. Warto podkreślić, że MDR i IVDR również są bezpośrednio obowiązującymi aktami prawnymi – nie wymagają implementacji do prawa krajowego.

Co to oznacza w praktyce?

Jeżeli wprowadzasz na rynek, produkujesz, importujesz, dystrybuujesz lub stosujesz oprogramowanie wykorzystujące AI w ochronie zdrowia, podlegasz zarówno pod MDR/IVDR, jak i pod AI Act.


Oprogramowanie jako wyrób medyczny – gdzie przebiega granica?

Kiedy oprogramowanie to wyrób medyczny?

Oprogramowanie może zostać zakwalifikowane jako wyrób medyczny, jeśli jest przeznaczone przez producenta do:

  • diagnozowania, zapobiegania, monitorowania, leczenia lub łagodzenia choroby,
  • diagnozowania, monitorowania, leczenia, łagodzenia lub kompensowania urazu lub niepełnosprawności,
  • badania, zamiany lub modyfikowania budowy anatomicznej lub procesu fizjologicznego,
  • kontrolowania poczęcia.

Podstawa prawna: art. 2 pkt 1 MDR

Również oprogramowanie służące do diagnostyki in vitro, np. analizujące próbki krwi, śliny, tkanek, będzie wyrobem medycznym w rozumieniu IVDR, jeśli jego celem jest dostarczanie informacji na temat procesów fizjologicznych, chorób, predyspozycji czy obecności markerów genetycznych.

Co nie jest wyrobem medycznym?

Jeżeli oprogramowanie służy wyłącznie do operacji technicznych, takich jak:

  • przechowywanie danych,
  • przesyłanie danych,
  • kompresja,
  • proste wyszukiwanie informacji,

to nie podlega reżimowi wyrobów medycznych – nawet jeśli przetwarza dane medyczne.

Przykład 1 (zmodyfikowany):

Spółka MedSoft24 tworzy aplikację do przechowywania i szybkiego przesyłania wyników badań obrazowych pomiędzy szpitalami. Aplikacja nie analizuje obrazów, nie sugeruje rozpoznań – jej zadaniem jest tylko bezpieczny transfer danych. Takie rozwiązanie nie jest wyrobem medycznym w rozumieniu MDR.

Przykład 2:

Firma Diagnolab wdraża system AI analizujący obrazy z rezonansu magnetycznego i automatycznie sugerujący potencjalne zmiany nowotworowe wraz z opisem ryzyka. System wspiera lekarzy w podejmowaniu decyzji. W tym przypadku oprogramowanie jest wyrobem medycznym klasyfikowanym zgodnie z MDR, a dodatkowo, z uwagi na zastosowanie AI, może podlegać pod przepisy AI Act.


Klasyfikacja wyrobów medycznych AI według poziomu ryzyka

Wyroby medyczne (w tym oprogramowanie AI) dzielą się na cztery klasy ryzyka: I, IIa, IIb, III – zgodnie z art. 51 MDR i załącznikiem VIII.

  • Klasa I – najniższe ryzyko (np. proste narzędzia, software do administracji danymi)
  • Klasa IIa – średnie ryzyko (np. oprogramowanie wspomagające decyzje medyczne)
  • Klasa IIb – podwyższone ryzyko (np. oprogramowanie monitorujące istotne parametry życiowe)
  • Klasa III – najwyższe ryzyko (np. software, którego błąd może prowadzić do zgonu lub nieodwracalnych szkód)

Kluczowa zasada:
Większość oprogramowania AI służącego do diagnostyki, monitorowania czy wspierania terapii będzie kwalifikowana do klasy IIa, IIb lub III. Wyjątki (klasa I) zdarzają się rzadko.


Systemy AI wysokiego ryzyka – nowe kategorie w prawie UE

Nowy AI Act wprowadza szczególną kategorię – „systemy AI wysokiego ryzyka” („high-risk AI systems”).
W praktyce, system AI będzie uznany za „wysokiego ryzyka”, jeśli:

  • jest wyrobem medycznym klasy IIa, IIb lub III, dla którego wymagana jest ocena zgodności z udziałem jednostki notyfikowanej (czyli niezależnej, zatwierdzonej przez UE instytucji),
  • lub jest komponentem bezpieczeństwa większego produktu, podlegającym takiej samej ocenie.

Art. 6 AI Act:
Wszystkie wyroby medyczne AI, które przechodzą ocenę zgodności z udziałem jednostki notyfikowanej, są uznawane za systemy wysokiego ryzyka.

Ważne!
W praktyce, niemal wszystkie istotne medyczne systemy AI (np. do diagnozy, predykcji ryzyka, wspierania terapii) będą traktowane jako systemy AI wysokiego ryzyka.

Konsekwencje uznania wyrobu medycznego za system AI wysokiego ryzyka

Uznanie oprogramowania medycznego opartego na sztucznej inteligencji za system AI wysokiego ryzyka wywołuje istotne konsekwencje prawne i organizacyjne dla producentów, importerów, dystrybutorów, a także użytkowników (czyli podmiotów leczniczych, szpitali, klinik, lekarzy). Od 2024 r. nie wystarczy już wyłącznie spełnienie wymogów znanych z MDR czy IVDR – konieczne staje się również wdrożenie szczegółowych wymogów nowego rozporządzenia o sztucznej inteligencji.

Obowiązki producentów i dostawców systemów AI wysokiego ryzyka

Dostawcy systemów AI wysokiego ryzyka muszą:

  • zapewnić zgodność systemu z wymogami określonymi w sekcji 2 AI Act (m.in. zarządzanie ryzykiem, bezpieczeństwo, nadzór człowieka, przejrzystość działania AI, solidność algorytmów);
  • wdrożyć system zarządzania jakością obejmujący cały cykl życia produktu;
  • prowadzić szczegółową dokumentację techniczną systemu (zgodną z AI Act i MDR/IVDR);
  • zapewnić automatyczne rejestrowanie zdarzeń przez system AI (tzw. event logs);
  • zapewnić system nadzoru po wprowadzeniu systemu do obrotu (monitorowanie, reagowanie na incydenty);
  • poddać system procedurze oceny zgodności z udziałem jednostki notyfikowanej.

Przykład praktyczny:
Firma DigitalCare z Poznania wdraża system AI klasy IIb wspierający lekarzy w interpretacji wyników EKG. Zanim wprowadzi produkt na rynek UE, musi przygotować kompletną dokumentację, wykazać zgodność z MDR i AI Act oraz przejść ocenę zgodności w obecności notyfikowanej jednostki certyfikującej.

Obowiązki importerów i dystrybutorów

Podmioty sprowadzające lub rozprowadzające wyroby medyczne będące systemami AI wysokiego ryzyka mają obowiązek m.in.:

  • zweryfikować, czy produkt przeszedł wymaganą ocenę zgodności;
  • sprawdzić, czy dołączona jest kompletna dokumentacja i oznakowanie CE;
  • zapewnić, że system nie został przez nich zmodyfikowany w sposób wpływający na zgodność z przepisami.

Obowiązki użytkowników systemów AI wysokiego ryzyka (tzw. deployers)

Nowością w AI Act jest wprowadzenie obowiązków dla podmiotów stosujących systemy AI wysokiego ryzyka, czyli szpitali, przychodni, laboratoriów, a nawet samych lekarzy, jeśli samodzielnie wdrażają i obsługują taki system. Do kluczowych obowiązków należą:

  • stosowanie systemu AI zgodnie z instrukcją użytkowania;
  • zapewnienie nadzoru człowieka nad systemem (osoby przeszkolone, kompetentne);
  • monitorowanie działania AI oraz dokumentowanie incydentów i nieprawidłowości;
  • przechowywanie rejestrów zdarzeń generowanych przez system AI przez co najmniej 6 miesięcy od ich powstania;
  • wdrażanie środków technicznych i organizacyjnych gwarantujących bezpieczne i odpowiedzialne użycie systemu AI.

Przykład praktyczny:
Centrum Medyczne CardioNova w Warszawie wdraża system AI klasy IIa do wspomagania diagnozowania arytmii serca. Musi zapewnić, że system jest używany wyłącznie przez przeszkolonych kardiologów, a wszystkie logi systemu są archiwizowane przez minimum pół roku. W razie wykrycia błędów lub incydentów – personel musi zgłosić to zarówno producentowi, jak i odpowiednim organom nadzoru.


Ocena zgodności wyrobów medycznych AI wysokiego ryzyka

Proces oceny zgodności jest kluczowym elementem zarówno MDR, jak i AI Act. Dla systemów AI wysokiego ryzyka (poza klasą I) zawsze wymagana jest obecność jednostki notyfikowanej.
W praktyce oznacza to:

  • przygotowanie dokumentacji zgodnej z wymaganiami obu aktów (MDR + AI Act);
  • przeprowadzenie jednej, zintegrowanej oceny przez jednostkę notyfikowaną – nie trzeba powtarzać procesu oddzielnie dla każdego rozporządzenia;
  • uzyskanie oznakowania CE oraz potwierdzenia spełnienia wymogów AI Act.

Uwaga:
Systemy AI klasy I, które nie wymagają udziału jednostki notyfikowanej, są rzadkością w medycynie – niemal zawsze wyroby AI służą do działań o wyższym poziomie ryzyka.


Jak w praktyce wdrożyć zgodność z MDR, IVDR i AI Act?

Najważniejsze praktyczne kroki:

  1. Określ przeznaczenie produktu i poziom ryzyka – Czy Twój system AI spełnia definicję wyrobu medycznego lub diagnostyki in vitro?
  2. Przyporządkuj klasę wyrobu – Zastosuj reguły klasyfikacji z MDR, załącznik VIII.
  3. Oceń, czy produkt jest systemem AI wysokiego ryzyka – Czy wymaga oceny z udziałem jednostki notyfikowanej?
  4. Zbuduj system zarządzania jakością i ryzykiem – Uwzględnij zarówno MDR, jak i AI Act.
  5. Przygotuj pełną dokumentację techniczną – Włącz elementy wymagane przez oba akty.
  6. Przeprowadź ocenę zgodności – Zgłoś produkt do notyfikowanej jednostki.
  7. Zadbaj o przeszkolenie użytkowników – Systemy AI mogą być stosowane wyłącznie przez osoby przeszkolone i kompetentne.
  8. Wdrażaj procedury monitoringu, archiwizacji i raportowania incydentów – Zapewnij zgodność zarówno na etapie wdrożenia, jak i eksploatacji.

Przykłady praktyczne – jak to działa w realnych firmach?

Przykład 1:

NeuroAI Solutions z Gdańska opracowuje system AI do wspomagania diagnozy udarów mózgu na podstawie tomografii komputerowej. System sugeruje lekarzowi prawdopodobieństwo wystąpienia udaru oraz zaleca dalsze działania diagnostyczne. Produkt zakwalifikowany został jako wyrób medyczny klasy III (najwyższe ryzyko), a więc musi przejść ocenę zgodności z udziałem jednostki notyfikowanej, być objęty pełnym systemem zarządzania jakością i mieć dokumentację techniczną zgodną z MDR i AI Act.

Przykład 2:

LabXpert S.A. wprowadza na rynek aplikację analizującą wyniki laboratoryjne (np. poziom glukozy i elektrolitów) i automatycznie alarmującą lekarza o możliwych stanach zagrożenia życia. Aplikacja klasyfikowana jest jako wyrób medyczny klasy IIb, a więc również podlega wszystkim wymogom stawianym systemom AI wysokiego ryzyka: dokumentacja techniczna, ocena przez jednostkę notyfikowaną, system zarządzania jakością i monitoring działania.


Podsumowanie – kluczowe wnioski i rekomendacje

  • Wyroby medyczne oparte na AI niemal zawsze będą systemami wysokiego ryzyka.
  • Producenci, importerzy i dystrybutorzy muszą wypełniać nowe obowiązki dokumentacyjne i organizacyjne – nie tylko wobec MDR/IVDR, ale też AI Act.
  • Użytkownicy systemów AI wysokiego ryzyka (szpitale, lekarze, laboratoria) muszą wdrożyć nadzór, archiwizację logów oraz zapewnić przeszkolenie personelu.
  • Procedura oceny zgodności jest kluczowa – bez jej przejścia nie można legalnie wprowadzić wyrobu AI na rynek.
  • Warto już teraz analizować i dokumentować wszystkie procesy zgodnie z wymaganiami AI Act, bo kary za naruszenia są wysokie, a nadzór nad rynkiem będzie rosnąć.

Podstawa prawna

  • art. 2 pkt 1, art. 51, załącznik VIII – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych (MDR)
  • art. 2, art. 5, art. 6, załącznik I – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1684 w sprawie sztucznej inteligencji (AI Act)
  • art. 2, art. 5, załącznik VIII – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746 w sprawie wyrobów medycznych do diagnostyki in vitro (IVDR)

Tematy porad zawartych w poradniku

  • wyroby medyczne AI wysokiego ryzyka
  • obowiązki producenta AI w medycynie
  • dokumentacja techniczna MDR AI
  • zgodność systemów AI z AI Act
  • ocena zgodności wyrobów medycznych AI

Przydatne adresy urzędowe

Ostatnia aktualizacja: 26.06.2025
Czy ta porada była dla Ciebie pomocna?

Zobacz również: