AI Act w ochronie zdrowia – od sierpnia 2026 r. nowe obowiązki dla szpitali i producentów

od 2 sierpnia 2026 r. zaczną obowiązywać zasadnicze wymogi dla systemów wysokiego ryzyka używanych w ochronie zdrowia, a dla wyrobów medycznych z AI (MDR/IVDR) część regulacji rozciąga się do 2 sierpnia 2027 r.. Nowości to nie tylko etykiety i zgłoszenia. W praktyce szpitale i dostawcy mają wdrożyć stały nadzór po wdrożeniu (post-market monitoring), „proweniencję źródeł” danych oraz wyjaśnialność rekomendacji, także w rozwiązaniach GenAI/RAG. Ustawa nie zastępuje MDR/IVDR – działa równolegle – a producenci i użytkownicy muszą prowadzić cykliczne audyty skuteczności, rejestrować zdarzenia i śledzić „ślad decyzyjny” algorytmów. Komisja potwierdza harmonogram: GPAI już od sierpnia 2025 r., systemy wysokiego ryzyka – rok później; Bruksela nie przewiduje „pauzy” we wdrażaniu.

Co się realnie zmienia dla medycyny?

Dla wdrożeń klinicznych GenAI ustawodawca wymaga przejrzystości danych szkoleniowych i testowych, monitoringu działania modelu oraz odtwarzalnego „śladu” powstawania odpowiedzi – także wtedy, gdy narzędzie korzysta z RAG (Retrieval-Augmented Generation). Nowe zasady zakładają też „wyjaśnialność agentów” (sekwencje działań i logika rekomendacji) oraz audytowalną pamięć systemu, aby lekarz mógł sprawdzić, na jakich źródłach i kiedy oparto decyzję. Wprost wymagany jest post-market monitoring: raportowanie błędnych rekomendacji, automatyczna walidacja nowych danych wejściowych i regularne audyty jakości predykcji. W sektorze zdrowia oznacza to de facto zarządzanie pełnym cyklem życia AI – od kontraktu z dostawcą po nadzór kliniczny i korekty modeli.

MDR/IVDR + AI Act – podwójna regulacja, jedno wdrożenie

AI użyta jako składnik wyrobu medycznego nie „ucieka” od MDR/IVDR – przeciwnie, klasyfikacja wyrobu przesądza, czy dana AI staje się systemem wysokiego ryzyka w rozumieniu AI Act (art. 6 ust. 1). Komisja i grupa MDCG 2025-6 podkreślają, że to właśnie klasyfikacja w MDR/IVDR determinuje obowiązki AIA i poziom nadzoru, a więc producenci muszą zaplanować zintegrowaną ocenę zgodności (harmonizowane normy, dokumentacja techniczna, rejestracja w unijnej bazie). Branża medtech alarmuje, że dwa złożone reżimy równolegle bez dobrego „zestrojenia” mogą spowolnić dostęp pacjentów do innowacji – stąd apel o spójne wdrożenie i jasne standardy. Dla placówek to praktycznie konieczność: jeden proces zakupowy, ale dwie listy kontrolne zgodności.

Oś czasu i sankcje – kiedy i co zaczyna obowiązywać?

AI Act wszedł w życie 1 sierpnia 2024 r.; 2 lutego 2025 r. ruszyły m.in. zakazy praktyk niedozwolonych i obowiązki „AI literacy”. 2 sierpnia 2025 r. zaczęły obowiązywać wymogi wobec GPAI (modele ogólnego przeznaczenia) – modele obecne na rynku wcześniej mają czas na dostosowanie do 2 sierpnia 2027 r.. 2 sierpnia 2026 r. wchodzą „trzonowe” wymogi dla wielu systemów wysokiego ryzyka; 2 sierpnia 2027 r. – dla wysokiego ryzyka związanego z wyrobami z harmonizowanych regulacji (jak MDR/IVDR). Za naruszenia przewidziano dotkliwe kary – do 7% globalnego obrotu lub 35 mln euro (w zależności od naruszenia), a dla GPAI odrębne progi – oraz nadzór AI Office i krajowych organów.

Co powinny zrobić szpitale i dostawcy?

Po pierwsze, zrewidować umowy z dostawcami AI (prawa do logów, metadanych i modeli, SLA na poprawki, procedury wycofania wersji). Po drugie, uruchomić AI governance: rejestr systemów, właściciele biznesowi, polityka danych (proweniencja, retencja, dostęp), human-in-the-loop i rejestry interwencji człowieka. Po trzecie, przygotować monitoring po wdrożeniu: wskaźniki skuteczności i „dryfu”, ścieżki zgłaszania błędnych rekomendacji, okresowe walidacje kliniczne. Po czwarte, przeglądnąć integrację z EHDS i politykę cyber (NIS2/CRA), bo AI Act wymusza spójny kręgosłup bezpieczeństwa tam, gdzie narzędzia dotykają dokumentacji medycznej i danych pacjentów. To wszystko da się ułożyć w jednym programie „compliance-by-design” – tak, by prawo nie gasiło innowacji, tylko porządkowało ryzyka.

Źródło:

  • https://www.mzdrowie.pl/prawo/europejski-ai-act-nowe-obowiazki-bezpieczenstwa-w-sektorze-zdrowia/
  • https://health.ec.europa.eu/document/download/b78a17d7-e3cd-4943-851d-e02a2f22bbb4_en?filename=mdcg_2025-6_en.pdf&utm_source=chatgpt.com
  • https://www.medtecheurope.org/news-and-events/press-releases/one-year-of-ai-act-medtech-europe-calls-for-coherent-implementation-to-unlock-the-full-potential-of-ai-in-healthcare/
  • https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
  • https://digital-strategy.ec.europa.eu/en/news/eu-rules-general-purpose-ai-models-start-apply-bringing-more-transparency-safety-and-accountability
  • https://pmc.ncbi.nlm.nih.gov/articles/PMC11379845/
  • https://www.reuters.com/world/europe/artificial-intelligence-rules-go-ahead-no-pause-eu-commission-says-2025-07-04/