Szybkie przyjęcie sztucznej inteligencji (AI) w wielu branżach doprowadziło do wprowadzenia ustawy o sztucznej inteligencji (UE 2024/1689), kompleksowych ram regulacyjnych mających na celu przeciwdziałanie zagrożeniom związanym z technologiami AI. W przeciwieństwie do przepisów branżowych, ustawa o sztucznej inteligencji ma szerokie zastosowanie, obejmując różne sektory, w tym opiekę zdrowotną i sztuczną inteligencję w urządzeniach medycznych.

W przypadku producentów wyrobów medycznych zgodność wykracza obecnie poza rozporządzenie w sprawie wyrobów medycznych (MDR) (UE 2017/745) i obejmuje ustawę o sztucznej inteligencji. Tam, gdzie istnieje wiele przepisów, istnieje potencjalne nakładanie się regulacji. Rozporządzenie MDR kładzie nacisk na bezpieczeństwo pacjentów, skuteczność kliniczną i zarządzanie ryzykiem - zasady, które są zgodne z opartym na ryzyku podejściem do zarządzania sztuczną inteligencją w ustawie o sztucznej inteligencji. Biorąc pod uwagę te wspólne cele, integracja wymogów związanych ze sztuczną inteligencją z istniejącym systemem zarządzania jakością (QMS) jest zarówno praktyczna, jak i korzystna.

Uznając tę potrzebę, art. 17 ustawy o sztucznej inteligencji wyraźnie zezwala na integrację wymogów SZJ specyficznych dla sztucznej inteligencji z istniejącymi ramami sektorowymi, stwierdzając:

"Dostawcy systemów AI wysokiego ryzyka, którzy podlegają obowiązkom dotyczącym systemów zarządzania jakością lub równoważnej funkcji na mocy odpowiedniego sektorowego prawa Unii, mogą uwzględnić aspekty wymienione w ust. 1 jako część systemów zarządzania jakością zgodnie z tym prawem".

Niniejszy dokument analizuje kluczowe podobieństwa i różnice między MDR a ustawą o sztucznej inteligencji, koncentrując się na obszarach takich jak zarządzanie danymi, procesy cyklu życia, obserwacja kliniczna po wprowadzeniu do obrotu (PMCF) i zgodność z przepisami. Dzięki takiemu podejściu producenci urządzeń medycznych mogą skutecznie włączyć zgodność z AI do swoich systemów zarządzania jakością, zapewniając zarówno zgodność z przepisami, jak i bezpieczeństwo pacjentów.

Dane jako "surowiec" w urządzeniach medycznych opartych na sztucznej inteligencji: Perspektywa regulacyjna


W urządzeniach medycznych opartych na sztucznej inteligencji dane stanowią podstawowy wkład, porównywalny z surowcami w tradycyjnej produkcji urządzeń. Podobnie jak MDR wymaga pełnej identyfikowalności materiałów w celu zapewnienia biokompatybilności, integralności strukturalnej i ogólnego bezpieczeństwa, modele AI muszą być opracowywane na podstawie dobrze scharakteryzowanych, zweryfikowanych i identyfikowalnych zbiorów danych.

Zgodnie z MDR, identyfikowalność materiałów zapewnia wydajność urządzenia i bezpieczeństwo pacjentów. W kontekście sztucznej inteligencji identyfikowalność zbiorów danych jest równie krytyczna - wpływa na wydajność modelu, ważność kliniczną i akceptowalność regulacyjną.

Ta analogia służy podkreśleniu potrzeby ustrukturyzowanych ram zarządzania danymi w rozwoju systemu AI. Poniższa tabela przedstawia podobieństwa między zasadami identyfikowalności materiałów MDR a wymaganiami dotyczącymi zarządzania danymi AI.

Należy jednak pamiętać, że zbiory danych AI podlegają również wyjątkowym wymaganiom - takim jak uczciwość i niedyskryminacja, które wykraczają poza tradycyjne względy MDR.

Aspekt Wymóg MDR Wymaganie AI
Identyfikacja źródła Każdy materiał użyty w urządzeniu musi być w pełni identyfikowalny z udokumentowanym pochodzeniem. Każde dane szkoleniowe AI muszą być w pełni identyfikowalne z udokumentowanym pochodzeniem (np. szpitalne bazy danych, badania kliniczne i publicznie dostępne zbiory danych).
Certyfikacja Surowce muszą spełniać standardy bezpieczeństwa i wydajności. Dane muszą zostać zweryfikowane pod kątem dokładności, kompletności i przydatności (np. zapewnienie, że sztuczna inteligencja jest szkolona, walidowana i testowana na danych istotnych klinicznie).
Dokumentacja właściwości Właściwości chemiczne, mechaniczne i biokompatybilność muszą być rejestrowane dla każdego materiału. Zbiory danych AI muszą dokumentować różnorodność danych, reprezentację demograficzną i odchylenia statystyczne, aby zapewnić uczciwość.
Zarządzanie zmianami Wszelkie modyfikacje materiałów muszą zostać przetestowane i udokumentowane. Wszelkie zmiany w zestawach danych szkoleniowych (np. dodawanie nowych populacji pacjentów) muszą być oceniane pod kątem wpływu na wydajność modelu AI.
Testy bezpieczeństwa, stronniczość i ocena ryzyka Materiały muszą zostać przetestowane w celu zapewnienia braku niekorzystnych skutków biologicznych. Zbiory danych AI muszą być oceniane pod kątem uprzedzeń, braków danych i błędów, aby zapobiec niewiarygodnym lub dyskryminującym wynikom.

Zarządzanie cyklem życia oprogramowania opartego na sztucznej inteligencji a tradycyjne urządzenia medyczne

Cykl życia oprogramowania jest krytycznym aspektem regulacyjnym zarówno dla tradycyjnych wyrobów medycznych opartych na oprogramowaniu (SW-MD), jak i wyrobów medycznych opartych na sztucznej inteligencji (AI-MD). Podczas gdy oba wymagają ustrukturyzowanego rozwoju, przejrzystości i identyfikowalności, sztuczna inteligencja w urządzeniach medycznych wprowadza unikalne wyzwania ze względu na charakter modeli AI.

Aspekt Tradycyjne urządzenia medyczne oparte na oprogramowaniu (SW-MD) Wyroby medyczne oparte na sztucznej inteligencji (AI-MD)
Identyfikowalność Kod oprogramowania i wymagania muszą być w pełni udokumentowane i kontrolowane pod względem wersji. Architektura modelu AI, etapy szkolenia, zestawy danych i wszystkie etapy przetwarzania muszą być udokumentowane i kontrolowane pod kątem wersji.
Odtwarzalność Deterministyczna: Biorąc pod uwagę te same dane wejściowe, oprogramowanie zawsze generuje te same dane wyjściowe. Probabilistyczna: Modele AI generują dane wyjściowe w oparciu o wyuczone wzorce, co prowadzi do niewielkich różnic w wynikach.
Stabilność działania Pozostaje stabilny, chyba że zostanie wyraźnie zaktualizowany. Z czasem może ulec pogorszeniu z powodu dryfu danych, co wymaga ciągłego monitorowania.
Zarządzanie zmianami Śledzi ustrukturyzowaną kontrolę wersji i testy regresji przed wdrożeniem. Modele AI wymagają ciągłego przekwalifikowania i ponownej walidacji w celu utrzymania dokładności.
Weryfikacja i walidacja (V&V) Zapewnia, że oprogramowanie działa poprawnie i spełnia wymagania. Weryfikacja i weryfikacja AI obejmuje walidację zbioru danych, ocenę stronniczości i testy warunków skrajnych.

Aby dostosować się do zasad MDR, systemy oparte na sztucznej inteligencji muszą zostać przyjęte:


- Ustrukturyzowane procesy szkolenia, walidacji i testowania AI w celu zapewnienia powtarzalności i spójności wydajności.
- Kompleksowa dokumentacja, która pozwala na przebudowę urządzenia medycznego opartego na AI na podstawie samej dokumentacji, przy jednoczesnym zachowaniu jego zamierzonej wydajności.
- Monitorowanie po wprowadzeniu na rynek w celu wykrycia dryfu wydajności, uprzedzeń i niezamierzonych wyników.

Monitorowanie kliniczne po wprowadzeniu do obrotu (PMCF) dla wyrobów medycznych opartych na sztucznej inteligencji

PMCF jest wymogiem regulacyjnym w ramach MDR (UE 2017/745), zapewniającym utrzymanie bezpieczeństwa i skuteczności wyrobów medycznych po ich wprowadzeniu na rynek. Podczas gdy tradycyjne urządzenia ze stabilną technologią mogą nie wymagać ciągłego PMCF, sztuczna inteligencja w urządzeniach medycznych wymaga ciągłego monitorowania ze względu na ich zależność od zmieniających się danych ze świata rzeczywistego.

Aspect SW-MD AI-MD
Potrzeba ciągłego PMCF Często ograniczone dla ugruntowanych, stabilnych technologii, które nie zmieniają się po wdrożeniu. Niezbędne, ponieważ modele AI są w dużym stopniu zależne od danych ze świata rzeczywistego, które mogą różnić się od danych treningowych.
Stabilność wydajności Pozostaje stabilna, chyba że zostanie wyraźnie zaktualizowana o nowe wersje oprogramowania. Może z czasem ulec pogorszeniu z powodu dryfu danych, wymagając ciągłego monitorowania i ponownej kalibracji.
Ryzyko nieoczekiwanego zachowania Niskie ryzyko, jeśli testy przed wprowadzeniem na rynek są kompleksowe, a oprogramowanie pozostaje niezmienione. Wysokie ryzyko, ponieważ modele sztucznej inteligencji wyszkolone na historycznych zestawach danych mogą nie generalizować dobrze na niewidoczne dane ze świata rzeczywistego.
Główny cel monitorowania Koncentruje się głównie na poprawkach błędów, zagrożeniach dla cyberbezpieczeństwa i niezawodności oprogramowania. Obejmuje dryf wydajności, wykrywanie stronniczości, dokładność w świecie rzeczywistym i niezamierzone ryzyko kliniczne.
Oczekiwania regulacyjne dotyczące PMCF Okresowe aktualizacje w oparciu o zgłaszane problemy, opinie użytkowników i raporty o zdarzeniach niepożądanych. Wymaga ciągłej oceny wydajności w świecie rzeczywistym, aktualizacji opartych na danych i ponownej walidacji szkolenia.
Podejście do ograniczania ryzyka Aktualizacje łatek, poprawki zabezpieczeń i okresowa ponowna walidacja w przypadku wystąpienia poważnych zmian. Adaptacyjne zarządzanie cyklem życia, w tym zautomatyzowane monitorowanie modelu, ponowna walidacja i raportowanie regulacyjne.
Gromadzenie i analiza danych Często retrospektywne, oparte na przeglądach literatury klinicznej i raportach z incydentów po wprowadzeniu na rynek. Gromadzenie danych w czasie rzeczywistym lub zbliżonym do rzeczywistego, wymagające zaawansowanej infrastruktury monitorowania i zgodności.

W przypadku tradycyjnych urządzeń medycznych opartych na oprogramowaniu, PMCF zapewnia ciągłe bezpieczeństwo, ale często ma charakter statyczny i reaktywny. Z kolei urządzenia medyczne oparte na sztucznej inteligencji wymagają proaktywnego i dynamicznego podejścia PMCF ze względu na ich zależność od zmieniających się danych ze świata rzeczywistego. Bez ciągłego monitorowania, modele AI ryzykują pogorszeniem wydajności, wprowadzeniem błędu i potencjalną szkodą dla pacjenta, co czyni PMCF koniecznością regulacyjną i etyczną.

Wnioski

Aby zapewnić zgodność z MDR i ustawą o sztucznej inteligencji, urządzenia medyczne oparte na sztucznej inteligencji muszą obejmować rygorystyczne zarządzanie danymi, monitorowanie cyklu życia i ciągłe PMCF. Przyjmując praktyki zarządzania jakością specyficzne dla sztucznej inteligencji, producenci mogą zapewnić, że ich urządzenia pozostaną bezpieczne, skuteczne i zgodne z przepisami przez cały cykl życia.

Wraz z ewolucją wykorzystania sztucznej inteligencji w urządzeniach medycznych, ustrukturyzowana i proaktywna strategia regulacyjna będzie miała kluczowe znaczenie dla zrównoważenia innowacji z bezpieczeństwem pacjentów i zgodnością z prawem.

Oznakowanie CE zgodnie z rozporządzeniem MDR (UE) 2017/745

Czy masz pytania dotyczące uzyskania oznakowania CE w Europie dla swojego wyrobu medycznego zgodnie z rozporządzeniem MDR (UE) 2017/745? Skontaktuj się z nami, aby uzyskać więcej informacji i pomocy.

Skon­tak­tuj się z nami

Powiązane artykuły i wydarzenia

Możesz być również zainteresowany tym
Blog
MED Blog IEC 62304 is Not Obsolete
Loading...

Norma IEC 62304 nie jest przestarzała - to ramy identyfikowalności dla rozwoju nowoczesnego oprogramowania medycznego.

Blog
UK PMS 3
Loading...

Brytyjskie przepisy PMS dotyczące wyrobów medycznych: Część 3 - Brytyjskie przepisy PMS a unijne rozporządzenie MDR

Blog
UK PMS 2
Loading...

Brytyjskie przepisy PMS dotyczące wyrobów medycznych: Część 2 - Wymogi dotyczące czujności i raportowania