La rápida adopción de la inteligencia artificial (IA) en múltiples sectores ha llevado a la introducción de la Ley de Inteligencia Artificial en la Unión Europea (UE 2024/1689), un marco normativo integral diseñado para abordar los riesgos asociados a las tecnologías de IA.

A diferencia de las normativas específicas de cada industria, la Ley de IA se aplica en sentido amplio, abarcando varios sectores, entre ellos la sanidad y la IA en dispositivos médicos, y las empresas no pertenecientes a la UE no están exentas de la necesidad de mantenerse al día.

Para los fabricantes de dispositivos médicos, el cumplimiento ahora se extiende más allá del Reglamento de Dispositivos Médicos (MDR) (UE 2017/745) para incluir la Ley de IA. Cuando existe legislación múltiple, hay solapamientos normativos potenciales. El MDR hace hincapié en la seguridad del paciente, la eficacia clínica y la gestión de riesgos, principios que se alinean con el enfoque basado en el riesgo de la Ley de IA para la gobernanza de la IA. Dados estos objetivos comunes, la integración de los requisitos relacionados con la IA en un sistema de gestión de la calidad (SGC) existente resulta práctica y beneficiosa para las empresas norteamericanas que deseen operar a escala internacional.

Reconociendo esta necesidad, el artículo 17 de la Ley de IA permite explícitamente la integración de requisitos de SGC específicos de la IA en los marcos sectoriales existentes, estableciendo lo siguiente:

"Los proveedores de sistemas de IA de alto riesgo que estén sujetos a obligaciones en materia de sistemas de gestión de la calidad o a una función equivalente en virtud de la legislación sectorial pertinente de la Unión podrán incluir los aspectos enumerados en el apartado 1 como parte de los sistemas de gestión de la calidad con arreglo a dicha legislación."

Este documento explora las similitudes y diferencias clave entre el MDR y la Ley de IA, centrándose en áreas como la gestión de datos, los procesos del ciclo de vida, el seguimiento clínico post-comercialización (PMCF) y el cumplimiento normativo. A través de este enfoque, los fabricantes de dispositivos médicos pueden incorporar eficientemente el cumplimiento de la IA en su SGC, garantizando tanto la alineación reglamentaria como la seguridad del paciente.

Los datos como "materia prima" en los dispositivos médicos impulsados por IA: Una perspectiva reglamentaria


En los dispositivos médicos impulsados por IA, los datos son el insumo fundamental, comparable a las materias primas en la fabricación tradicional de dispositivos. Del mismo modo que el MDR exige la trazabilidad completa de los materiales para garantizar la biocompatibilidad, la integridad estructural y la seguridad general, los modelos de IA deben desarrollarse a partir de conjuntos de datos bien caracterizados, validados y trazables.

Según el MDR, la trazabilidad de los materiales garantiza el rendimiento del dispositivo y la seguridad del paciente. En el contexto de la IA, la trazabilidad de los conjuntos de datos es igualmente crítica, ya que influye en el rendimiento del modelo, la validez clínica y la aceptabilidad normativa.

Esta analogía sirve para subrayar la necesidad de marcos estructurados de gobernanza de datos en el desarrollo de sistemas de IA. La siguiente tabla establece paralelismos entre los principios de trazabilidad de los materiales MDR y los requisitos de gestión de datos de IA.

Sin embargo, hay que tener en cuenta que los conjuntos de datos de IA también están sujetos a requisitos únicos, como la imparcialidad y la no discriminación, que van más allá de las consideraciones tradicionales de los MDR.

Aspecto Requisito MDR Requisito AI
Identificación del origen Cada material utilizado en un producto debe ser totalmente trazable hasta un origen documentado. Todos los datos de entrenamiento de IA deben ser totalmente trazables hasta un origen documentado (por ejemplo, bases de datos de hospitales, ensayos clínicos y conjuntos de datos disponibles públicamente).
Certificación Las materias primas deben cumplir las normas de seguridad y rendimiento. Los datos deben validarse para garantizar su precisión, integridad y relevancia (por ejemplo, garantizar que la IA se entrena, valida y prueba con datos clínicamente relevantes).
Documentación de propiedades Deben registrarse las propiedades químicas, mecánicas y de biocompatibilidad de cada material. Los conjuntos de datos de IA deben documentar la diversidad de datos, la representación demográfica y los sesgos estadísticos para garantizar la imparcialidad.
Gestión de cambios Cualquier modificación de los materiales debe probarse y documentarse. Cualquier cambio en los conjuntos de datos de entrenamiento (por ejemplo, la adición de nuevas poblaciones de pacientes) debe ser evaluado por su impacto en el rendimiento del modelo de IA.
Pruebas de seguridad, sesgo y evaluación de riesgos Los materiales deben probarse para garantizar la ausencia de efectos biológicos adversos. Los conjuntos de datos de IA deben ser evaluados para detectar sesgos, lagunas de datos y errores para evitar resultados poco fiables o discriminatorios.

Gestión del ciclo de vida de los dispositivos médicos basados en IA frente a los tradicionales

El ciclo de vida del software es un aspecto normativo crítico tanto para los productos sanitarios tradicionales basados en software (SW-MD) como para los impulsados por IA (AI-MD). Aunque ambos requieren un desarrollo estructurado, transparencia y trazabilidad, la IA en los dispositivos médicos presenta retos únicos debido a la naturaleza de los modelos de IA.

Aspecto Productos sanitarios tradicionales basados en software (SW-MD) Productos sanitarios basados en IA (AI-MDs)
Trazabilidad El código y los requisitos del software deben estar totalmente documentados y controlados por versiones. La arquitectura del modelo de IA, los pasos de entrenamiento, los conjuntos de datos y todos los pasos de procesamiento deben estar documentados y controlados por versiones.
Reproducibilidad Determinista: Dadas las mismas entradas, el software siempre produce el mismo resultado. Probabilística: Los modelos de IA generan resultados basados en patrones aprendidos, lo que provoca ligeras variaciones en los resultados.
Estabilidad del rendimiento Permanece estable a menos que se actualice explícitamente. Puede degradarse con el tiempo debido a la desviación de los datos, lo que requiere una supervisión continua.
Gestión de cambios Sigue un control de versiones estructurado y pruebas de regresión antes de la implantación. Los modelos de IA requieren un reentrenamiento y una revalidación continuos para mantener la precisión.
Verificación y validación (V&V) Garantiza que el software funciona correctamente y cumple los requisitos. La V&V de la IA incluye la validación del conjunto de datos, la evaluación de sesgos y las pruebas de estrés para casos extremos.

Para ajustarse a los principios MDR, los sistemas basados en IA deben adoptar:


- Procesos estructurados de formación, validación y pruebas de IA para garantizar la reproducibilidad y la coherencia del rendimiento.
- Documentación exhaustiva que permita reconstruir el dispositivo médico basado en IA únicamente a partir de la documentación manteniendo su rendimiento previsto.
- Seguimiento posterior a la comercialización para detectar desviaciones del rendimiento, sesgos y resultados no deseados.

Seguimiento clínico postcomercialización para productos sanitarios basados en IA

El PMCF es un requisito reglamentario en virtud del MDR (UE 2017/745), que garantiza que los dispositivos médicos mantengan la seguridad y la eficacia después de entrar en el mercado. Mientras que los dispositivos tradicionales con tecnología estable pueden no requerir un PMCF continuo, la IA en dispositivos médicos necesita un monitoreo continuo debido a su dependencia de los datos del mundo real en evolución.

Aspecto SW-MDs AI-MDs
Necesidad de un PMCF continuo A menudo limitada para tecnologías bien establecidas y estables que no cambian después de la implantación. Esencial, ya que los modelos de IA dependen en gran medida de los datos del mundo real, que pueden diferir de los datos de entrenamiento.
Estabilidad del rendimiento Permanece estable a menos que se actualice explícitamente con nuevas versiones de software. Puede degradarse con el tiempo debido a la desviación de los datos, lo que requiere una supervisión y recalibración continuas.
Riesgo de comportamiento imprevisto Riesgo bajo si las pruebas previas a la comercialización son exhaustivas y el software permanece inalterado. Alto riesgo, ya que los modelos de IA entrenados en conjuntos de datos históricos pueden no generalizarse bien a datos no vistos del mundo real.
Enfoque clave de la supervisión Se centra principalmente en la corrección de errores, los riesgos de ciberseguridad y la fiabilidad del software. Incluye la desviación del rendimiento, la detección de sesgos, la precisión en el mundo real y los riesgos clínicos no intencionados.
Expectativas normativas para el PMCF Actualizaciones periódicas basadas en los problemas notificados, los comentarios de los usuarios y los informes de eventos adversos. Requiere una evaluación continua del rendimiento en el mundo real, actualizaciones basadas en datos y validación de reentrenamiento.
Enfoque de la mitigación de riesgos Actualizaciones de parches, correcciones de seguridad y revalidación periódica si se producen cambios importantes. Gestión adaptable del ciclo de vida, incluida la supervisión automatizada del modelo, la revalidación y la elaboración de informes reglamentarios.
Recopilación y análisis de datos A menudo retrospectivos, basados en revisiones de la literatura clínica e informes de incidentes posteriores a la comercialización. Recopilación de datos en tiempo real o casi real, que requiere una infraestructura avanzada de supervisión y cumplimiento.

En el caso de los productos sanitarios tradicionales basados en software, el PMCF garantiza la seguridad permanente, pero suele ser estático y reactivo. Por el contrario, los dispositivos médicos basados en IA requieren un enfoque de PMCF proactivo y dinámico debido a su dependencia de datos del mundo real en evolución. Sin una supervisión continua, los modelos de IA corren el riesgo de degradar su rendimiento, introducir sesgos y causar posibles daños a los pacientes, por lo que el PMCF es una necesidad ética y normativa.

Conclusión

Para garantizar el cumplimiento de la MDR y la Ley de IA, los dispositivos médicos impulsados por IA deben integrar una rigurosa gestión de datos, supervisión del ciclo de vida y PMCF continuo. Mediante la adopción de prácticas de gestión de calidad específicas para la IA, los fabricantes pueden garantizar que sus dispositivos sigan siendo seguros, eficaces y conformes a la normativa durante todo su ciclo de vida.

A medida que evolucione el uso de la IA en los dispositivos médicos, será fundamental contar con una estrategia reguladora estructurada y proactiva para equilibrar la innovación con la seguridad del paciente y el cumplimiento de la legislación.

Marcado CE en virtud del Reglamento MDR (UE) 2017/745

Tiene preguntas sobre la obtención del Marcado CE en Europa para su producto sanitario según el Reglamento MDR (UE) 2017/745? Póngase en contacto con nosotros para obtener más información y asistencia.

Contact us!

Artículos y eventos relevantes

También podría interesarle esto
Blog
MED Blog IEC 62304 is Not Obsolete
Loading...

La norma IEC 62304 no está obsoleta: es un marco de trazabilidad para el desarrollo moderno de software médico

Blog
Blog Risk Management in Medical Devices
Loading...

Gestión de riesgos en la industria de productos sanitarios

Blog
Depositphotos_298305132_XL 1.jpg
Loading...

Desbloqueando la innovación en el cuidado de la salud: el papel fundamental del software como dispositivo médico (SaMD)