IA y dispositivos médicos: laberinto regulatorio internacional

Opinión de Mauricio París | “Las regulaciones exigirán a los fabricantes un sistema de gestión de riesgos, capacitación, establecimiento de conjuntos de datos, documentación y comunicaciones técnicas, evaluaciones de conformidad y el involucramiento de autoridades nacionales, entre otros requisitos”.

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.


Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.


Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

La Inteligencia Artificial (IA) está transformando la atención médica, desde el diagnóstico hasta el tratamiento y la prevención de enfermedades. La inversión en investigación de inteligencia artificial (IA) para dispositivos médicos es un área de crecimiento significativo: en 2021, el mercado de IA en atención médica representaba alrededor de $11.000 millones, con perspectivas de crecimiento hasta los $102.000 millones para 2028.

Como cualquier herramienta de salud digital, los modelos de IA pueden ser defectuosos, presentando riesgos para la seguridad del paciente que pueden surgir de una variedad de factores, incluidos problemas con los datos utilizados para desarrollar el algoritmo, las elecciones que los desarrolladores hacen al construir y entrenar el modelo, y cómo se implementa finalmente el programa habilitado para IA. Por ese motivo, su regulación es un tema sensible, complejo y en constante evolución.

La Artificial Intelligence Act (AIA) de la Unión Europea, que probablemente sea aprobada en 2024, adopta un enfoque basado en el riesgo, clasificando las aplicaciones de IA según su potencial de daño. Las empresas que utilizan IA son quienes deben presentar su propia evaluación de riesgos. El AIA ha generado discusiones sobre la prohibición de ciertas aplicaciones de IA, como el reconocimiento de emociones, la biometría en tiempo real, la vigilancia policial predictiva, el social scoring, y restricciones a la IA generativa y a los sistemas de recomendación.

El marco regulatorio propuesto por los europeos, que sin duda impactará a la industria global por el conocido Efecto Bruselas, probablemente considerará a los dispositivos médicos que utilizan IA como de alto riesgo. Por ese motivo, las regulaciones exigirán a los fabricantes un sistema de gestión de riesgos, capacitación, establecimiento de conjuntos de datos, documentación y comunicaciones técnicas, evaluaciones de conformidad y el involucramiento de autoridades nacionales, entre otros requisitos. Esta regulación está siendo diseñada para ser compatible con el Medical Device Regulation (MDR), por lo que los fabricantes no tendrán que realizar doble evaluación de conformidad, sino que una sola podría satisfacer para ambos requerimientos regulatorios.

Debe recordarse que la IA en la atención médica también debe cumplir con los requisitos para el procesamiento de datos de salud, establecidos en el Reglamento General de Protección de Datos de la Unión Europea (GDPR por sus siglas en inglés), que incluyen el consentimiento explícito del paciente para fines de medicina preventiva o laboral, diagnóstico médico, prestación de asistencia sanitaria o social, interés público en el área de la salud pública, y fines de investigación científica.

A raíz del Brexit, el Reino Unido está desarrollando su propio marco regulatorio para la IA, basado en varios principios: seguridad, protección y robustez, transparencia y explicabilidad, justicia, rendición de cuentas y gobernanza e impugnabilidad y reparación. Este enfoque favorece la innovación y permite a los reguladores existentes determinar cómo se aplican estos principios en su área correspondiente.

En contraste con la Unión Europea, Estados Unidos ha adoptado un enfoque más laissez-faire hacia la regulación de la IA. La Administración de Alimentos y Medicamentos (FDA por sus siglas en inglés) ha emitido directrices sobre la IA en dispositivos médicos, pero estas directrices no son tan detalladas como el AIA, aunque también adoptan un enfoque basado en el riesgo. Sin embargo, la FDA ha sido menos prescriptiva en sus directrices, lo que se considera permitirá una mayor flexibilidad para la innovación, pero también puede llevar a una mayor incertidumbre y riesgo para los pacientes.

Por su parte, China, otro actor importante en el campo de la IA, ha adoptado un enfoque regulatorio más vertical, centrándose más en problemas específicos. Disposiciones sobre la Administración de Servicios de Información en Internet de Síntesis Profunda, que entraron en vigor el 10 de enero de 2023, regulan en detalle la supervisión y control del contenido y el cumplimiento de los requisitos regulatorios para todos los servicios de tecnología de “síntesis profunda”, es decir, tecnología que utiliza el deep learning, realidad virtual u otros algoritmos generativos o sintéticos. A esto se suma el lanzamiento de las Medidas Interinas para la Administración de Servicios de Inteligencia Artificial Generativa el pasado 10 de julio de 2023, aunque no son tan detalladas con la regulación europea, sí cubren una serie de temas relevantes relacionados con la IA y son bastante completas, ya que no solo regulan la prestación de servicios que utilizan IA para generar texto, imagen, audio, video u otro contenido al público dentro del territorio de la República Popular China, sino que también podrían regular el uso de dichos servicios

La regulación de la IA en dispositivos médicos es un campo complejo y en constante evolución. Las tensiones regulatorias en todo el mundo se centran en lograr un equilibrio entre la protección de los pacientes y la promoción de la innovación. Las empresas que desarrollan y utilizan estos dispositivos deben estar al tanto de las regulaciones actuales y futuras para garantizar que sus productos sean seguros, eficaces y cumplan con todas las normativas pertinentes.

El autor es socio director de Ecija Legal, experto en Derecho Digital y director de la Cámara de Tecnologías de Información y Comunicación (Camtic).