Con el acuerdo sobre el AI Act, la Unión Europea ha avanzado enormemente en cómo nuestra sociedad desarrollará y utilizará la Inteligencia Artificial (IA) en un futuro. Aunque la noticia ha saltado ahora a los medios, se ha estado trabajando durante los últimos años en la mitigación de riesgos para pacientes derivados del uso de herramientas de IA aplicada a Salud, siendo ahora el momento de incorporarlos en el software de propósito médico.
Teniendo en cuenta las novedades que la IA puede aportar a la asistencia sanitaria y las posibles lagunas de la legislación actual y futura en Europa, la Dirección General de Servicios de Investigación Parlamentaria del Parlamento Europeo (EPRS) elaboró un informe en el que identificó siete riesgos principales de la IA en la medicina y la asistencia sanitaria: el daño a los pacientes debido a errores de la IA; el mal uso de las herramientas médicas basadas en IA; la parcialidad en la IA y la perpetuación de las desigualdades existentes; la falta de transparencia; los problemas de privacidad y seguridad; las lagunas en la rendición de cuentas; y los obstáculos en la implementación de herramientas software de IA aplicadas en el sector Salud. Como era de esperar, estos riesgos engloban los cuatro aspectos fundamentales que se han identificado como indispensables a cubrir por los modelos de IA: confiabilidad, transparencia, trazabilidad y responsabilidad.