Necesidad de una IA responsable
Pero para disponer de soluciones de IA que puedan ser evaluadas, estas deben desarrollarse bajo una definición, consecución y mantenimiento de la confidencialidad, integridad, disponibilidad, responsabilidad, autenticidad y confianza. Todas estas características son fundamentales para garantizar la responsabilidad de una solución de IA, ya que el objetivo es llegar a tener una IA responsable, que sea justa, transparente y sólida. Esta característica es fundamental para impulsar la adopción de una IA que garantice la equidad en salud. Para avanzar con la adopción de la IA en la atención médica, se necesita una metodología coherente e integral, en primer lugar, para minimizar el riesgo de error en el proyecto y, en segundo lugar, para establecer y garantizar el nivel necesario.
Y una de las metodologías que nos permiten disponer de esta IA responsable es la interpretabilidad. Uno de los objetivos de la IA en salud es que las soluciones que implementemos sean interpretables. Esta interpretabilidad implica que un “observador o receptor” puede juzgar si puede comprender el modelo del algoritmo o su comportamiento y es a través de los datos que se utilizan en el desarrollo del modelo o solución como debe llevarse a cabo esta interpretabilidad.