ISO 42001

IA responsable en el sector salud: desafíos y oportunidades

Por Equipo GRC360 20 de March, 2026 13 min de lectura
Inteligencia artificial aplicada al sector salud con consideraciones éticas

La IA está revolucionando el sector salud: apoyo al diagnóstico, análisis de imágenes médicas, predicción de riesgos clínicos y gestión de agendas. En Chile, hospitales y clínicas adoptan IA aceleradamente. Pero cuando se trata de decisiones que afectan la vida de personas, la responsabilidad adquiere una dimensión crítica.

Este artículo explora los desafíos de la IA en salud y cómo ISO 42001 proporciona un marco para gestionarla responsablemente. Consulta la guía completa de ISO 42001.

Aplicaciones de IA en salud en Chile

AplicaciónDescripciónNivel de riesgo
Diagnóstico por imagenAnálisis de radiografías y tomografíasAlto
Predicción clínicaPredicción de deterioro o readmisiónAlto
Gestión de agendasOptimización y predicción de ausentismoBajo
Chatbots de triajeOrientación sobre urgencia de condiciónMedio-Alto
Análisis de textos clínicosExtracción de información de fichasMedio
Gestión de suministrosPredicción de demanda de medicamentosBajo

Desafíos éticos

Sesgo en datos clínicos

Los datos reflejan desigualdades del sistema. Un modelo entrenado con datos de hospitales privados puede funcionar mal para pacientes del sistema público o de regiones.

Explicabilidad

Modelos de deep learning funcionan como "cajas negras". Un médico necesita entender por qué la IA sugiere un diagnóstico para decidir si confiar.

Responsabilidad clínica

¿Quién es responsable cuando la IA contribuye a un error? La gobernanza debe definir responsabilidades claramente, y la decisión final siempre debe ser del profesional de salud.

Protección de datos de salud

Datos de salud son sensibles según la Ley 21.719. Entrenar modelos requiere consentimiento, anonimización y evaluaciones de impacto. Ver protección de datos en salud.

Precaución: Un sistema de IA en salud no reemplaza al profesional médico. Debe funcionar como herramienta de apoyo que complementa el juicio clínico, no como sistema autónomo.

Principios para IA responsable en salud

  1. Beneficencia: Generar beneficios reales para pacientes y sistema.
  2. No maleficencia: Minimizar riesgos de daño.
  3. Autonomía del paciente: Informar del uso de IA, permitir optar por atención sin IA.
  4. Equidad: No amplificar desigualdades en acceso o calidad.
  5. Transparencia: Profesionales y pacientes entienden rol y limitaciones.
  6. Privacidad: Protección con los más altos estándares.

Marco de gobernanza para salud

Comité de ética en IA

Profesionales de salud, expertos en IA, representantes de pacientes y especialistas en ética evalúan cada proyecto antes de implementación.

Validación clínica

Cada sistema debe validarse clínicamente con estudios que demuestren eficacia y seguridad en el contexto específico de la institución.

Monitoreo continuo

Monitorear permanentemente para detectar degradación del rendimiento, sesgos emergentes o efectos adversos. Métricas clínicas (sensibilidad, especificidad) y operacionales.

Protocolo de desactivación

Procedimiento para desactivar un sistema si se detectan problemas. El servicio debe funcionar sin depender de la IA.

Referencia: La OMS publicó directrices sobre ética y gobernanza de IA en salud que complementan ISO 42001 con consideraciones específicas del sector sanitario.

Gestiona la IA en salud responsablemente

GRC360 te ayuda a documentar evaluaciones de impacto, mantener inventario de sistemas de IA y gestionar riesgos en el sector salud.

Crear Cuenta Gratis

Complementa con gobernanza de IA, ISO 9001 en salud, ciberseguridad en salud y el marco ético para IA.

Oportunidad: Chile puede posicionarse como referente regional en IA responsable en salud. Las instituciones que implementen marcos de gobernanza hoy generarán mayor confianza.

¿Necesitas gestionar tu compliance?

GRC360 te ayuda a implementar estándares ISO, gestionar riesgos y cumplir con la normativa.

Crear Cuenta Gratis