Evaluación de impacto de sistemas de IA según ISO 42001
La implementación de sistemas de IA trae beneficios pero también riesgos que deben evaluarse. ISO 42001 establece la necesidad de realizar evaluaciones de impacto de los sistemas de IA antes de su despliegue, considerando efectos sobre las personas, la sociedad y los derechos fundamentales.
Este artículo explora la metodología de evaluación de impacto de IA. Para visión general, consulta la guía completa de ISO 42001.
¿Qué es una evaluación de impacto de IA?
Es un proceso sistemático para identificar, analizar y evaluar los posibles efectos positivos y negativos de un sistema de IA sobre las personas, grupos, organizaciones y sociedad. Es análoga a la EIPD de protección de datos, pero con alcance más amplio.
ISO 42001 requiere que sea proporcional al nivel de riesgo del sistema y considere todo el ciclo de vida.
Categorías de impacto a evaluar
Impacto sobre las personas
- Derechos fundamentales: Privacidad, libertad de expresión, no discriminación, acceso a servicios.
- Seguridad física: Daño si funciona incorrectamente (vehículos autónomos, diagnóstico médico).
- Bienestar psicológico: Estrés, ansiedad o manipulación.
- Autonomía: Capacidad de las personas para tomar decisiones informadas.
Impacto sobre grupos y comunidades
- Sesgo y discriminación: Resultados discriminatorios por género, etnia, edad, nivel socioeconómico.
- Accesibilidad: Para personas con discapacidad.
- Desplazamiento laboral: Eliminación o transformación significativa de puestos.
Impacto organizacional y ambiental
- Responsabilidad: ¿Quién responde cuando el sistema comete un error?
- Transparencia: ¿Se puede explicar cómo decide?
- Consumo energético: Huella de carbono del procesamiento computacional.
Metodología de evaluación
1. Descripción del sistema
Documentar propósito, funcionalidad, datos de entrenamiento, algoritmos, usuarios previstos, contexto y limitaciones.
2. Identificación de partes interesadas
Usuarios directos, personas cuyos datos se procesan, personas afectadas por las decisiones y la sociedad.
3. Análisis de impacto
| Criterio | Preguntas guía |
|---|---|
| Probabilidad | ¿Qué tan probable es que ocurra el impacto negativo? |
| Severidad | ¿Qué tan grave sería? |
| Reversibilidad | ¿Se puede revertir el daño? |
| Escala | ¿Cuántas personas se verían afectadas? |
| Vulnerabilidad | ¿Afecta a poblaciones vulnerables? |
4. Medidas de mitigación
Modificaciones al diseño, restricciones de uso, supervisión humana adicional, transparencia o decisión de no implementar.
5. Documentación y revisión
Documentar evaluación, conclusiones y medidas. Revisar periódicamente y ante cambios.
Evaluación de sesgo algorítmico
Aspecto crítico de la evaluación. Los sistemas pueden perpetuar sesgos existentes:
- Sesgo de datos: Datos no representativos de todos los grupos.
- Sesgo de selección: Datos recopilados excluyendo ciertos grupos.
- Sesgo de proxy: Variables neutras que sirven como proxy para características protegidas.
En Chile, esto es relevante por las desigualdades socioeconómicas y geográficas. Un sistema entrenado con datos de Santiago puede funcionar mal para regiones.
Supervisión humana
- Human-in-the-loop: Humano participa en cada decisión (alta supervisión).
- Human-on-the-loop: Humano supervisa y puede intervenir.
- Human-in-command: Humano puede desactivar o modificar el sistema.
Gestiona tu IA responsablemente con GRC360
GRC360 te permite documentar evaluaciones de impacto de IA, con seguimiento de medidas de mitigación y registro de decisiones de gobernanza.
Crear Cuenta GratisProfundiza con gobernanza de IA, el marco ético para IA en Chile y cómo ISO 42001 y protección de datos se complementan.
¿Necesitas gestionar tu compliance?
GRC360 te ayuda a implementar estándares ISO, gestionar riesgos y cumplir con la normativa.
Crear Cuenta Gratis