Una guía crítica sobre riesgos, gobernanza y estrategias de mitigación en entornos clínicos y de investigación académica.
Automatización de prejuicios históricos en procesos de contratación, créditos o justicia penal.
Generación de Deepfakes y campañas masivas que erosionan la confianza pública.
Rastreo y perfilado invasivo de individuos a niveles sistémicos.
Falta de explicabilidad en modelos complejos, peligroso en decisiones de salud o defensa.
Consumo masivo de energía y agua para el entrenamiento de modelos de gran escala.
Marginación de culturas minoritarias y lenguas en beneficio de perspectivas occidentales.
Alucinaciones: Invención de citas bibliográficas y datos estadísticos convincentes.
Recursividad: Ciclo donde la IA se entrena con su propia "ciencia basura".
Crisis de Reproducción: Modelos propietarios que impiden la replicación.
Atrofia Cognitiva: Dependencia que reduce la capacidad crítica del investigador.
Reduccionismo: Traducción de constructos complejos (vulnerabilidad) en variables simplistas.
Esencialismo Estadístico: Etiquetado preventivo que estigmatiza comunidades.
Sesgo de Muestra: Algoritmos que fallan en minorías por falta de diversidad en datasets.
Falsa Precisión: Clasificaciones numéricas que ignoran la complejidad fenomenológica.
Clasificación por niveles de riesgo. Prohíbe puntuación social y limita sistemas de "Riesgo Inaceptable".
Enfoque sectorial para dispositivos médicos y principios de seguridad y equidad algorítmica.
Seis principios éticos en salud: autonomía, bienestar, transparencia y responsabilidad.
Sesgo racial sistemático en la evaluación de reincidencia en tribunales de EE.UU.
Recomendaciones inseguras al basarse en datos sintéticos sin validación clínica rigurosa.
Pérdida drástica de precisión en detección cutánea en pacientes de etnias minoritarias.