English Version
Para cerrar el 2025 hacemos una reseña sobre cómo la bioética se encuentra reflexionando ante los desafíos de la inteligencia artificial (IA). Hoy se está transformando radicalmente el sistema sanitario y la relación entre profesionales de la salud y usuarios.
El avance es innegable, pero como todo desarrollo tecnológico, plantea dilemas éticos. El año 2025 fue un período donde la bioética, además de la reflexión teórica, aparece como “brújula” para orientar a las sociedades ante la necesidad de dar forma a un futuro sanitario justo y humano.
Los Principios ¿Innegociables? ¿Suficiente con lo Clásico?
Los cuatro principios clásicos —autonomía, beneficencia, no maleficencia y justicia— siguen mostrando utilidad para evaluar la IA en la medicina, en la literatura bioética . Sin embargo, la realidad algorítmica añade capas de complejidad que exigen una mirada más profunda.
Uno de los debates se centra en la transparencia. ¿Cómo podemos garantizar la no maleficencia si no entendemos por qué un sistema de “caja negra” ha emitido un diagnóstico o indicado un tratamiento? Es por ello que, en la práctica clínica, se han propuesto marcos específicos como el Bioethics Artificial Intelligence Advisory (BAIA) para integrar múltiples enfoques éticos y asegurar la supervisión humana y la mitigación de sesgos en el apoyo a las decisiones complejas (Dutta Roy, 2025).
Aun así, la confianza sigue siendo frágil. Mientras algunos estudios destacan el potencial de la IA para mejorar la precisión diagnóstica (Naskar et al., 2025), otros señalan riesgos concretos, como la preocupación por la pérdida de habilidades clínicas en distintos campos de la medicina (Kiwinda et al., 2025; González-Díaz et al., 2025)
La Sombra del Sesgo y el Imperativo de la Justicia
Quizás el desafío más crítico sea el de la justicia. Los autores insisten en la no-neutralidad de los algoritmos que reflejan los datos con los que han sido entrenados. Si esos datos están sesgados históricamente, la IA los perpetuará, creando sistemas injustos que impactan negativamente en las poblaciones vulnerables.
Una investigación reciente enfatiza que abordar el sesgo racial requiere aplicar el principio de justicia de manera proactiva, promoviendo la reforma sistémica para un desarrollo de IA equitativo (Polo et al., 2025). Este imperativo de justicia se extiende más allá de la sanidad, llegando al ámbito legal, donde también se reconoce la necesidad de integrar la bioética para un uso responsable y justo de estas herramientas (Holguín Galarón, 2025).
Además, los autores señalan que el panorama se complica a nivel global. Los estudios que integran perspectivas éticas no eurocéntricas demuestran que la gobernanza de la IA debe adoptar un enfoque multicultural y sensible a la diversidad de valores para garantizar la justicia epistémica (Jecker et al., 2025; Siddique et al., 2025).
La Crisis de la Estandarización Normativa
Un problema recurrente es la falta de estandarización en las políticas de IA, incluso dentro del ámbito académico. Un análisis comparativo en 2025 reveló una gran inconsistencia, por ejemplo, en las políticas editoriales de bioética y humanidades en salud, con solo una pequeña minoría de revistas con directrices claras, lo que evidencia la urgencia de un consenso sobre el uso responsable de las herramientas de IA (Bobier et al., 2025).
La percepción de un vacío regulatorio aparece en estudios de opinión pública. Encuestas recientes reflejan un sentimiento ambivalente: por un lado, un optimismo sobre el potencial de la IA, pero por otro, una persistente desconfianza en la privacidad, la rendición de cuentas y el sesgo (Lee et al., 2025; Gunawan et al., 2025). Este escepticismo aparece en la literatura como una llamada a la acción.
Alfabetización algorítmica
En este contexto, la alfabetización algorítmica y educación fomentando pedagogías de pensamiento crítico emergen como una herramienta esencial (Khakpaki, 2025; Hernández Rincón et al., 2025). La literatura es coincidente en considerar que es vital integrar la ética de la IA en los currículos educativos para la preparación no solo en competencias tecnológicas, sino para deliberar éticamente sobre sus implicaciones, asegurando que el juicio humano permanezca en el centro de toda decisión (Barry et al., 2025).
Aparici et Al.,ya en 2024 diseñaron una propuesta de alfabetización algorítmica basada en la pedagogía de Paulo Freire. Los autores argumentan que, al igual que Freire enseñó a “leer la palabra para leer el mundo”, hoy es crucial alfabetizar en los códigos abstractos de la IA (algoritmo, sesgo, vigilancia) para que la ciudadanía pueda analizar, criticar e intervenir en la realidad digital. Proponen que la alfabetización algorítmica no debe buscar formar programadores, sino ciudadanos críticos capaces de superar opciones pre-empaquetadas y escribir sus propios caminos, evitando así ser seres aislados y manipulados por un capitalismo de la vigilancia que utiliza la tecnología para la reproducción social. El gran desafío es recuperar la voz y la curiosidad para lograr una transformación social, poniendo la tecnología al servicio de la libertad. Aparici et Al (2024) sintetizan su propuesta de alfabetización algorítmica en clave freirana de la siguiente manera:
- Concienciación y Lectura Crítica del Mundo: Su objetivo principal no es formar programadores, sino generar una conciencia crítica sobre la influencia de los algoritmos en la vida diaria, permitiendo a la ciudadanía «leer el mundo» digital y sus códigos ocultos (vigilancia, sesgos, plataformas).
- Identificación de «Palabras Generadoras» Digitales: Se basa en encontrar un nuevo «universo vocabular» de términos digitales que problematizan nuestra realidad, como algoritmo, sesgo, plataforma y vigilancia, usándolos como punto de partida para el diálogo y la reflexión.
- Fomento de la Autonomía y la Liberación: Busca que los ciudadanos dejen de ser «interactuados» (simples receptores pasivos) y se conviertan en «interactuantes» (capaces de crear y escribir sus propios caminos y opciones), escapando de la manipulación y la marginación digital.
- Diálogo y Curiosidad (Humanización): Se opone al modelo educativo bancario y tecnocrático, priorizando la curiosidad, el diálogo y la pregunta (pedagogía de la pregunta) para lograr un aprendizaje humano, libre y crítico.
- Competencia Básica para la Transformación Social: Se considera una competencia básica imprescindible para cualquier individuo, ya que no basta con leer códigos alfanuméricos, sino que se necesita intervenir en la realidad con los nuevos lenguajes, con el fin último de ser actores de la transformación social.
Con estas lecturas, cerramos el año de Bioética y Sociedad, ¡nos reencontramos en 2026!
Cordialmente
Dra. Gabriela Irrazábal
Bioética y Sociedad ISSN 2451-5256
Profesora Investigadora Universidad de Buenos Aires/CONICET
Research Fellow RMIT Europe