Pasar al contenido principal

IA, armas nucleares y paz: ¿Futuro de esperanza o de exterminio?



IA, armas nucleares y paz: ¿Futuro de esperanza o de exterminio?

Presentamos un texto de la Dra. María Elizabeth de los Rios, titular de la Cátedra de Bioética Clínica, quien urge introducir principios éticos claros en el diseño y uso de la inteligencia artificial aplicada al ámbito militar.

Este 2025 se conmemoran 80 años de los trágicos bombardeos atómicos sobre Hiroshima y Nagasaki, hechos que marcaron para siempre la historia de la humanidad. Más de 200,000 personas murieron entonces a causa del impacto inmediato, la radiación y las secuelas a largo plazo. Desde entonces, la amenaza de una guerra nuclear se ha cernido sobre el mundo como una sombra silenciosa, agravada hoy por un nuevo y complejo factor: la incorporación de la inteligencia artificial (IA) en la toma de decisiones y en el control de armamento nuclear. 

Actualmente, el potencial destructivo de una sola ojiva nuclear moderna supera, hasta por seis veces, el poder de las bombas lanzadas en 1945. Se estima que una bomba termonuclear puede destruir una ciudad entera en segundos, causando millones de muertes y un daño ecológico y social irreparables. En este contexto, el conflicto en curso entre Rusia y Ucrania reaviva los temores globales. Rusia, potencia nuclear con más de 5,900 ojivas, ha insinuado en varias ocasiones la posibilidad de recurrir a armamento atómico si su soberanía se ve amenazada, lo que ha generado una profunda inquietud en la comunidad internacional. 

En este escenario geopolítico tenso, la posibilidad de que sistemas de inteligencia artificial intervengan en la toma de decisiones relacionadas con armas nucleares representa un riesgo de dimensiones incalculables. La automatización de procesos militares, incluyendo sistemas de alerta temprana, identificación de amenazas y decisiones de respuesta, ya se encuentra en fase de desarrollo y pruebas. Sin embargo, la velocidad y la complejidad con la que una IA procesa datos no garantiza infalibilidad; por el contrario, puede amplificar errores y sesgos ocultos. 

El problema radica en que las decisiones automatizadas no están exentas de defectos humanos: los algoritmos pueden reproducir sesgos de sus programadores o interpretar datos de forma incorrecta, llevando a falsas alarmas o, peor aún, a decisiones letales. Un sistema de IA podría considerar como amenaza inminente un movimiento militar mal interpretado o un error técnico, activando una represalia nuclear sin posibilidad de rectificación.  

Frente a este escenario inquietante, urge introducir principios éticos claros en el diseño y uso de la inteligencia artificial aplicada al ámbito militar. La definición de la responsabilidad es fundamental: ¿Quién responde por una decisión automatizada que desencadena un conflicto armado? ¿Quién asume las consecuencias de un error de cálculo? La transparencia en la programación y funcionamiento de estos sistemas debe garantizar el acceso a la lógica con la que actúan y permitir su revisión por organismos internacionales. Finalmente, la eliminación de sesgos algorítmicos es una condición indispensable para evitar interpretaciones erróneas que puedan tener consecuencias devastadoras. 

La inteligencia artificial no debe convertirse en un mayor problema. Por el contrario, debe ser orientada hacia objetivos que promuevan la paz, la prevención y solución de conflictos y el desarme mundial.  

Hoy más que nunca, cuando recordamos la tragedia de Hiroshima y Nagasaki, debemos reflexionar sobre lo que está en juego. Un conflicto nuclear no solo destruiría ciudades: acabaría con nuestras viviendas, nuestras relaciones familiares y sociales, nuestra salud, nuestra calidad de vida y el equilibrio del planeta. No podemos permitir que la inteligencia artificial se convierta en un instrumento de exterminio. Urge una gobernanza ética y global que impida que el futuro de la humanidad quede en manos de máquinas programadas para la guerra. La paz debe ser una construcción colectiva y siempre sostenida por valores como la dignidad y los derechos humanos.

La Dra. María Elizabeth de los Rios Uriarte es maestra en Bioética y doctora en Filosofía, Técnico en Urgencias Médicas (TUM) por Iberomed A.C. y scholar research de la Cátedra UNESCO en Bioética y Derechos Humanos. Es además Miembro de la American Society for Bioethics and Humanities, del Colegio de Profesionistas posgraduados en Bioética de México, de la Academia Nacional Mexicana de Bioética y Miembro de Número de la Academia Mexicana para el Diálogo Ciencia-Fe.

Ha impartido clases en niveles de licenciatura y posgrado en diversas universidades y participado en distintos congresos nacionales e internacionales de Filosofía y Bioética. Actualmente es profesora y titular de la Cátedra de Bioética Clínica de la Facultad de Bioética de la Universidad Anáhuac México.


Más información:
Mtra. Carolina Leticia Ibarra García 
carolina.ibarra@anahuac.mx 
Comité de Formación y Cultura de Paz