Buscar

La inteligencia artificial puede llevar al planeta a la guerra nuclear en 20 años

24/04/2018 - 16:58
  • Un estudio asegura que la IA podría acabar con el principio de disuasión
Más noticias sobre:
Bomba atómica. Imagen: Dreamstime

La Inteligencia Artificial (IA) tiene el potencial de comprometer hacia 2040 los cimientos de la disuasión nuclear, basados en la mutua destrucción asegurada y el temor a un ataque de respuesta. Esta apocalíptica profecía corresponde a un estudio de la corporación RAND, un think tank vinculado a las fuerzas armadas estadounidenses.

El informe indica que, si bien las máquinas del fin del mundo controladas por IA (como Skynet de la saga cinematográfica Terminator) se consideran improbables, los riesgos para la seguridad mundial no pueden descartarse, dada la capacidad que las 'mentes de silicio' tendrán para alentar a los humanos a asumir riesgos que puedan llevar a una confrontación atómica.

Durante la Guerra Fría, el llamado 'principio de mutua destrucción asegurada' mantuvo una tensa paz entre las superpotencias, dado que era un hecho asumido que cualquier agresión se enfrentaría con una devastadora represalia, iniciando así una escalada que garantizaría la extinción de la especie humana. La destrucción mutua asegurada fomentó la estabilidad estratégica al desincentivar a ambos bloques para tomar acciones directas.

La publicación dice que en las próximas décadas, el desarrollo de la IA conllevará la erosión de este principio, socavando con ello el equilibrio estratégico entre los países con arsenal atómico. La mejora de las tecnologías de sensores podría introducir la posibilidad de que las fuerzas de represalia, como los misiles submarinos y móviles, puedan ser interceptadas y destruidas.

Según los autores del texto, las naciones pueden sentirse tentadas a buscar la capacidad de 'dar el primer golpe' como medio de ganar una posición dominante en la mesa de negociaciones, incluso si no tienen la intención de llevar a cabo un ataque. Esto compromete la estabilidad estratégica, porque incluso si el Estado que posea esta ventaja no tenga la intención de usarlas, el adversario carece de garantías de que no se produzca una ofensiva.

"La conexión entre la guerra nuclear y la inteligencia artificial no es nueva, de hecho ambas tienen una historia entrelazada", afirma Edward Geist, coautor del documento e investigador de políticas asociadas en RAND. "Gran parte del desarrollo inicial de la IA se hizo en apoyo de los esfuerzos militares o con objetivos militares en mente", añade.

El investigador comenta que un ejemplo de este tipo de trabajo fue el Experimento de planificación adaptativa con capacidad de supervivencia en la década de 1980, que buscaba utilizar IA para traducir los datos de reconocimiento en planes de objetivos nucleares.

No todos los escenarios llevan al desastre

En circunstancias fortuitas, la IA también podría proteger la estabilidad estratégica incrementando la precisión en la recopilación y análisis de inteligencia, matiza el estudio. Si bien los cerebros electrónicos puede aumentar la vulnerabilidad de las fuerzas de segundo ataque, la mejora de las herramientas para el monitoreo y examen de las acciones adversas podría reducir la posibilidad de error de cálculo o mala interpretación que podría llevar a una catástrofe involuntaria.

Los investigadores dicen que con las mejoras futuras, es posible que los sistemas de Inteligencia Artificial desarrollen capacidades que, aunque falibles, serían menos propensas a errores que sus alternativas humanas y, por lo tanto, se estabilizarían a largo plazo.

No obstante, "algunos expertos temen que una mayor dependencia de la IA pueda conducir a nuevos tipos de errores catastróficos", indica el coautor del trabajo e ingeniero asociado de RAND Andrew Lohn. "Puede haber presión para usar IA antes de que esté tecnológicamente madura, o puede ser susceptible de subversión adversaria. Por lo tanto, mantener la estabilidad estratégica en las próximas décadas puede ser extremadamente difícil y todas las potencias nucleares deben participar en el cultivo de instituciones para ayudar a riesgo", dice.

Los investigadores de RAND basaron su perspectiva en la información recopilada durante una serie de talleres con expertos en asuntos nucleares, ramas gubernamentales, investigación sobre IA, política de IA y seguridad nacional.

La perspectiva es parte de un esfuerzo más amplio para visualizar los desafíos críticos de seguridad en el mundo de 2040, considerando los efectos de las tendencias políticas, tecnológicas, sociales y demográficas que darán forma a esos desafíos de seguridad en las próximas décadas.


Contenido patrocinado

Otras noticias

Comentarios 1

#1
27-04-2018 / 12:17
Markl
Puntuación 0

Terminator: el día de juicio final