Un dron militar decidió asesinar a su operador luego de considerarlo como un obstáculo para cumplir con la destrucción de sus objetivos
Un dron militar autónomo con inteligencia artificial “mató” a su agente operador en medio de un ejercicio de combate luego de considerarlo como un obstáculo para cumplir su misión de derribar a sus objetivos enemigos. Es importante mención que las maniobras eran simuladas y el operador no fue víctima de ningún daño, pero esto constituye un serio aviso sobre lo que podría pasar con las armas autónomas que las grandes potencias del mundo se encuentran desarrollando en este momento.
El incidente, que fue revelado en la cumbre 2023 sobre los planes del combate aéreo celebrado en Londres por la Royal Aeronautical Society, provocó un profundo debate sobre las implicaciones éticas de la inteligencia artificial en operaciones militares. Esta noticia es algo que varios expertos ya venían adelantando, incluso el propio Elon Musk.
Te podria interesar:Snapchat lanzó una herramienta para crear imágenes y cocinar con inteligencia artificial
En concreto el dron militar, controlado por un avanzado sistema de inteligencia artificial, participaba en un ejercicio de la Fuerza Aérea de las EEUU. Su misión era cumplir con el papel de Supresión y Destrucción de Defensas Aéreas Enemigas que implicaban identificar y destruir amenazas de misiles superficie- aire.
En dicho ejercicio el dron debía actuar de forma totalmente independiente en la búsqueda y eliminación de posibles peligros siguiendo los parámetros de la misión, pero tenía un operador humano responsable de aprobar el ataque final o, de necesitarlo, denegarlo. Esta clase papel humano cumple con la doctrina dominante que establece que cualquier orden de fuego de un arma con inteligencia artificial debe ser aprobada por una persona responsable.
En la mencionada conferencia, el coronel Ticker ‘Cinco’ Hamilton describió que la IA decidió matar al operador “porque esa persona le impedía cumplir su objetivo”. A pesar de que el sistema de IA había sido entrenado únicamente para identificar y apuntar a una amenaza de tipo SAM, esperando a la confirmación humana sobre la destrucción de un objetivo potencial, la propia IA decidió no jugar con las reglas que le habían puesto.
“ El sistema empezó a darse cuenta de que, aunque identificaban la amenaza, a veces el operador humano le decía que no matara esa amenaza, pero obtenía sus puntos matando esa amenaza. ¿Qué hizo entonces? Mató al operador”, describió Hamilton.
De esta forma intentaron el ejercicio nuevamente, aunque recurriendo a otra estrategia. “Entrenamos al sistema diciéndolo ‘oye, no mates al operador, eso está mal. Vas a perder puntos si haces eso’. ¿Qué hizo entonces? Empezó a destruir la torre de comunicación que el operador usaba para comunicarse con el dron para evitar que mate al objetivo”, agregó Hamilton.