El jueves pasado , El Departamento de Estado de EE. UU. ha esbozado una nueva visión para el desarrollo, las pruebas y la verificación de los sistemas militares, incluidas las armas, que utilizan inteligencia artificial.
La Declaración política sobre el uso militar responsable de la IA y la autonomía representa un intento de los Estados Unidos de guiar el desarrollo de la IA militar en un momento crítico para la tecnología. El documento no vincula legalmente al ejército de EE. UU., pero la esperanza es que las naciones aliadas acepten sus principios, creando algún tipo de estándar global para construir sistemas de IA de manera responsable.
Entre otras cosas, la declaración establece que la inteligencia artificial militar debe desarrollarse de acuerdo con las leyes internacionales, que los países deben ser transparentes sobre los principios que subyacen a su tecnología y que se implementan altos estándares para verificar el desempeño de los sistemas de inteligencia artificial. También dice que solo los humanos deben tomar decisiones sobre el uso de armas nucleares.
Cuando se trata de sistemas de armas autónomos, a los líderes militares de EE. UU. a menudo se les ha asegurado que un humano permanecerá “al tanto” para tomar decisiones sobre el uso de la fuerza letal. Pero la política oficial, emitida por primera vez por el Departamento de Defensa en 2012 y actualizada este año, no requiere que ese sea el caso.
Los intentos de formular una prohibición internacional de las armas autónomas hasta ahora no han tenido éxito. La Cruz Roja Internacional y grupos de campaña como Stop Killer Robots han presionado para llegar a un acuerdo en las Naciones Unidas, pero algunas potencias importantes (Estados Unidos, Rusia, Israel, Corea del Sur y Australia) han demostrado no estar dispuestas a comprometerse.
Una de las razones es que muchos dentro del Pentágono ven un mayor uso de la IA en las fuerzas armadas, incluidos los sistemas no relacionados con armas, como algo vital e inevitable. Argumentan que una prohibición retrasaría el progreso de Estados Unidos y perjudicaría su tecnología a adversarios como China y Rusia. La guerra en Ucrania ha demostrado cuán rápido la autonomía en forma de drones desechables y baratos, que se vuelven más capaces gracias a los algoritmos de aprendizaje automático que los ayudan a percibir y actuar, puede ayudar a proporcionar una ventaja en el conflicto.
A principios de este mes, escribí sobre la misión personal del CEO de Google, Eric Schmidt, de desarrollar inteligencia artificial en el Pentágono para garantizar que Estados Unidos no se quede atrás de China. Fue solo una historia que surgió de mis meses informando sobre los esfuerzos para adoptar la IA en los sistemas militares críticos y cómo se convirtió en el centro de la estrategia militar de los EE. UU., incluso si muchas de las tecnologías involucradas seguían siendo incipientes y no probadas en una crisis.
Lauren Kahn, investigadora del Consejo de Relaciones Exteriores, acogió con beneplácito el nuevo anuncio de EE. UU. como un componente potencial para un uso más responsable de la IA militar en todo el mundo.
contenido de Twitter
Este contenido también se puede ver en el Sitio Surge de.
Algunas naciones ya poseen armas que operan sin control humano directo en circunstancias limitadas, como defensas antimisiles que necesitan reaccionar con una velocidad sobrehumana para ser efectivas. Un mayor uso de la IA podría significar más escenarios en los que los sistemas funcionan de forma autónoma, por ejemplo, cuando los drones operan fuera del alcance de las comunicaciones o en enjambres demasiado complejos para que los maneje un ser humano.
Aún así, algunas declaraciones sobre la necesidad de IA en armas, especialmente de compañías que desarrollan la tecnología, son un poco exageradas. Ha habido informes sobre el uso de armas totalmente autónomas en conflictos recientes y sobre la asistencia de la IA en ataques militares dirigidos, pero esto no se ha verificado y, de hecho, muchos soldados pueden desconfiar de los sistemas que se basan en algoritmos que están lejos de ser incorrectos.
Sin embargo, si las armas autónomas no se prohíben, su desarrollo continuará. Esto hará que sea imperativo garantizar que la IA en cuestión se comporte como se espera, incluso si aún no se ha perfeccionado la ingeniería necesaria para poner en funcionamiento completamente las intenciones como las del nuevo anuncio de EE. UU.