La Inteligencia Artificial tiene un lado oscuro

CapitalBolsa
Capitalbolsa | 28 dic, 2021 15:52 - Actualizado: 08:58
cbia militar

He escrito varios artículos sobre inteligencia artificial en el procesamiento de macrodatos. Hay muchos casos de uso, desde automóviles hasta robots. Sin embargo, la inteligencia artificial (IA) también se puede utilizar de forma negativa y destructiva. Puede integrarse en máquinas de matar (drones, armas inteligentes, incluso robots humanoides) que se desatan para causar estragos en las fuerzas armadas y la población civil.

Durante años, los ejércitos han estado utilizando inteligencia artificial para mejorar los vehículos existentes y el tiempo de reacción y la toma de decisiones de los pilotos en el campo de batalla. Por ejemplo, la IA se utiliza en el Mitsubishi X-2 Shinshin, el prototipo de caza furtivo japonés construido en 2016. La inteligencia artificial a bordo utiliza una serie de sensores en todo el avión para proporcionar información vital sobre el estado de cada componente y determinar la severidad de cualquier daño.

El avión militar ruso Sukhoi Su-57 también se basa en la inteligencia artificial, que analiza constantemente múltiples parámetros, como la calidad del aire y la presión, para proporcionar información sobre cómo estabilizar un avión que gira, así como anular cualquier maniobra del piloto que el sistema predice que cause un accidente.

Sin embargo, hasta hace poco tiempo, la IA solo amplificaba la información humana. Un soldado sigue siendo el cuello de botella en estos sistemas, incluso algo tan simple como descargar un arma lleva más tiempo cuando una persona y no un sistema automatizado impulsado por IA está a cargo. Estos milisegundos de demora a menudo significan la diferencia entre la victoria y la derrota, y los gobiernos del mundo son muy conscientes de ello. Quieren tener ventaja unos sobre otros, y la falta de estándares internacionales o documentos legales que rijan el uso de la IA en los sistemas de combate ciertamente alienta tales ambiciones. El resultado es el aumento constante de "incidentes", tanto documentados como indocumentados, en los que se han utilizado sistemas de armas autónomas letales, o LAWS.

Día de la infamia

La historia recordará marzo de 2021 como la fecha del primer uso documentado de una de esas armas. Un informe encargado por las Naciones Unidas afirma que un dron militar utilizado en 2020 en la guerra civil de Libia no estaba tripulado y era autónomo. Se enfrentó a militantes durante su retirada, sin requerir ninguna intervención de un operador humano.

Mayo de 2021 marca el primer uso de un enjambre de drones en combate. En este incidente, las Fuerzas de Defensa de Israel atacaron a miembros de la organización terrorista Hamas, desatando un enjambre de drones para atacar múltiples objetivos enemigos. Cuando se usa la frase "enjambre de drones", es importante indicar que esto no se refiere solo a varios drones. En un verdadero enjambre de drones, los drones tienen la capacidad de tomar decisiones autónomas basadas en información compartida por otras unidades cercanas.

El incidente de mayo de 2021 fue solo el comienzo. Varios países ya han incluido enjambres de drones en sus arsenales y los están integrando en operaciones militares. No hace falta decir que Estados Unidos es líder mundial en tecnología de enjambres. Comenzó con la demostración del enjambre Perdix de 2016, cuando un trío de aviones de combate F / A-18 Super Hornet lanzaron más de 100 drones al aire. Continuó con los drones X-61A Gremlin de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), que se lanzaron desde un portaaviones "nodriza", demostrando la funcionalidad del portaaviones para lanzar y recuperar una gran cantidad de drones pequeños, baratos y reutilizables.

Los desarrollos recientes incluyen enjambres de drones kamikaze y varios proyectos relacionados con el enjambre que forman parte del programa OFFSET (OFFSET) de tácticas habilitadas para enjambres de DARPA.

- Robots de patrulla

Pero no son solo los drones. También hay robots inteligentes. El simpático robot de Boston Dynamics, "Spot", está siendo utilizado actualmente por la policía de Hawái para detectar personas sin hogar que podrían estar infectadas con COVID-19.

En Singapur, los robots ya patrullan las calles, confiando en el software de reconocimiento facial para controlar el comportamiento “indeseable” (no respetar el distanciamiento social, fumar o estacionar bicicletas de manera inadecuada).

Si bien algunos pueden encontrar esto normal y no problemático, es fácil imaginar escenarios en los que los robots imponen no solo un comportamiento socialmente aceptable, sino cualquier otra cosa con la que hayan sido codificados. Darles rienda suelta a los civiles crea una sociedad distópica en la que los ejecutores basados en la inteligencia artificial garantizan la obediencia sin ninguna participación humana.

Además, recuerde que cualquier tecnología mencionada en esta columna, especialmente los enjambres de drones, puede y probablemente será utilizada como un mecanismo de control de multitudes, empleando contramedidas letales y no letales contra cualquiera que no cumpla con las reglas establecidas por gobiernos cada vez más autoritarios.

A diferencia de los policía humanos y el personal militar, la IA no tiene sentimientos. Sin ética. Sin sentido del valor de la vida humana. Procesa los datos; reacciona de acuerdo con la entrada sensorial y su algoritmo.

La IA no es perfecta. Hemos visto una y otra vez que la IA comete errores. En el futuro, estos errores probablemente costarán vidas, ya que la IA toma malas decisiones, apunta a "amigos", dispara contra civiles y cosas peores.

Al interactuar con el enemigo, es probable que la IA cometa actos que se considerarían atrocidades e infracciones de los tratados internacionales, ya que carece de la capacidad para comprender el contexto e interpretar situaciones de manera que dejen espacio para la interpretación y el cumplimiento de leyes y costumbres de guerra complejas. .

Finalmente, existe la escalabilidad como amenaza. Muchas de estas máquinas (especialmente los drones) son increíblemente baratas de producir y proliferar, especialmente a gran escala. Esto por sí solo las hace desproporcionadamente más poderosas que muchas armas actualmente disponibles en los arsenales militares convencionales. También los convierte en un elemento impredecible en el campo de batalla, uno que puede intensificar los conflictos internacionales de una manera que podría empujar a los países receptores a considerar tácticas de último recurso, incluida la reintroducción de armas de destrucción masiva.

- Hacer frente a los sistemas de armas autónomas letales

Ha habido un retroceso considerable contra los sistemas de armas autónomas letales: el sitio StopKillerRobots.org está dirigido por una coalición de organizaciones no gubernamentales que buscan prohibir preventivamente las armas autónomas letales. El Future of Life Institute (FLI) es otra organización de divulgación que, entre otros temas candentes de nuestra época, aborda los usos éticos de la IA.

Por último, incluso el secretario general de la ONU, António Guterres, dice que "las máquinas con el poder y la discreción de quitar vidas sin la participación humana son políticamente inaceptables, moralmente repugnantes y deberían estar prohibidas por el derecho internacional".

Sin embargo, no se equivoque: este freno ha hecho poco para detener lo que se llama la "carrera armamentista en la autonomía". Aunque la ONU ha expresado su desprecio por los sistemas de armas autónomas letales varias veces, y los militares estadounidenses, chinos, rusos y alemanes (y varios otros) han declarado que la creación de sistemas de armas autónomas letales no es su objetivo, la verdad es que la tecnología ya está aquí y probablemente para proliferar. Este tipo de armas proporcionan una ventaja que las fuerzas armadas del mundo simplemente no pueden ignorar.

Lo mismo ocurre con el uso de sistemas de armas autónomas letales en un entorno civil. En tiempos en los que los gobiernos compiten por un control más completo, cualquier dispositivo o arma que facilite ese tipo de control es más que bienvenido, y los sistemas de armas autónomas letales definitivamente encaja a la perfección. Como se demostró en Honolulu y Singapur, ya estamos viendo algunas aplicaciones inocuas de la IA que están preparando el escenario para configuraciones más elaboradas.

Robots vigilando nuestras calles, luchando en nuestras guerras. Eso es algo que no estoy especialmente deseando.

contador