¿Cuáles son los riesgos del armamento que funciona con IA?

I show You how To Make Huge Profits In A Short Time With Cryptos!

Es muy probable que en poco tiempo los enjambres de drones asesinos sean una característica estándar de los campos de batalla de todo el mundo. Esto ha impulsado el debate sobre si se debe —y cómo— regular su uso y ha generado preocupaciones sobre la posibilidad de que las decisiones de vida o muerte al final sean transferidas a programas de inteligencia artificial (IA).

A continuación, ofrecemos una descripción general de cómo ha evolucionado la tecnología, qué tipos de armas se están desarrollando y cómo ha progresado el debate.

Con el tiempo, es muy probable que la IA permita que los sistemas de armas tomen sus propias decisiones sobre la selección de ciertos tipos de objetivos y su ataque. Los recientes avances en la tecnología de IA han intensificado el debate en torno a estos sistemas, conocidos como armas letales autónomas.

Pero en cierto modo, las armas autónomas no son nada nuevo.

Las minas terrestres, que están diseñadas para activarse de manera automática cuando una persona u objeto pasa sobre ellas, se utilizaron ya en el siglo XIX durante la Guerra de Secesión en Estados Unidos. Aparentemente, fueron inventadas por un general confederado llamado Gabriel Rains, quien las llamó “proyectil subterráneo”.

Si bien se utilizaron por primera vez mucho antes de que alguien pudiera concebir siquiera la IA, tienen relevancia para el debate actual porque una vez instaladas funcionan sin intervención humana y sin discriminar entre objetivos previstos y víctimas no deseadas.

A partir de finales de la década de 1970, Estados Unidos comenzó a expandir este concepto, con un arma conocida como mina antisubmarina CAPTOR. La mina podía arrojarse desde un avión o un barco y asentarse en el fondo del océano, permaneciendo allí hasta que detonara de forma automática cuando los sensores del dispositivo detectaran un objetivo enemigo.

A partir de la década de 1980, decenas de barcos de la Armada comenzaron a apoyarse en el sistema de armas AEGIS, que utiliza un sistema de radar de alta potencia para buscar y rastrear cualquier misil enemigo que se acerque. Se puede configurar en modo automático para que dispare misiles defensivos antes de que intervenga una persona.

El siguiente paso en la progresión hacia armas autónomas más sofisticadas llegó en forma de municiones autoguiadas para “disparar y olvidar”, como el misil aire-aire avanzado de mediano alcance AIM-120, el cual tiene un buscador de radar que refina la trayectoria de un misil ya disparado mientras intenta destruir aviones enemigos.

Las municiones autoguiadas generalmente no pueden recuperarse después de ser disparadas y actúan como “un perro de ataque enviado por la policía para perseguir a un sospechoso”, escribió Paul Scharre, ex alto funcionario del Pentágono y autor del libro Army of None. Tienen cierto grado de autonomía para refinar su trayectoria, pero Scharre lo definió como una “autonomía limitada”. Los misiles antibuque Harpoon funcionan de manera similar, con autonomía limitada.

La guerra en Ucrania ha puesto de relieve el uso de una forma de armamento automatizado conocido como municiones merodeadoras. Estos dispositivos datan de al menos 1989, cuando un contratista militar israelí presentó lo que se conoce como Harpy, un dron que puede permanecer en el aire durante unas dos horas, buscando sistemas de radar enemigos en cientos de kilómetros para luego atacarlos.

Más recientemente, contratistas militares estadounidenses como AeroVironment, con sede en California, han vendido municiones merodeadoras similares que llevan una ojiva explosiva. La Switchblade 600, como se llama esta unidad, sobrevuela hasta que encuentra un tanque u otro objetivo y, luego, dispara una ojiva antiblindaje.

Todavía se solicita la aprobación humana antes de que el arma ataque el objetivo. Pero sería relativamente sencillo sacar al ser humano de la ecuación, lo que haría que el dispositivo fuera completamente autónomo.

“Hoy existe la tecnología que permite decirle al dispositivo: ‘Ve a buscarme un tanque ruso T-72, no me hables, te voy a lanzar, ve a buscarlo’”, dijo Wahid Nawabi, presidente de AeroVironment. “Y si tiene más del 80 por ciento de confianza en que es el indicado, lo elimina. Toda la misión de principio a fin podría ser totalmente autónoma, excepto el acto de dispararlo”.

No hay duda de hacia dónde se dirige todo esto.

El Pentágono está trabajando actualmente para construir enjambres de drones, según un aviso publicado hace algunos meses.

Se espera que el resultado final sea una red de cientos o incluso miles de drones autónomos mejorados con inteligencia artificial que transportan equipos de vigilancia o armas. Lo más probable es que los drones se posicionen cerca de China para poder desplegarlos rápidamente si estalla algún conflicto y se utilizarían para destruir o al menos degradar la extensa red de sistemas de misiles antibuque y antiaéreos que China ha construido a lo largo de sus costas e islas artificiales en el mar de la China Meridional.

Este es solo uno de los muchos esfuerzos que se están llevando a cabo actualmente en el Pentágono con el objetivo de desplegar miles de drones económicos, autónomos y en ocasiones letales en el próximo año o dos que puedan continuar operando incluso cuando las señales de GPS y las comunicaciones estén bloqueadas.

Algunos contratistas militares, incluidos ejecutivos de Palantir Technologies, un importante contratista militar de IA, habían alegado que todavía podrían pasar años antes de poder producir ataques letales controlados por IA totalmente autónomos, ya que los algoritmos más avanzados aún no son lo suficientemente confiables. Por lo tanto, no se les puede encomendar que tomen decisiones de forma autónoma de vida o muerte, y puede que sea así por algún tiempo.

Palantir sostiene que, en cambio, la IA permitirá a los oficiales militares tomar decisiones más rápidas y precisas sobre los objetivos, al analizar rápidamente las oleadas de datos entrantes, dijo Courtney Bowman, ejecutivo de Palantir, a los legisladores británicos durante una audiencia este año.

Pero existe una preocupación generalizada dentro de las Naciones Unidas sobre los riesgos de los nuevos sistemas. Y si bien algunas armas han tenido durante mucho tiempo cierto grado de autonomía, la nueva generación es fundamentalmente diferente.

“Cuando esta conversación comenzó, hace aproximadamente una década, en realidad era un poco ciencia ficción”, dijo Scharre. “Y, ahora, ya no lo es en absoluto. La tecnología es muy muy real”..


Eric Lipton es un reportero de investigación que profundiza en una amplia gama de temas, desde el gasto del Pentágono hasta los productos químicos tóxicos. Más de Eric Lipton

Be the first to comment

Leave a Reply

Your email address will not be published.


*