LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

Imaginemos una situación totalmente futurista: una coalición encabezada por EEUU dispuesta a erradicar el ISIS está asediando Raqa. La fuerza militar internacional libera un mortífero grupo de robots voladores que sobrevuelan la ciudad en busca del enemigo.

Haciendo uso de un sistema tecnológico de reconocimiento de identidad, los robots localizan y aniquilan a la cúpula del ISIS, lo que supone el principio del fin de la organización terrorista. Totalmente desmoralizados, los combatientes del ISIS son derrotados, reduciendo al mínimo la pérdida de vidas civiles y de las tropas aliadas. En ese caso, ¿quién pondría en duda el buen uso de la tecnología? Los expertos en inteligencia artificial son los que más saben sobre la tecnología necesaria para desarrollar ese armamento.

En una carta abierta publicada en julio del año pasado, un grupo de investigadores advertía de que la tecnología había alcanzado un punto en el que la puesta en marcha de Sistemas de Armas Autónomos Letales (Laws, por sus siglas en inglés) sería una realidad en cuestión de años, no décadas. A diferencia del armamento nuclear, estos sistemas podrían producirse en masa, convirtiéndose en los "Kalashnikov del mañana". "Será solo cuestión de tiempo que aparezcan en el mercado negro y que caigan en manos de terroristas, de dictadores deseosos de controlar a sus ciudadanos y de señores de la guerra que quieran llevar a cabo una limpieza étnica", explicaban. "Empezar una carrera armamentística basada en la inteligencia artificial no es una buena idea y debería contenerse con una prohibición del armamento autónomo que escapa al control humano".

Para empezar, EEUU ya ha renunciado al uso de armamento autónomo. Este mes, 94 miembros de Naciones Unidas se reunieron en Ginebra para redactar un acuerdo internacional que limitara su uso. El principal motivo es de carácter ético: dar a los robots licencia para acabar con vidas humanas supone cruzar un límite que siempre debería respetarse. Jody Williams, que ganó el premio Nobel de la Paz por hacer campaña contra las minas antipersonales, es la portavoz de la Campaña para detener a los robots asesinos. En su opinión, el armamento autónomo es más peligroso que las armas nucleares. ¿Dónde vamos a llegar si pensamos que es correcto ceder el poder de decidir sobre la vida y la muerte a un robot? Además del planteamiento ético, hay otras cuestiones que resultan preocupantes. ¿Reduciría el uso de robots asesinos el número de bajas en una batalla aumentando a su vez las posibilidades de un conflicto? ¿Cómo podría contenerse la proliferación de este tipo de sistemas? ¿Quién sería responsable en el caso de que algo fallara?

El problema es que, cuanto más de cerca se examina la posibilidad de su uso en una situación de conflicto, más difícil resulta establecer los límites morales. Los robots (con una autonomía limitada) ya se han desplegado en el campo de batalla para fines muy concretos, como la desactivación de minas y los sistemas antimisiles. En este sentido, todo apunta a que uso tendrá un crecimiento exponencial. El Centro para una nueva Seguridad Americana calcula que el gasto global en robots militares alcanzará los 5.700 millones de dólares anuales de aquí a 2018, dato que contrasta con las previsiones de gasto de robots de uso industrial y comercial, que ascienden a 43.000 millones de dólares. El organismo, que opera desde Washington, apoya el desarrollo de estos sistemas, argumentando que pueden "mejorar la capacidad de aventajar a los adversarios". Con el lenguaje aséptico que le caracteriza, la industria armamentística hace una clara distinción entre los distintos niveles de autonomía. El primero incluye a los drones que utilizan EEUU y otros ejércitos. Aunque un dron es capaz de identificar un objetivo, para activarlo es necesario que una persona presione un botón. En el segundo nivel de autonomía, las personas supervisan sistemas ofensivos robotizados como las baterías antimisiles. El tercer tipo, que corresponde al de los drones con plena autonomía, es potencialmente el más peligroso y seguramente el más fácil de prohibir. Los expertos en inteligencia artificial deberían sin duda tener un reconocimiento por haber sacado a la luz este debate. Como en tantas áreas, nuestra sociedad, antes de controlar, todavía tiene que asimilar los impresionantes avances tecnológicos de los que está siendo testigo.

Fuente Financial Times

No estás registrado para postear comentarios



Redes:



   

 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Formulario de acceso

Filtro por Categorías