Inteligencia artificial bélica podría dirigir guerras del futuro

Sin humanos que las controlen, las máquinas podrían dirigir actos bélicos por el mundo con el uso de la inteligencia artificial.

Artificial

Tal y como fue presagiado en el cine y los videojuegos, en las ferias especializadas de hoy en día las armas programables ya se ofrecen de manera habitual, pero no desde hace mucho tiempo. Y eso es bueno, alegan los activistas que ejercen presión a escala internacional para que las armas autónomas sean prohibidas. A sus ojos, aunque el desarrollo de la inteligencia artificial con fines bélicos avanza a grandes pasos, todavía hay tiempo para promulgar y hacer respetar leyes de alcance global que impidan su proliferación. Sin embargo, no todos comparten esta opinión.

Eso volverá a quedar en evidencia entre el 27 y el 31 de agosto, cuando los miembros de la comunidad internacional se reúnan en Ginebra para debatir sobre los Sistemas de Armas Letales Autónomas (LAWS, por sus siglas en inglés) o, en palabras del Comité Internacional de la Cruz Roja, los sistemas de armas que buscan y eligen sus blancos de manera independiente –sin intervención humana– para luego atacarlos o destruirlos. ¿Qué pasaría si el robot de un bando no sólo decide neutralizar los proyectiles de su rival, sino también asesinar civiles? ¿Es lo mismo un robot que busca, reconoce y desactiva minas, que uno dedicado a cazar, identificar y matar gente? No todos los Estados responden de la misma manera a esas preguntas.

Más allá de la ciencia ficción

Aunque la distinción entre combatientes y civiles es una de las reglas más trascendentales del Derecho de guerra, en tanto que obliga a los protagonistas de un conflicto a garantizar al máximo la protección de los civiles y de sus edificios, hay naciones cuyos Gobiernos se niegan a prohibir las armas autónomas de manera vinculante; los más reacios son los que más recursos invierten actualmente en el uso militar de la inteligencia artificial: Estados Unidos, Israel, Rusia y Gran Bretaña. Quien lleve la batuta en este ámbito dominará el mundo, dijo al respecto, Vladimir Putin. Mientras, en Washington, este tipo de armamento es hasta elogiado porque supuestamente contribuye a reducir el número de “daños colaterales” en el marco de un enfrentamiento.

Se presume que, cuando un soldado está abrumado por la información que recibe desde el frente, las computadoras pueden mantener su “mente clara” y cometer menos errores. Ese fue uno de los argumentos articulados por la delegación estadounidense en la última cita de Ginebra dedicada al tópico; Washington desaconsejó estigmatizar a estas armas.
Hasta ahora, sólo 26 Estados han favorecido la prohibición total de las armas autónomas; pero ellos cuentan con el respaldo de las 230 organizaciones y las tres mil personas que firmaron una petición alusiva puesta en circulación por el Instituto Future of Life, que reúne a científicos y empresarios célebres por sus trabajos sobre la inteligencia artificial.

Loading...