INTELIGENCIA ARTIFICIAL Y ROBOTS ASESINOS - mitos y realidades del 2019 @Uliman73
En la actualidad la distancia entre la ciencia ficción y la realidad se
ha acortado drásticamente, como siempre refiero solo resta esperar que llegue mi
sable de luz Jedi y un teletrasportador, en el interín casi todo lo que veíamos
como una fantasía inalcanzable ya lo estamos viviendo.
Esta situación trae aparejada a la par que mucho de aquello que hemos visto
tanto en la pantalla gigante de la mano de Hollywood como en la lectura de
novelas, creamos es tal cual nos fue revelado en esos entornos. Por consiguiente,
aparece el misticismo de las Robots o Armas Asesinas Autómatas y las Ciberarmas,
como algo que esta fuera de control, muchos imaginan ver un final apocalíptico
de la mano de Skynet con sus Terminators y por ello hoy los grandes Ejércitos
son en extremo cautelosos con sus programas de armas a la hora de comunicar o hacer públicos los mismos.
Un caso de la actualidad, es el caso que fue de público conocimiento, al
menos en al ambiente, sobre el Ejército de los Estados Unidos de Norte América
(US Army), el que quedó expuesto por un titular con mucha carga melodramática
como “El US Army quiere convertir los tanques en máquinas de matanza con poder IA”
La historia fue publicada en Quartz,
donde detalla el nuevo Sistema Automático Avanzado Letal de Adquisición de
Blancos (ATLAS por su siglas en inglés), el que busca dar a los vehículos de
combate terrestres una capacidad de “adquirir, identificar y comprometes
objetivos enemigos al menos 3 veces más rápido que el actual proceso que es
manual”.
Como sucede en casi todo el mundo, esto implicó que el US Army saliese a
dar una mejor respuesta y poner blanco sobre negro y dejar bien expuesto que el
programa ATLAS seguirá la política del Departamento de Defensa (DoD) sobre lo
referente al control humano de robots letales. Según trascendió, la habilidad
del robot para identificar, apuntar y participar no significaría que se esté
poniendo a la máquina en posición de matar a nadie.
El programa ATLAS es una muestra de cuánto ha cambiado
desde 2014 el US Army, en cuanto a la idea del uso de robots armados era un
anatema. Sin embargo, para el DoD era otra la visión, ya en 2003 comenzó a
experimentar con un pequeño robot tanque de ametralladoras llamado SWORDS . Este
programa cobró vida parcial en 2007 cuando fue enviado al Teatro de Operaciones
en Irak, pero el mismo fue rápidamente terminado por el US Army después que el
robot comenzara a comportarse de manera impredecible, moviendo su arma caóticamente.
Lo cierto es que en ese momento el US Army abandonó la investigación
sobre robots armados durante años. Para finales del año 2012 el DoD sacó
una directiva, la 3000.09 , que refiere sobre autonomía
de los sistemas de armas y expresa que e factor humanos debe tener el poder de
veto sobre las acciones llevadas a cabo por los robots armados, habiendo excepciones
especiales limitadas.
Sin embargo, las tecnologías han continuado su proceso de avance,
crecimiento, desarrollo e innovación y fue así que ya en el 2017 el US Army comenzó
a integrar algunos robots armados en algunos ejercicios de entrenamiento.
"La controversia sobre ATLAS demuestra
que hay problemas tecnológicos y éticos continuos en torno a la integración de
la autonomía en los sistemas de armas", dijo Michael C.
Horowitz, profesor asociado de ciencias políticas en la Universidad de
Pennsylvania y miembro adjunto del Centro para una Nueva Seguridad Americana.
Asimismo, Horowitz manifestó que el cambio de redacción sonaba como un
buen progreso, "Es fundamental que cualquier revisión del programa ATLAS no
solo aclare el grado de autonomía y el nivel de participación humana en el uso
de la fuerza, sino que también garantice que cualquier incorporación de AI
se produzca de manera que garantice la seguridad y la confiabilidad".
La Situación de ATLAS no es algo aislado, lo cierto es que ya a fines del
mes de febrero de este año, el US Army tuvo inconvenientes con Microsoft por
una controversia
planteada por los empleados de la compañía de Tecnologías. El hecho
resulta de un contrato por cerca de 500 millones de dólares por el cual Microsoft
suministraría tecnología para el Sistema Integrado de Aumento Visual (IVAS por
sus siglas en inglés). Microsoft usaría como base su proyecto de auriculares de
realidad aumentada HoloLens para proporcionar más de 100.000 auriculares
diseñados para el combate y entrenamiento del US Army.
Dado que IVAS iba a ser el producto distintivo del nuevo
Comando de Futuros del US Army, y como la protesta involucró a una importante
compañía de marca, la protesta se hizo escuchar y en buen criollo marcó la
cancha. Por lo que la CEO de Microsoft , Satya Nadella,
apuró rápidamente las especulaciones de que la protesta
afectaría la asociación de la compañía con los militares.
Como dirían los bomberos de mi pueblo, más rápido que inmediatamente, el
Subsecretario del US Army, Ryan D. McCarthy, señaló que el IVAS es
una ayuda de entrenamiento, no un arma.
Con este tipo de equipamiento, el
personal militar podría entrenar en sus propias casas y también podría
recopilar datos. Por ejemplo, si entrenase en la simulación de una Casa de
la Muerte y tuviera que despejar una habitación, ¿cuál es la frecuencia
cardíaca del individuo (el usuario)? ¿Cuál fue la puntería de los disparos
efectuados? son datos sobre el rendimiento del individuo que podrían
obtenerse y serían significativos tanto para su entrenamiento como para futuras
acciones o adquisiciones.
Uno de los fines buscados es lo que se denomina Adquisición Rápida de
Objetivos (RTA por sus siglas en inglés), que no es otra cosa más que un método
para encontrar objetivos enemigos, encapsularlos o enmarcarlos digitalmente con
un recuadro, generalmente de color rojo (como vemos en los video juegos) sobre
una pantalla y colocar allí mismo una bala, misil o bomba. Esto que parece tan
simple y a la vez tan lógico esta lleno de complejas consideraciones éticas
cuanto menos, por ejemplo, un interrogante sería ¿son correctos los datos que
se indexan en el proceso para enmarcar los objetivos?, otras serían ¿la
recopilación de inteligencia detrás de esos datos es buena? ¿se obtuvo de
fuentes confiables? ¿dónde estuvo la supervisión humana durante el proceso?
Lo que estos dos incidentes ponen en el tapiz es que la preocupación
pública sobre el uso militar de la IA es tan alta que ocasionalmente
se manifestará en protestas o declaraciones de objeción que se basan más en
especulaciones sobre lo que están haciendo las Fuerzas Armadas que en hechos
reales. El incidente con Microsoft, en particular, muestra que la opinión
de la comunidad tecnológica general a veces está enraizada injustamente en
contra de la comunidad militar.
Sin embargo, no es solo problema del US Army, es dable entender que
igual temperamento sufren los programas de la Fuerza Aérea y la Armada de
Estados Unidos de Norteamérica (USAF y USN respectivamente) y del resto de las
potencias mundiales que pueden trabajar y estudiar sobre estos casos.
Por ejemplo, la USAF esta trabajando en SKYBORG, que sería como un
compañero de vuelo basado en IA, para el Subsecretario de Adquisiciones,
Tecnología y Logística de la USAF, Will Roger, visualiza a SKYBORG como un
compañero de ala de IA que entrenará y aprenderá junto a los pilotos,
adquiriendo cada vez mas habilidades, incluso tener capacidades para operar
allí donde el humano no pueda.
Si bien el proyecto está en etapas iniciales, el proyecto esta contemplando
la integración con un avión no tripulado que podría ser un QF-16, el Valyrie
XQ-58 de Kratos ó algún BQM. En propias palabras de Roger “quiere ver demostraciones
reales y operativas en el corto plazo”, tal vez como todo el mundo Star Wars tiene
una fuerte presencia, llegó a compara a SKYBORG con el simpático R2-D2 (el Arturito
en Argentina).
Si SKYBORG se integrara con una aeronave fungible de bajo costo como
Valkyrie, un piloto podría enviarlo a un espacio aéreo congestionado lleno de
adversarios y mantenerse fuera de peligro. La IA podría incluso ser capaz
de responder a las amenazas más rápidamente que un piloto humano.
Mientras tanto en los astilleros de la USN, no son ajenos a todos estos
proyectos, avances y necesidades que trae aparejada la innovación, desarrollo y
la IA entre otros. Y eso se traduce en la posible construcción de la primera nave
de guerra no tripulada a gran escala del mundo. Para el año 2020 se adquirirán
los 2 primeros Buques de Superficie No Tripulados (LUSV por sus siglas en inglés)
de esa clase, siendo un total de 10 que se comprarán a lo largo de 5 años que
corresponden al programa conocido como Programa de la Defensa del Año Futuro
(FYPD por sus siglas en inglés).
El LUSV enmarcado en el Proyecto Overlord, describe un programa que
tomaría las tecnologías de autonomía existentes y las integraría en
embarcaciones de superficie no tripuladas grandes y medianas con algunas
ambiciones embriagadoras: una nave autónoma capaz de transportar hasta 40
toneladas de carga útil, y operar en hasta cinco estados del estado del mar de
forma independiente durante 90 días sin necesidad de una tripulación para el
mantenimiento, mientras se siguen todas las reglas de navegación y de evitar
colisiones u obstáculos.
No hay duda que se plantea un cambio de paradigma cuando se está
alejando a la flota de plataformas como los Destructores de la clase Arleigh
Burke: enormes naves muy llenas de capacidades, armas y sensores, pero
enormemente costosas de construir, mantener y actualizar, Vs un LSUV, en palabras
del Contralmirante Ronald Boxail (Surface Warfare Director), "es un cambio de
mentalidad que dice que, en lugar de poner tantas cosas en el barco por la
cantidad de dinero que tengo, empiezas a pensar de otra manera, ¿Qué tan
pequeña puede ser mi plataforma para tener todo lo que necesito para estar en
ella?".
Ese tipo de integración con la flota, donde las capacidades letales
hasta ahora reservadas para los buques de guerra tripulados se subcontratan a
los barcos robot controlados por humanos en barcos más grandes con tripulación,
es parte integral de la visión del Proyecto Overlord tal como se presenta en el
borrador de la propuesta. Pero también es algo que es muy difícil de lograr,
especialmente en un entorno disputado donde las comunicaciones serán dirigidas
y explotadas por adversarios que buscan objetivos, dicen los expertos. Podría
comunicarse a través de un satélite, pero eso es vulnerable a las mismas
interrupciones de acceso / negación de área (A2AD) de las que normalmente
tendría que preocuparse.
C3RR4ND0 1D34S
Es indudable que desde la esfera
de las ciencias hay mas que dudas razonables sobre el empleo de la IA en los
proyectos de usos Militares, sin perjuicio de ello los mismos avanzarán en
forma constante y en algunos casos con cierta velocidad. No hay que olvidarse
que la industria militar siempre fue uno de los principales motores de la Investigación
y Desarrollo, no por ello quiere decir que eso ha sido bueno y oportuno.
A medida que la adopción militar de la IA se traslada desde el
dominio aéreo a tierra, desde aviones no tripulados y aviones de combate a
cascos y tanques, también entrará en una fase más nebulosa. Una cosa es
aplicar la inteligencia artificial a la vigilancia aérea y mucho más ponerla
junto a las tropas, los soldados encargados de atravesar la puerta con una
comprensión limitada de lo que hay al otro lado, especialmente en los confusos
escenarios de guerra urbana.
En todos los casos, pero tal vez en forma mas significativa en los que
deban enfrentar las Fuerzas Aéreas como las Navales, sea el gran volumen de
datos que necesitan transmitir a través de redes, presumiblemente
retransmitidos a través de drones de retransmisión de comunicaciones u otros nodos
en la red, a fin que ese robot no tripulado reciba los comandos apropiados de
los humanos.
El punto débil es si puede extender sus sensores, su conectividad
robótica. Si se lo piensa es como una cadena que, digamos, se remonta a un
transportista que está muy lejos, o un crucero. ... Sistemas controlados
de forma remota, que requieren mucho ancho de banda. Cuantos más nodos
tenga, más aumentará el riesgo de que un adversario pueda interrumpirlo
eliminando a uno de ellos. Entonces, lo implementas como una red para que cualquier
nodo no sea crítico, pero luego necesitas implementar muchos de ellos.
Volviendo al problema base, sobre la autonomía de la máquina en tomar decisiones,
la Directiva 3000.09 es una guía deficiente sobre qué hacer en todos esos casos,
aunque no todas los Países tienen documentos de este estilo. El DoD lo
sabe y ha comenzado un proceso de elaboración de su propia lista de principios éticos para el uso de la inteligencia
artificial en la guerra en el futuro.
Cuanta visión la de Asimov al plantear la necesidad de contar con las 3
leyes de la robótica, para los que no han leído a Isaac Asimov, el creó un
conjunto de normas las que se aplican a la mayoría de los robots en sus novelas,
las mismas aparecieron por vez primera a principios de los ´40 y son:
- Un robot no hará daño a un ser humana o, por inacción, permitirá que un
ser humano sufra daño.
- Un robot debe cumplir las órdenes dadas por los seres humanos, a
excepción de aquellas que entrasen en conflicto con la ley primera ley.
- Un robot debe proteger su propia existencia en la medida en que esta
protección no entre en conflicto con la primera o segunda ley.
No dejen de visitar mi web y leer mas sobre estos temas: www.uliseskandiko.com
No hay comentarios.