INTELIGENCIA ARTIFICIAL, ÉTICA Y DEFENSA, REQUIEREN COMO EJE A LA CIBERSEGURIDAD @Uliman73
En varias oportunidades he tratado el tema
del empleo de la Inteligencia Artificial (IA), en varias oportunidades su
empleo en el ámbito del campo de batalla y su desarrollo en las Fuerzas Armadas
como elemento de entrenamiento entre otros, también expuse sobre las cuestiones
éticas que se producen en el empleo de automatización y robotización, pero en
esta oportunidad la idea es conjugar todo ello y encontrar el eje que los sostienes
de momento.
Pero previo a ello, vale la pena ver como el mercado
de la IA está creciendo, independientemente del Covid19, a una velocidad sin
precedentes no vista desde la aparición de Internet comercial. Las
estimaciones varían, pero se supone que el mercado global de IA crecerá entre
un 30% y un 60% por año. El gasto en Defensa Militar en proyectos de IA,
obviamente en las Potencias o Países más desarrollados, está aumentando a un
ritmo aún mayor cuando se incorporan temas como IA portátil y sistemas que
dependen de la IA. Las inversiones en Defensa y Seguridad, como la
realidad aumentada, el reconocimiento automático de objetivos y la robótica
táctica, no avanzarían al ritmo actual sin la presencia de IA para respaldar la
realización de estos conceptos.
Para el
mundo de los negocios de la industria de Defensa y Seguridad, la belleza de la
economía es la capacidad de respuesta. Con una visualización o señal de
"orden de compra" identificada, el mercado trabaja para satisfacer la
necesidad del comprador. Las potentes señales de compra conducen a un
rápido desarrollo, implementación y despliegue de soluciones, sabiendo que el
tiempo de comercialización es importante.
Una
mirada con un gran sesgo de preocupación se basa en analogías anteriores cuando
el tiempo de comercialización prevaleció sobre intereses en conflicto, comprar
lo que se ofrece y no lo que se necesita. Un ejemplo son los primeros años
de Internet comercial, la introducción del control remoto del Control de Supervisión
y la Adquisición de Datos (SCADA por sus siglas en inglés) y la fabricación, y
el rápido crecimiento de las aplicaciones para teléfonos inteligentes. En
cada uno de estos casos, la seguridad no era lo primero en la mente del
desarrollador. El tiempo de comercialización era la prioridad. Esta
exposición aumenta con una búsqueda económicamente sólida de utilizar productos
comerciales estándar como sensores, conjuntos de chips, funciones, controles
eléctricos y dispositivos de almacenamiento que se pueden comprar en el mercado
civil por una fracción del costo.
El
Departamento de Defensa (DoD) de los Estados Unidos de Norteamérica ha adoptado
cinco principios éticos para la futura utilización de la IA por parte del DoD. Estos
principios son:
1.
Responsable,
2.
Equitativo,
3.
Trazable,
4.
Confiable y
5.
Gobernable.
El denominador común en estos cinco
principios es la ciberseguridad. Si la ciberseguridad de la aplicación de
IA es inadecuada, estos cinco principios adoptados pueden verse en peligro y ya
no dirigir la implementación del DoD.
La futura implementación de IA aumenta la
superficie de ataque radicalmente, y es preocupante la capacidad de detectar la
manipulación de los procesos, porque, para los operadores, los procesos de IA
subyacentes no se entienden o supervisan con claridad. Un sistema que
detecta objetivos a partir de imágenes o de una captura de transmisión de
video, donde la IA se usa para identificar firmas de objetivos, generará un
soporte de decisión que puede conducir a la destrucción de estos objetivos. Los
objetivos están comprometidos y neutralizados. Uno de los principios
éticos para la IA es "responsable". ¿Cómo nos aseguramos de que
la orientación sea precisa? ¿Cómo protegemos que ni el algoritmo esté
dañado o que los sensores no estén siendo manipulados para producir datos espurios? Se
convierte en una cuestión de seguridad.
En un
conflicto mayor, donde las fuerzas terrestres no pueden inspeccionar los
efectos en el terreno, el ciclo de retroalimentación que invalida las
decisiones respaldadas por la IA podría no llegar a los operadores en semanas. O
podría surgir después de que termine el conflicto. Es probable que un
sistema deshonesto produzca un apoyo de decisión espurio durante más tiempo del
que estamos dispuestos a admitir.
De los 5
principios, "equitativo" es el área de mayor control humano. Incluso
si controlar los sesgos integrados en un proceso es difícil de detectar, está a
nuestro alcance. "Confiable" se relaciona directamente con la
seguridad porque requiere que los sistemas mantengan la confidencialidad, integridad
y disponibilidad.
Si el
principio "confiable" requiere la verificación y prueba de
ciberseguridad, tenemos que darnos cuenta de que estos sistemas de IA son parte
de estructuras técnicas complejas con una amplia superficie de ataque. Si
se pone en peligro el principio "confiable", entonces
"rastreable" se vuelve problemático, porque si la integridad de la IA
es cuestionable, no es un hecho que "el personal relevante posea una
comprensión adecuada de la tecnología".
El principio "responsable" aún puede
ser válido, porque el personal desplegado toma decisiones sólidas y éticas
basadas en la información proporcionada, incluso si un sistema comprometido
alimentará información falsa al tomador de decisiones. El principio
"gobernable" actúa como salvaguarda contra "consecuencias no
deseadas". Lo desconocido es el tiempo desde el momento en que
ocurren consecuencias no deseadas y hasta que los operadores del sistema
comprometido entienden que el sistema está comprometido.
Es
evidente cuando un objetivo que debe ser golpeado se pierde repetidamente. Los
efectos pueden ser observados. Si no se pueden observar los efectos, ya no
es un hecho que se identifiquen las "consecuencias no deseadas",
especialmente en un fluido espacio de batalla multidominio. Un sistema de
IA comprometido para la adquisición de objetivos puede inducir a error a los
objetivos, adquiriendo no objetivos ocultos que son un desperdicio de recursos
y disponibilidad del sistema de armas, exponiendo a las fuerzas amigas para la
detección. El tiempo para detectar tal compromiso puede ser significativo.
Todos
estos supuestos, no son tan supuestos ya que he artículos previos hemos visto
como lo no deseado se ha materializado y como la falta de seguridad ha sido el
puntal para ataques o errores propios. No es válido desconocer la relevancia
que cobra la ciberseguridad, donde pasa a ser un elemento fundamental para el
éxito de la IA.
No hay dudas que la IA jugará un papel cada
vez más importante en todos los mercados, pero por sobre manera en la Industria
de la Defensa y la Seguridad. Asimismo, no cabe dudas que también será tema
central para los oponentes, adversarios tradicionales y/o “chicos malos” en
su búsqueda por comprometer esos sistemas y llevar adelante así su agenda.
No hay comentarios.