El uso potencial de la inteligencia artificial (IA) en distintos ámbitos es cada vez mayor, incluyendo el militar. Un asunto que conoce de cerca Shimona Mohan, investigadora asociada del Instituto de las Naciones Unidas de Investigación sobre el Desarme (UNIDIR).
Para la experta, es esencial que la aplicación de la IA esté supervisada por los seres humanos, y dados los sesgos de género que han observado, es fundamental que en ella participen tanto hombres como mujeres.
Desde el Instituto, Mohan lleva a cabo investigaciones en distintas áreas temáticas, ya sea la tecnología y seguridad, el desarme desde la perspectiva de las armas de destrucción masiva, las armas biológicas y químicas, así como el uso de armas en el espacio.
El objetivo es revelar brechas en la regulación que faciliten la elaboración de políticas más efectivas para hacer frente tanto a los sesgos de género, como a la frenética velocidad a la que evoluciona la tecnología.
"Cuando hablamos de género, seguridad y tecnología, nos referimos a cómo se diseñan y desarrollan tecnologías que tienen fines de seguridad y si existen descuidos de género en torno a ello. También estamos analizando quién fabrica estas tecnologías; si esos equipos son diversos y representativos, si sus miembros entienden las sensibilidades de género y si garantizan que sus productos no tengan ningún sesgo".
En 2019, sólo alrededor de un tercio de los diplomáticos en cualquier foro importante sobre el desarme eran mujeres. Y esta cifra no ha cambiado mucho desde entonces. De hecho, en los foros más pequeños y en los más especializados, como los que giran en torno a las tecnologías de seguridad, sólo una quinta parte de los diplomáticos presentes en la sala son mujeres.
La investigación de Mohan analiza "dónde están las brechas, cómo se han desarrollado y cómo podemos colmarlas para asegurarnos de que el género siga siendo parte de la conversación".
Tecnología sexista
Los impactos negativos de la desigualdad de género en el desarme y las tecnologías emergentes son una realidad. Dice Shimona Mohan que muchos de los ejemplos en torno a la tecnología de seguridad "provienen de espacios civiles, porque la tecnología es la misma. La misma tecnología que usas, por ejemplo, en tu iPhone para el reconocimiento facial es el tipo de tecnología que se utiliza en un dron sin tripulación para atacar objetivos militares en el campo de batalla. Así que la tecnología no cambia, pero su uso sí. Y debido a esa diferencia en la aplicación, también podemos prever algunos de los efectos dañinos que pueden surgir como resultado, especialmente cuando hablamos de género".
Ahora, explica la experta, "sabemos por muchas conversaciones sobre inteligencia artificial que hay un sesgo de género establecido, que se ve agravado continuamente por el tipo de datos y algoritmos que se utilizan en ella, y también por las personas que la programan".
Destaca como ejemplo el sistema de tarjetas de crédito de Apple, que se consideró inherentemente sexista por la forma en que otorgaba calificaciones crediticias bajas a las mujeres en comparación con los hombres. No había ninguna otra diferencia entre las mujeres y los hombres que solicitaban préstamos a través del sistema de tarjetas de crédito, además del hecho de que eran mujeres. Una vez que esto salió a la luz, Apple retiró ese sistema y tuvo que solucionarlo.
"Ahora tenemos la AI generativa, que se ha convertido en un tema de conversación muy importante desde 2022. Hemos visto ChatGPT y aplicaciones de generación de imágenes como Midjourney y Dali, y todas tienen prejuicios de género que están integrados inadvertidamente en el sistema. Así, por ejemplo, en las versiones iniciales de ChatGPT, si le preguntabas, cuéntame una historia sobre una niña y un niño, te decía que el niño se convirtió en un médico que tuvo mucho éxito, fue muy reconocido en su campo, etc. Y para la niña, decía que era muy hermosa, muy bonita. Se convirtió en una ama de casa genial. Así que ese era el tipo de sesgo que se incorporó a estos conjuntos de datos, sin la supervisión de las personas que los estaban creando. Y cuando OpenAI les llamó la atención también intentaron arreglarlo. Pero, si se hace de forma aislada, los intentos de arreglarlo no cambian realmente todo el modelo", detalla.
El 92% de los desarrolladores son hombres
Pero, ¿cómo es posible abordar los sesgos inherentes incluso a nivel político?
"Desde una perspectiva sustantiva, analizamos lo que entra en el sistema y lo que viene como resultado. Por lo tanto, si está codificando sesgos, ya sea deliberados o inadvertidos, esos sesgos también generarán resultados sesgados. Esa es la perspectiva sustantiva. Así es como vemos cómo se comportan estas máquinas, cómo se construyen estas tecnologías. La segunda forma en que pensamos en ellos, es a través de perspectivas participativas. ¿Quién está en la habitación cuando se diseñan? ¿Qué tan diverso es ese equipo? ¿Qué tan sensible y consciente es del género?"
En ciberseguridad, sólo alrededor del 25% de la fuerza laboral son mujeres. Y cuando se habla de ingeniería de software, ese nivel desciende aún más, ya que alrededor del 92% de los desarrolladores de programas son hombres, lo que luego tiende a retratar el tipo de cultura laboral en la que prevalecen los prejuicios, sea intencional o no. Eso se convierte en algo que después se codifica en los sistemas, pero se ignora. Dice Mohan que "la manera de contrarrestar ese tipo de sesgo es tanto desde una perspectiva sustantiva como participativa. Ese es el tipo de recomendación que hago en mi investigación".
Militarización de la inteligencia artificial
Es muy difícil definir cómo se emplea la inteligencia artificial en los campos de batalla. Simplemente porque la tecnología cambia cada pocos años y es difícil hacer un seguimiento de cómo lo ha hecho. La misma inteligencia artificial de la que hablábamos hace diez años no es de la que hablamos hoy. Como resultado, la forma en que se ha empleado en los campos de batalla también ha cambiado.
Una de las tecnologías más comunes de la que se habla cuando nos referimos a inteligencia artificial militar es la de los sistemas de armas autónomos letales. Son sistemas en los que hay muy poca o ninguna supervisión humana. Y esto puede ser en forma de vehículos no tripulados, aéreos o terrestres o vehículos ecológicos.
Aparte de la perspectiva del campo de batalla, también está lo que respecta al funcionamiento logístico y administrativo del ejército, ya sea en la planificación, en la gestión de datos, y en cualquier sistema que utilice la inteligencia artificial para facilitar y acelerar la tarea militar.
Esto también incluye, por ejemplo, los traductores en algunas aplicaciones de inteligencia artificial que se usan en las fronteras nacionales. Muchos soldados están ahora equipados con estas herramientas instantáneas que traducen entre dos idiomas en la frontera en tiempo real.
"Ahora tenemos toda esta nueva serie de tecnologías bajo la inteligencia artificial generativa. Y, como resultado, el potencial para su aplicación ha aumentado. Dado que esta tecnología es mucho más poderosa, hay mucho más potencial de casos de uso de aplicaciones de lo que nosotros podemos observar. Estamos analizando cómo utilizamos la tecnología tanto en el campo de batalla como fuera de él. Los mismos sistemas que tienes en Netflix que recomiendan ver qué ver a continuación, pueden emplearse en situaciones de campo de batalla para recomendar un curso de acción determinado a los comandantes y operadores".