Inteligencia Artificial, seguridad y defensa

El avance de la IA obligará, probablemente, a que las doctrinas militares evolucionen para integrar completamente los sistemas autónomos en las tácticas de combate

08 de Octubre de 2024
Actualizado a las 12:16h
Guardar
Inteligencia Artificial Seguridad Defensa

La inteligencia artificial (IA) aplicada a los sectores de seguridad y defensa está transformando la manera en que se gestionan las amenazas y se protegen infraestructuras críticas. En este contexto, resulta fundamental comprender el impacto y las aplicaciones de la IA, así como sus potencialidades y limitaciones.

La IA ha experimentado avances significativos desde mediados del siglo XX, con hitos clave como la superación del Test de Turing (1950), que plantea la pregunta sobre si una máquina puede hacerse pasar por un humano.

A lo largo de las décadas, la IA ha evolucionado desde sistemas capaces de vencer a jugadores de ajedrez, como Deep Blue en 1997, hasta modelos complejos de aprendizaje automático y generativo.

Actualmente, la IA es utilizada en diversas áreas, desde la automatización de tareas hasta la identificación de patrones ocultos en grandes cantidades de datos.

IA en la Seguridad

 La IA ayuda a procesar datos complejos, identificar patrones ocultos y gestionar información relevante para prevenir delitos y cibercrímenes.Además, es utilizada para apoyar a los analistas en la toma de decisiones, ayudando a interpretar datos y generar predicciones sobre posibles comportamientos delictivos o anomalías. Estos sistemas permiten a los operadores militares tomar decisiones críticas más rápidamente en situaciones de alta presión (IISS) y (CNAS).

Respecto a los modelos predictivos y de simulación, se emplean para prever comportamientos en áreas como la ciberseguridad y la criminología, basándose en la identificación de tendencias y comportamientos previos. Estos modelos ayudan a predecir posibles ataques cibernéticos o comportamientos anómalos en infraestructuras críticas.

IA en la Defensa

Los modelos de simulación generados por IA ayudan a preparar a las fuerzas armadas en escenarios complejos y cambiantes, simulando múltiples variables que impactan en las decisiones estratégicas. La IA es utilizada en el desarrollo de armas que operan de forma autónoma y en la identificación de objetivos en operaciones militares. Este tipo de sistemas son capaces de realizar ataques precisos basados en análisis en tiempo real.

En operaciones militares, la IA permite reducir la exposición del personal propio a situaciones de riesgo mediante sistemas de automatización y vehículos no tripulados que pueden realizar tareas peligrosas.

Conflicto de Ucrania

La IA ha sido utilizada para procesar imágenes satelitales y fuentes abiertas, lo que ha permitido a las fuerzas ucranianas rastrear y localizar movimientos rusos con una precisión y rapidez sin precedentes. Esto ha sido clave en la identificación de infraestructuras críticas y en el monitoreo de tropas en movimiento.

Los drones controlados por IA se han utilizado en Ucrania tanto para misiones de reconocimiento como de ataque, permitiendo a las fuerzas ucranianas realizar ataques precisos sin intervención humana directa. Estos dispositivos se comunican entre sí y toman decisiones sobre los ataques en tiempo real, lo que aumenta la eficacia y reduce los tiempos de respuesta.

La IA también ha sido utilizada para mitigar ciberataques rusos contra infraestructuras civiles y militares, analizando en tiempo real grandes cantidades de datos para identificar vulnerabilidades y detectar intentos de intrusión.

Conflicto en Gaza

Israel ha utilizado IA en sus operaciones militares para identificar tanto objetivos materiales como humanos, mediante el análisis de datos en tiempo real. Estos sistemas, integrados con múltiples sensores y plataformas de reconocimiento, han mejorado la precisión de los ataques en áreas urbanas densamente pobladas. Aunque estos sistemas han sido efectivos, se han generado controversias debido a los errores en la identificación de objetivos, lo que ha ocasionado más víctimas civiles que militares. Estos errores suelen deberse a la dificultad de los sistemas de IA para distinguir entre civiles y combatientes en áreas densamente pobladas.

En Gaza, los drones y sistemas de IA pueden coordinarse entre sí para realizar ataques conjuntos sin intervención humana directa, acelerando la toma de decisiones y aumentando la eficacia en el campo de batalla.

La IA y las fuerzas de defensa de Israel

Un caso reciente y preciso del uso de IA es la implementación por parte de las Fuerzas de Defensa de Israel (IDF) de sistemas de inteligencia artificial para mejorar su ciclo de identificación de objetivos durante las operaciones en Gaza. Estos sistemas aceleraron la identificación y selección de objetivos en tiempo real, permitiendo a los analistas militares reducir el tiempo de revisión de los mismos, aunque este uso suscitó controversias debido a la posible reducción en la intervención humana y los errores en la precisión de los ataques. Este tipo de tecnología también ha sido criticada por su potencial para generar decisiones automatizadas con riesgos de causar bajas civiles, lo que ilustra los retos éticos que deben ser abordados en la aplicación de IA en conflictos.

Proliferación de tecnologías militares avanzadas

Un claro ejemplo de cómo las tecnologías utilizadas en un conflicto pueden ser replicadas por otros actores ocurrió con los drones marinos suicidas, que inicialmente fueron usados por las fuerzas ucranianas para atacar buques rusos. Recientemente, los Hutíes en Yemen han empleado esta misma tecnología para atacar y hundir petroleros en el Golfo Pérsico.

Del mismo modo, la tecnología usada por Ucrania para enviar drones contra fuerzas rusas ha sido adoptada por Irán, que la ha utilizado para atacar a Israel, demostrando cómo estas tecnologías se difunden rápidamente y son adoptadas por diversos actores en diferentes regiones.

Retos y consideraciones éticas

Un problema común en los modelos de IA es la presencia de sesgos en los datos con los que se entrenan, lo que puede generar resultados inadecuados o discriminatorios. Los datos con los que se entrena un modelo deben ser lo suficientemente representativos para evitar sesgos que puedan afectar el comportamiento de los sistemas. Y el racismo es un elemento primordial al definir las futuras víctimas.

La IA aún no puede replicar la intuición y las emociones humanas, elementos cruciales en la toma de decisiones complejas, particularmente en situaciones de seguridad y defensa. Aunque los modelos de IA son altamente precisos, carecen de la capacidad para comprender contextos éticos o morales complejos.

Se plantea, por tanto, el desafío de definir la responsabilidad en el uso de sistemas autónomos, especialmente en contextos militares y frente a civiles. La generalización de fallos en la identificación de objetivos plantea preguntas sobre quién es responsable en caso de errores catastróficos y de las “víctimas colaterales”.

Futuro de la IA militar

Se espera que la IA juegue un papel crucial en la guerra cibernética, no solo para defender infraestructuras, sino también para llevar a cabo ataques ofensivos automatizados. Este tipo de IA podría detectar, atacar y neutralizar sistemas enemigos en tiempo real sin intervención humana.

Un área emergente es el uso de IA para gestionar la logística militar, optimizando la distribución de suministros y la gestión de recursos en medio de campañas militares complejas.

Con el avance de la IA, es probable que las doctrinas militares evolucionen para integrar completamente los sistemas autónomos en las tácticas de combate. El uso de vehículos autónomos, tanto aéreos como terrestres, podría convertirse en una práctica estándar en las operaciones futuras.

En definitiva, a pesar de los avances en IA, el analista humano sigue siendo esencial en la validación y supervisión de los modelos de inteligencia artificial, garantizando su correcto funcionamiento y utilidad. La intervención humana es crucial para corregir errores que puedan surgir de datos sesgados o inexactos, y también aporta un juicio ético y moral que las máquinas no pueden replicar. Esto es especialmente relevante en entornos donde las decisiones automatizadas pueden tener consecuencias graves, como en conflictos bélicos. La experiencia, pero, hasta el momento, la podemos calificar de absolutamente negativa.

La inteligencia artificial no es una solución mágica, sino una herramienta que complementa y potencia las capacidades humanas en la gestión de la seguridad y la defensa. Es importante no sobreestimar sus capacidades. En conflictos como Ucrania y Gaza, la IA ha sido una herramienta clave para mejorar la precisión y eficiencia; es decir, se mata más y más rápido, y sobretodo más friamente y desde más lejos. Pero con la misma frialdad y lejanía moral que tenían los soldados SS de los campos de concentración alemanes.

Lo + leído