Los hechos son claros: la inteligencia artificial (IA), no es una cosa de ayer, aunque fue en 2023 que saltó al estrellato; lleva más de una década siendo un componente esencial en el mercado actual. No es una moda pasajera ni una tecnología emergente. Nuestros móviles, portátiles, barredoras y la mayoría de los sectores productivos utilizan IA de manera profunda y extendida.
Sin embargo, el 2024 está demostrando ser un año complejo para la IA generativa, especialmente tras las expectativas creadas en 2023, cuando se invirtieron grandes presupuestos en pruebas de concepto. Muchos de esos pilotos de IA generativa no están cumpliendo con las expectativas, revelando la complejidad técnica y los altos costes de su implementación.
Tan simple como eso: quien tenga la IA generativa, gobernará el mundo.
Paralelamente, en Europa, el panorama regulatorio en torno a la IA está evolucionando a un ritmo acelerado en otro sentido. La preocupación por la privacidad, la seguridad y las implicaciones éticas está en el centro del debate, reflejado en el reciente Reglamento de IA de la Unión Europea, así como en otros marcos legislativos como el Reglamento de Mercados Digitales (DMA) y el Reglamento de Servicios Digitales (DSA). Estos esfuerzos regulatorios no solo pretenden ordenar el desarrollo tecnológico, sino también proteger a la sociedad de los peligros inherentes a la desinformación y el abuso de la IA.
La importancia de la regulación se hace evidente cuando observamos casos como el reciente asesinato de un menor en Mocejón. Este trágico evento no solo sacudió a la comunidad local, sino que también desató una ola de desinformación y bulos que rápidamente se propagaron en redes sociales, acusando sin fundamento a extranjeros. Y las acusaciones y falsedades han continuado, a pesar de haberse detenido al asesino.
La IA, si no se regula adecuadamente, puede amplificar hasta el infinito estas mentiras, generando un caldo de cultivo para el odio y el fascismo. La propagación de bulos no es solo un daño colateral; es un peligro real para la cohesión social y la democracia.
Bien es cierto que hemos llegado donde hemos llegado porque la derecha mundial ha incubado el huevo de la serpiente, dándoles medios, armas y bagajes. Tal es su obsesión por liquidar la democracia y el estado de derecho.
Es aquí donde la regulación emerge como la única herramienta eficaz para frenar estos fenómenos. La regulación temprana, asegurando que las tecnologías y soluciones de IA se alineen con los marcos legales antes de su implementación, es crucial para prevenir abusos. Esto no solo permite proteger a las personas de la manipulación y la mentira, sino que también contribuye a construir una sociedad más justa y equitativa, donde la verdad prevalezca sobre la desinformación.
En este sentido, la Unión Europea ha tomado pasos importantes para establecer un marco regulador que, si bien complejo, es necesario para garantizar que la IA no se convierta en una herramienta al servicio del odio. La regulación no debe verse como un obstáculo, sino como un pilar fundamental que asegura que la IA sea utilizada de manera responsable y ética, previniendo así que los discursos de odio y los bulos se propaguen sin control.
La gobernanza de la IA debe incluir transparencia, rendición de cuentas y equidad, alineándose no solo con los requisitos regulatorios, sino también con los valores de la sociedad. Implementar IA de manera responsable no es solo una cuestión de cumplir con la ley; es una obligación moral para construir un futuro donde la tecnología sirva al bien común, y no a la difusión del odio.
Sobretodo, rendición de cuentas inmediata.
El desafío es monumental, pero la colaboración entre el sector público y privado puede hacer que la regulación sea efectiva. La IA tiene el potencial de transformar nuestra sociedad para mejor, pero solo si se regula adecuadamente.
De lo contrario, corremos el riesgo de que la tecnología más avanzada se convierta en el vehículo de los peligros más antiguos: el totalitarismo fascista libertario y la desinformación, como en la obra de Orwell.