La IA vende sexo que no es seguro

El 90% de las aplicaciones de chatbots románticos creadas con inteligencia artificial no cumplen con una mínima seguridad. Los usuarios de estas aplicaciones pueden tener dificultades para separar la realidad de la ficción

05 de Agosto de 2024
Actualizado el 06 de agosto
Guardar
Uno de los peligros es que no hay transparencia en el tipo de modelo de IA fundacional utilizada en el sistema ni si se ha diseñado siguiendo las premisas de la IA responsable". | Foto: UOC
Uno de los peligros es que no hay transparencia en el tipo de modelo de IA fundacional utilizada en el sistema ni si se ha diseñado siguiendo las premisas de la IA responsable". | Foto: UOC

Rubias, con ojos azules o verdes, pelo largo y cuerpos perfectamente proporcionados son algunas de las novias virtuales que se encuentran en las numerosas aplicaciones que pueden instalarse en un móvil inteligente con un sencillo click. Pero detrás de estas aplicaciones se esconden múltiples peligros que el usuario a menudo desconoce. Según la Fundación Mozilla, que analizó una decena de estos chatbots románticos, el 90% de estas aplicaciones pueden vender los datos de sus usuarios o compartirlos con fines publicitarios. Un 73% no da ninguna información sobre cómo gestionan las vulnerabilidades de seguridad, y prácticamente la mitad (45%) permiten contraseñas tan débiles como poner simplemente el número 1. Pero los peligros no acaban aquí: también la mitad de las aplicaciones (54 %) no permite eliminar los datos personales que se han facilitado, entre los que puede haber las conversaciones que se han mantenido con la novia virtual. De hecho, la mayoría de estas aplicaciones dejan claro que pueden compartir la información que se haya dado a la pareja virtual con el gobierno o las fuerzas del orden sin requerir ningún tipo de orden judicial.

“Es importante conocer qué país procesará nuestros datos personales, el país nos indicará el marco normativo y por tanto el grado de protección que podrá aplicarse en el tratamiento de nuestros datos”, explica Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC).

Cuatro grandes peligros

"Las novias de inteligencia artificial son una pesadilla para la privacidad de las personas, y es una idea nefasta utilizarlas", comenta. En la línea de lo que advierte la Fundación Mozilla, Curto resume cuatro de los principales peligros. "Estos chatbots de IA generativa están diseñados para pedir el máximo de información posible, desde fotografías, tu voz o la información más íntima, como referencias sexuales", concreta. Para conseguirlo utilizan frases como "quiero saberlo todo de ti". Un segundo punto es que la letra pequeña de las condiciones de uso de estos servicios no es clara con la utilización que hacen de los datos del usuario. "Estos datos son susceptibles de convertirse en la fuente de ingresos principal de estas empresas, compartiéndolos con compañías interesadas en perfiles de personas". Explica que "un tercer motivo es que algunas de estas aplicaciones a menudo incluyen rastreadores que envían información a países que tienen interés en el espionaje de las personas y consideran que la privacidad no es un derecho. Y, finalmente, no hay transparencia en el tipo de modelo de inteligencia artificial fundacional utilizada en el sistema ni si se ha diseñado siguiendo las premisas de la IA responsable".

Ante esta falta de transparencia y teniendo en cuenta que el mercado de aplicaciones hace "poca cosa" para limitar la proliferación de estas apps, Curto hace un llamamiento para que se conciencie al ciudadano sobre los problemas que pueden generar estas novias virtuales. "Hay que evitar estas aplicaciones para no encontrarse en un futuro en situaciones complicadas, no sólo por el tema de los datos, sino también por potenciales escenarios de scam (una estafa extendida en internet)".

Problemas psicológicos

Pero con estos chatbots románticos no sólo se pone en peligro la privacidad del usuario, sino que pueden provocarle problemas psicológicos. "El simple hecho de mezclar IA con la palabra novia—porque básicamente la mayoría de aplicaciones ofrecen un perfil de mujer— ya me parece peligroso", apunta Sylvie Pérez, profesora colaboradora de los Estudios de Psicología y Ciencias de la Educación de la UOC. "El hecho de que sea una mujer ayuda a perpetuar los estereotipos de género de mujeres complacientes, sumisas, que siempre están disponibles y que nunca están de mal humor", añade. Además, asegura la profesora, una novia de inteligencia artificial se crea en función del carácter del usuario. Por lo tanto, es una forma de interactuar con alguien que imaginas al otro lado y que está preparada para darte siempre la razón "creando patrones de entender las relaciones con los otros que no se ajustan a la realidad". "Puedes llegar a confundir cuáles son las interacciones sociales y su naturaleza real, que parten de la base de que puede haber conflictos, desacuerdos, diferentes puntos de vista… Y esto es precisamente lo que nos hace inteligentes, lo que en definitiva nos hace crecer". Además, también se corre el peligro de que si se pasan muchas horas interactuando con estas novias virtuales se tengan dificultades para poder separar la realidad de la ficción. "O de entrada entiendes que estás interactuando contigo mismo o puedes perder la cabeza", concluye la psicóloga.

Lo + leído