Este artículo tiene como finalidad que los padres, adolescentes y jóvenes conozcan que la Inteligencia Artificial es negativa en muchos aspectos para adolescentes, jóvenes, niños y ancianos porque desvirtúan la realidad íntima.
Creando figuras bellísimas de chicas jóvenes que dan pié a enamoramientos ficticios que con voz y escritura a través de Internet se interrelacionan adolescentes, jóvenes y ancianos con esas bellas figuras llegando a desvirtuar la realidad y cometiendo peligros y hasta la muerte.
El que escribe es socio de Amnistía Internacional y se basa en un documento de dicha ONG, de la que toma textos y citas.
Para iniciar el artículo tomamos la noticia de televisión por la cual un niño de 14 años se suicida porque se enamora perdidamente de una chica hecha con inteligencia artificial con la que hablaba y le dijo que si no estaba con ella se suicidaba y la chica artificial le contestó que ella haría lo mismo, y se suicidó el adolescente.
La IA es negativa para niños, jóvenes y ancianos.
Según Beatriz Martos, responsable de Amnistía Internacional de campañas sobre tecnología, escribió lo siguiente:
"En la era digital, la inteligencia artificial se ha convertido en una herramienta poderosa que moldea y afecta la vida de la juventud de formas inimaginables. Detrás de la promesa de mejorar sus vidas, también se esconden ejemplos alarmantes de malos usos que pueden tener un impacto profundo y preocupante como lo demuestran los siguientes ejemplos".
Aplicaciones que desnudan a niñas sin su consentimiento.
"Recientemente escuchamos con sorpresa y horror cómo en el pueblo extremeño de Almendralejo, hasta 20 niñas habían sido víctimas del uso de una aplicación que usa inteligencia artificial para "desnudar a chicas gratis".
Esta aplicación, que fue descargada y utilizada por varones menores del propio entorno de las víctimas, , plantea una problemática seria. Su principal característica es que permite la creación de imágenes de desnudos falsos que son extremadamente realistas, lo que incluso puede ser considerado como pornografía infantil. La única condición requerida para crear estos desnudos falsos es que la persona objetivo (en este caso la chica que se pretende desnudar en la imagen), aparezca sola en la foto y no lleve ropa de abrigo.
Lo que agrava aún más la situación es que esta aplicación fue utilizada sin el conocimiento ni el consentimiento de las víctimas, que desconocían que sus imágenes estaban siendo manipuladas de esta manera.
Una vez creadas estas imágenes falsas, fueron difundidas sin el consentimiento de las víctimas, tanto a través de aplicaciones de mensajería como en las redes sociales. Este tipo de violencia sexual realizada a través de la IA es muy grave pues viola el derecho a la intimidad personal, al honor y a la propia imagen de las víctimas y puede tener graves consecuencias emocionales y sociales en ellas".
Mensajes incendiarios que roban tus datos personales y obtienen ganancias económicas
De acuerdo con la misma fuente, "redes sociales como Tik Tok o Instagram, habituales en la vida diaria de millones de jóvenes, basan su modelo de negocio en vender los datos personales segmentados de sus usuarios/as. Cuanto más interactúen los/as usuarios/as con la red social (dando a like, guardando publicaciones, enviándolas, escribiendo comentarios, subiendo contenido, etc.) más datos personales son recopilados y vendidos, violando el derecho a la privacidad, a la libertad de expresión, a la igualdad y la no discriminación de menores de edad.
Un ejemplo de su mal uso se vio en los peligrosos algoritmos de Meta, propietaria de Facebook, que contribuyeron sustancialmente a las atrocidades perpetradas por el ejército de Myanmar contra la población rohinyá en 2017. Así lo afirmamos en nuestro informe: La atrocidad social. Meta y el derecho a un recurso para la comunidad rohinyá que detalla que Meta sabía o debía haber sabido que los sistemas de algoritmos de Facebook estaban impulsando la difusión de contenido dañino antirrohinyá en Myanmar, pese a lo cual la empresa no hizo nada".
"En 2017, miles de personas rohinyás fueron víctimas de homicidio, tortura, violación y desplazamiento como parte de la campaña de limpieza étnica de las fuerzas de seguridad de Myanmar. En los meses y años que desembocaron en las atrocidades, los algoritmos de Facebook intensificaron una tormenta de odio contra la población rohinyá que contribuyó a la violencia en el mundo real", señaló Agnès Callamard, secretaria general de Amnistía Internacional.
Niñas y mujeres rohinyás fueron violadas en masa en Myanmar debido al sistema de algoritmos usados por Facebook, y es que está demostrado que los mensajes negacionistas o que promueven discursos de odio provocan una mayor interacción de los/as usuarios/os".
Ten cuidado con la tecnología de reconocimiento facial.
Amnistía Internacional a través de su responsable de campañas contra la tecnología indica:
"El cambio climático, la precariedad laboral, el encarecimiento de los precios, la falta de acceso a una vivienda, el desmantelamiento de la sanidad pública... lamentablemente no faltan razones para salir a protestar y reivindicar nuestros derechos. Eso sí, ten mucho cuidado con las tecnologías de reconocimiento facial utilizadas para reprimir las protestas y acosar a las comunidades minoritarias, pues las personas negras o pertenecientes a minorías étnicas corren mayor riesgo de ser identificadas erróneamente y arrestadas falsamente. En algunos de estos casos, el reconocimiento facial ha sido hasta un 95% inexacto. Incluso cuando "funciona", los agentes pueden atacar y acosar rápidamente a los y las manifestantes".
¿Eres joven y buscas una hipoteca? ¡Atención al algoritmo!
Asímismo nos señala, que "si eres joven y buscas una hipoteca, puede ser que el banco no te la otorgue porque el algoritmo que utiliza para evaluar las solicitudes de préstamos bancarios decide que tú no eres apto para recibir una hipoteca, y no porque no tengas la solvencia suficiente o una determinada estabilidad financiera (muy común por otra parte en estos tiempos), sino porque eres menor de una determinada edad; porque eres mujer; porque no eres blanco o porque estás casado/a con una persona de tu mismo sexo.
Esto se debe a que existe una ausencia de representación de personas que no son blancas, de jóvenes y de mujeres en el apartado de datos históricos, debido a que tradicionalmente eran los hombres blancos los que trataban con las entidades bancarias, por lo que si en el momento de crear este tipo de sistemas algorítmicos no se advierte de esta infrarrepresentación histórica, el algoritmo asigna más riesgo a otro tipo de personas que se salen de esta categoría y reproduce el sesgo discriminatorio, denegando créditos".
¿Necesitas que tu hijo/a o hermano/a vaya a la guardería para tú poder trabajar y/o estudiar? ¡Ojalá el algoritmo no le deje fuera!
En este sentido Beatriz Martos indica que "cada vez más gobiernos están automatizando la prestación de servicios públicos, utilizando sistemas algorítmicos para decidir a quién se le deben otorgar subvenciones sociales o quiénes cumplen con las condiciones necesarias para formar parte de un determinado programa social. Estos sistemas algorítmicos pueden reproducir sesgos discriminatorios y rechazar tu solicitud de plaza en las guarderías públicas si provienes de una minoría étnica o tienes otra nacionalidad, como ya salió a la luz en los Países Bajos, donde se excluyó a miles de progenitores/as y cuidadores/as de familias, principalmente de ingresos bajos, de plazas en escuelas infantiles públicas".
Desde Amnistía Internacional exigen:
Investigación y rendición de cuentas de gobiernos y empresas que usan la tecnología para silenciar activistas.
La vigilancia digital ilegítima, la censura y los cierres de Internet deben ser impedidos.
Regulación efectiva de las grandes empresas tecnológicas para proteger los derechos humanos.
Las grandes corporaciones deben aumentar su transparencia y su responsabilidad en posibles violaciones de derechos humanos.
Transparencia en el uso de algoritmos para la toma de decisiones que afectan de manera crucial a nuestras vidas y reparación efectiva en casos de discriminación y reproducción de prejuicios.
Prohibición del desarrollo, venta y uso de los sistemas de reconocimiento facial, de emociones y del lenguaje corporal utilizados para reprimir las protestas y acosar a las comunidades minoritarias.
Les dejo enlaces para completar el artículo:
El uso excesivo de la inteligencia artificial debilita nuestra memoria y reduce la capacidad para pensar críticamente y resolver problemas de manera independiente - Real Academia Nacional de Medicina" https://www.ranm.es/area-de-prensa/5132-el-uso-excesivo-de-la-inteligencia-artificial-debilita-nuestra-memoria-y-reduce-la-capacidad-para-pensar-criticamente-y-resolver-problemas-de-manera-independiente.html
¿Cómo afectará la inteligencia artificial (IA) a los niños? - HealthyChildren.org" https://www.healthychildren.org/Spanish/family-life/Media/Paginas/how-will-artificial-intelligence-AI-affect-children.aspx
10 desventajas de la inteligencia artificial a tener en cuenta - ISDI España" https://www.isdi.education/es/blog/desventajas-de-la-inteligencia-artificial
El impacto de la inteligencia artificial en los menores - Impulso06" https://impulso06.com/el-impacto-de-la-inteligencia-artificial-en-los-menores/
Nuestros menores: Riesgos de la inteligencia artificial y cómo abordarlos" https://www.pekecha.com/nuestros-menores-riesgos-de-la-inteligencia-artificial-ia-y-como-abordarlos/ Peligros de la inteligencia artificial para los niños