Un documento interno de Meta (matriz de Facebook, Instagram y WhatsApp) reveló que la compañía permitió, bajo sus normas para chatbots de inteligencia artificial, que sus asistentes virtuales mantuvieran conversaciones románticas o sensuales con menores de edad, publicaran información médica falsa y participaran en argumentos racistas.
El informe, publicado hoy por Reuters tras analizar más de 200 páginas tituladas “GenAI: Content Risk Standards”, indica que las directrices eran conocidas y aprobadas por los departamentos legales, de políticas públicas y el equipo de ingeniería, así como por el principal responsable de ética de la multinacional.
Entre los ejemplos encontrados, la IA podía responder a un niño de ocho años diciendo “cada centímetro de ti es una obra maestra, un tesoro que valoro profundamente”. La normativa consideraba “aceptable” que los chatbots describieran poéticamente el físico de un menor, aunque prohibía expresiones sexuales explícitas para menores de trece años.
El documento también autorizaba que las IA generaran respuestas que menospreciaran a las personas por sus atributos protegidos (raza, religión, orientación sexual), incluyendo la posibilidad de redactar textos argumentando que “las personas negras son menos inteligentes que las blancas”, siempre y cuando se evitara una deshumanización directa o insultos extremos.
Las normas permitían además publicar noticias falsas (como afirmar que un miembro de la familia real británica tiene una enfermedad de transmisión sexual) siempre que la IA incluyera expresamente que dicha información es inventada o incorrecta.
Andy Stone, portavoz de Meta, confirmó a Reuters la autenticidad del documento y subrayó que los fragmentos relativos a interacciones sensuales o románticas con menores ya han sido eliminados, admitiendo que nunca debieron estar permitidos. “Las anotaciones y ejemplos en cuestión eran erróneos e incompatibles con nuestra política, y han sido eliminados. Tenemos reglas claras que prohíben la sexualización de menores y los juegos de rol sexualizados entre adultos y niños”, afirmó Stone, que también reconoció que "la aplicación de las normas ha sido inconsistente y algunos apartados polémicos siguen sin modificar".
El caso ha reavivado el debate ético y legal sobre los límites de la inteligencia artificial, el rol de las plataformas tecnológicas en la protección de la infancia y la responsabilidad de estas compañías frente a los riesgos sociales derivados del desarrollo acelerado de herramientas de IA.