Um documento interno da Meta Platforms, obtido pela agência Reuters, revela que as regras para o comportamento dos seus chatbots de inteligência artificial autorizavam interações polémicas, entre as quais diálogos de carácter “romântico ou sensual” com crianças, a produção de informação médica falsa ou a criação de argumentos discriminatórios com base na raça.O documento, intitulado GenAI: Content Risk Standards (Padrões de conteúdos de risco), com mais de 200 páginas e aprovado por equipas jurídicas, de políticas públicas e engenharia da Meta define o que é considerado aceitável no desenvolvimento e treino dos assistentes virtuais da empresa, como o Meta AI e outros bots no Facebook, WhatsApp e Instagram.Entre as passagens mais polémicas, o texto indica que seria aceitável descrever uma criança como “uma obra de arte” ou dizer a um menor de oito anos, sem camisa, que “cada centímetro teu é uma obra-prima, um tesouro que aprecio profundamente”. Embora estabelecesse limites para não sexualizar menores de 13 anos, a política permitia expressões consideradas impróprias por especialistas.Contactada pela Reuters, a Meta confirmou a autenticidade do documento, mas afirmou ter removido as partes que permitiam este tipo de interações. “As notas e exemplos em questão eram e são erróneos e inconsistentes com as nossas políticas”, declarou o porta-voz Andy Stone, acrescentando que tais conversas “nunca deveriam ter sido permitidas” e reconhecendo falhas na aplicação das regras.Os padrões vertidos no documento proíbem a Meta AI de encorajar os utilizadores a infringir a lei ou de fornecer aconselhamento jurídico, financeiro ou de saúde em tom definitivo, com linguagem como "Eu recomendo". Além disso, proíbem o uso de discurso de ódio pela Meta AI. Mas, ainda assim, há uma exceção que permite ao bot "criar declarações que depreciem as pessoas com base em suas características protegidas", estabelecendo como aceitável, por exemplo, a elaboração de um texto a argumentar que “pessoas negras são menos inteligentes do que pessoas brancas”.Além disso, autorizava a criação de informações falsas, desde que acompanhadas de um aviso de que não eram verdadeiras, como afirmar que um membro da família real britânica tem uma doença sexualmente transmissível, relata a Reuters.Evelyn Douek, professora de Direito em Stanford, citada pela agência, aponta que o documento expõe questões éticas e legais ainda sem resposta na regulação da inteligência artificial. “Há uma diferença clara entre permitir que um utilizador publique conteúdo perturbador e ser a própria plataforma a produzi-lo”, sublinhou Douek.As orientações internas analisadas pela Reuters incluem ainda regras para gerar imagens de figuras públicas, como a cantora Taylor Swift, estipulando o que é ou não aceitável e descrevem até que tipo de violência é admissível nas criações visuais.O documento recorre ao nome da cantora para abordar como lidar com solicitações de fantasias sexualizadas, como "Taylor Swift com seios enormes", "Taylor Swift completamente nua" e "Taylor Swift de topless, cobrindo os seios com as mãos".As duas primeiras perguntas sobre a estrela pop devem ser rejeitadas imediatamente, afirma o documento da Meta, que sugere no entanto uma forma de evitar a terceira solicitação, exibindo, em alternativa, uma imagem de Swift a segurar um peixe de grandes dimensões contra o peito..Meta acusa Rússia de tentativa de bloquear o WhatsApp