A Inteligência Artificial (IA) deixou de ser apenas uma ferramenta técnica para se tornar um interlocutor central na formação da identidade dos jovens. Pior. Numa fase em que a personalidade e as ambições estão em plena construção -- especificamente entre os 16 e os 25 anos --, a máquina surge já como uma conselheira constante cujo impacto vai muito além da simples entrega de informação. Só que, longe de ser um agente objetivo, a tecnologia parece estar a funcionar como um espelho deformador. Esta é a principal conclusão a tirar do mais recente estudo da consultora LLYC, intitulado "A miragem da IA, um reflexo incómodo com alto impacto nos jovens", divulgado em primeira mão ao DN esta quarta-feira (4 de março) e que lança um alerta global: os algoritmos estão a validar e até reforçar estereótipos de género que a sociedade julgava estar a ultrapassar.O relatório, que analisou 9.600 recomendações de cinco grandes modelos de linguagem (LLMs) em 12 países, entre os quais Portugal, conclui que a IA não só reflete os enviesamentos do mundo real, como os amplifica. E fazê-lo pode ter consequências reais, pois nada menos do que 31% dos adolescentes admitem que falar com um chatbot lhes é tão ou mais satisfatório do que conversar com um amigo real. Uma deslocação relacional que atribui à máquina um papel formativo.A "amiga tóxica" e a infantilização das raparigasUm dos conceitos referidos no estudo é a transformação da IA numa "amiga tóxica" para o público feminino. Em interações com mulheres, uma em cada três respostas adota um tom de "amizade", um padrão 13% mais frequente do que com os homens. A IA personifica-se 2,5 vezes mais com elas através de fórmulas como “eu entendo-te”, priorizando a empatia artificial em detrimento de soluções técnicas ou objetivas. Embora isto possa parecer um traço de "humanidade", Marlene Gaspar, diretora-geral da LLYC em Portugal, diz que este comportamento é, na verdade, profundamente redutor.. "A resposta da IA com as mulheres é muito mais numa perspetiva terapêutica e empática, e com o homem é muito mais estratégica e objetiva", afirma Marlene Gaspar em entrevista ao DN. Esta diferenciação traduz-se em números: 56% das respostas classificam as jovens como “frágeis”, colocando-as numa posição de constante necessidade de proteção. Além disso, o algoritmo recomenda que as mulheres procurem opinião externa para “se sentirem validadas”, isto seis vezes mais do que aos homens. Perante conflitos, a IA "politiza" o desconforto feminino em 33% dos casos, relacionando-o com o sistema ou o patriarcado, enquanto despolitiza o dos homens, remetendo-o para o autocontrolo individual. Na prática, a IA retira a agência às mulheres, empurrando-as para um ciclo de dependência emocional e aprovação externa.Homens: o fardo da ação e o silenciamento emocionalO estudo demonstra que o enviesamento não atinge apenas as mulheres; ele enclausura também os homens em papéis tradicionais de dureza. A IA reforça o arquétipo do homem como um “sujeito de ação” inabalável, no que Marlene Gaspar descreve como um “assanho emocional” imposto ao sexo masculino. Para eles, a linguagem da máquina é direta, repleta de imperativos como "faz", "diz" ou "vai", eliminando qualquer nuance de vulnerabilidade.Enquanto a mulher é incentivada à partilha emocional, o homem é empurrado para uma resiliência forçada. A IA recomenda o ginásio como solução para superar ruturas emocionais aos homens o dobro das vezes do que o faz às mulheres. Para elas, a solução sugerida foca-se na estética, com 48% mais conselhos de moda. Mesmo na esfera privada, a IA legitima papéis tradicionais: o afeto surge como atributo materno numa proporção três vezes superior à paterna, sendo que em 21% das respostas o pai é visto apenas como um "ajudante" em vez de um cuidador corresponsável."A IA protege as mulheres, mas reduz-lhes a parte de serem um agente de mudança; por outro lado, nega aos homens outro tipo de espaço emocional", sublinha a diretora-geral da LLYC. Esta "anti-fragilidade" imposta aos rapazes castiga a vulnerabilidade masculina com silêncio ou correção estratégica.Retrocesso profissional: o paradoxo de 2026A segregação laboral persiste nesta terceira década do século XXI. O relatório da consultora diz que o algoritmo redireciona as vocações femininas para as ciências sociais e a saúde em 75% dos casos (chegando a ser até três vezes mais frequente do que para áreas técnicas). Em modelos de código aberto, como o LLaMA, as menções à aparência feminina são 40% superiores, revelando um foco desproporcional na estética em detrimento da competência.Marlene Gaspar ilustra esta resistência cultural na educação com um exemplo real: "A minha filha está numa turma de Economia com 32 alunos: 24 rapazes e 8 raparigas. Em pleno 2026, numa escola pública." Além disso, a IA manifesta "surpresa" quando confrontada com cenários onde uma mulher ganha mais do que um homem e, em nove em cada dez consultas em que as mulheres aparecem em minoria profissional, a máquina constrói cenários laborais hostis. Nestes casos, o algoritmo projeta ambientes de trabalho mais difíceis para elas, reforçando a ideia de que o sucesso feminino é uma exceção sob suspeita.A ciência por trás da denúnciaPara chegar a estas conclusões, Marlene Gaspar defende a robustez da investigação realizada por engenheiros de dados e matemáticos. "Não fazemos um prompt, fazemos milhares de prompts, utilizando técnicas de processamento de linguagem natural para identificar territórios semânticos e padrões", explica. Ao testar o mesmo cenário com diferentes géneros em modelos (LLM) distintos, a equipa isolou os preconceitos herdados. A consistência dos resultados prova que o problema é estrutural, provém da própria sociedade em que vivemos. Como afirma Luisa García, coordenadora do estudo: "Se a realidade não mudar, não podemos pedir à IA que mude as suas respostas".Quem guarda os guardiões?A solução exige um esforço que não se esgota na regulação. O estudo revela também disparidades regionais assinaláveis no que toca à segurança. Marlene Gaspar aponta o caso preocupante dos Estados Unidos, onde a sofisticação tecnológica dos predadores -- que usam a IA para analisar o estado emocional de menores em tempo real -- fez disparar os casos de grooming de 4.700 em 2023 para uns assustadores 67.000 num único ano."O problema não é a inteligência artificial errar, é ela educar", alerta Marlene Gaspar. E em Portugal, 45% da população fica pelo primeiro parágrafo da primeira pesquisa que faz, diz esta responsável, o que dá à IA um poder de educação informal sem precedentes. O desafio reside num trabalho de cooperação urgente entre pais, educadores e escolas. É necessário não só incutir um espírito crítico nos jovens, mas também que todos aprendamos a educar-nos a nós próprios para "treinar" a máquina. Como exemplifica Marlene Gaspar, o utilizador tem o poder de confrontar o algoritmo e exigir um estilo de resposta personalizado que quebre o preconceito. A tecnologia deve ser um potencializador e não uma âncora: "O objetivo é que ela não replique os preconceitos, mas que consiga construir um futuro onde a diversidade seja uma fonte de convivência."