A questão da privacidade na era da Inteligência Artificial volta a estar no centro do debate público, após alegações virais sugerirem que o Google estaria a utilizar o conteúdo dos e-mails pessoais dos utilizadores para treinar o seu modelo de IA, o Gemini. A gigante tecnológica reagiu este fim de semana, classificando as informações como "enganadoras" e esclarecendo a distinção técnica entre as suas ferramentas de produtividade e o treino de modelos de linguagem.A controvérsia teve origem num artigo publicado -- e posteriormente corrigido -- pela empresa de segurança Malwarebytes. O relatório inicial sugeria que a ativação das "Funcionalidades Inteligentes" do Gmail implicava um consentimento automático para a utilização de dados privados no desenvolvimento do Gemini. A notícia espalhou-se rapidamente pelas redes sociais, alimentada pelo receio crescente de que dados pessoais estejam a alimentar, sem controlo, os grandes modelos de linguagem (LLM na sigla inglesa).Em declarações ao portal The Verge, Jenny Thomson, porta-voz do Google, garantiu: "Estes relatos são enganadores. Não alterámos as definições de ninguém, as Funcionalidades Inteligentes do Gmail existem há muitos anos e não utilizamos o conteúdo do Gmail para treinar o nosso modelo de IA Gemini".Qual foi a confusãoA Malwarebytes acabou por emitir uma correção, admitindo que a reformulação recente da documentação do Google induziu em erro os seus analistas. A empresa de segurança notou que a linguagem vaga utilizada pela tecnológica, associada ao termo "inteligente" (Smart Features), levou muitos a assumir uma ligação direta à Inteligência Artificial Generativa, numa altura em que o Gemini está a ser integrado em quase todos os produtos da marca.As "Funcionalidades Inteligentes" em questão referem-se, na realidade, a algoritmos de processamento local que operam no Gmail há vários anos. Estas ferramentas são responsáveis pela filtragem automática de correio não solicitado (spam), pela categorização de mensagens nas abas "Promoções" e "Social", e pelas sugestões de resposta automática (Smart Compose). Segundo a documentação técnica da empresa, estes processos são distintos do treino de modelos fundacionais de IA.Processo judicial agrava desconfiançaO incidente ocorre num momento delicado para o Google. Pesquisas recentes indicam que esta polémica coincide temporalmente com uma proposta de ação judicial coletiva (class-action lawsuit) apresentada num tribunal federal em San José, na Califórnia.O processo alega que o Google poderá ter dado ao Gemini acesso indevido a dados do Gmail, Chat e Meet sem o consentimento explícito e informado dos utilizadores. A ação judicial argumenta que a empresa estaria a transformar a privacidade num sistema de opt-out (ativo por defeito), forçando o utilizador a procurar definições obscuras para proteger a sua informação, o que violaria estatutos de privacidade estaduais.Opções de controlo para o utilizadorApesar das garantias de que os dados não são usados para "ensinar" a IA, a arquitetura do Gmail permite aos utilizadores desativarem o processamento algorítmico das suas mensagens.Especialistas em privacidade notam que, através do menu de definições gerais do Gmail, é possível localizar a secção "Funcionalidades inteligentes e personalização". Embora o Google afirme que esta opção deve estar desativada por defeito para novos utilizadores, relatos anedóticos sugerem que muitos encontram a funcionalidade ativa nas suas contas. Ao desativar esta opção, o utilizador impede a análise de conteúdo para fins de funcionalidades automáticas, embora tal resulte numa experiência de e-mail mais manual e menos filtrada.Este episódio serve como um lembrete da tensão constante entre a conveniência das ferramentas digitais modernas e a opacidade dos termos de serviço que as regem.