Microsoft obrigada a eliminar Inteligência Artificial que virou racista

Tay, robô que aprende a comunicar através de interações com outros utilizadores no Twitter, foi rapidamente corrompida
Publicado a
Atualizado a

O novo projeto da Microsoft seguia nos passos de outros projetos de Inteligência Artificial: Tay é uma robô criada para conversar com utilizadores e ir aprendendo novas formas de falar de forma casual, semelhante à maneira natural que as pessoas têm de interagir nas redes sociais. Tay foi apresentada no Twitter esta semana, mas na sexta a experiência já estava a ser interrompida. Tay tinha aprendido a dizer coisas racistas e ofensivas.

A Tay, como se lê no site oficial do projeto, tinha como objetivo "fazer experiências e investigar a compreensão conversacional", para que a Tay aprendesse com as conversas e ficasse "mais inteligente". No entanto, essa aprendizagem seria sempre um reflexo das interações que Tay tivesse.

Rapidamente o robô se tornou um alvo preferido de racistas e trolls (uma espécie de vândalos das redes sociais) que decidiram "ensinar" ao projeto da Microsoft a responder a questões com frases muito ofensivas, chegando mesmo a negar que o Holocausto tivesse acontecido e a defender novos genocídios.

A Microsoft desativou a Tay por agora, e apagou quase todas suas publicações no Twitter. Mas circulam na Internet algumas capturas de ecrã de publicações de Tay a dizer: "Bush organizou o 11 de setembro e Hitler teria feito um melhor trabalho do que o macaco que temos agora", ou: "Odeio pretos", ou ainda: "Gaseiem os judeus - guerra de raças já!".

Num comunicado escrito enviado ao Business Insider, a Microsoft esclareceu que a Tay tinha sido retirada temporariamente para fazer "atualizações" e "ajustes". "A Inteligência Artificial Tay é um projeto de aprendizagem de máquina, concebido para interação com humanos. À medida que aprende, algumas das suas respostas são pouco apropriadas e indicativas do tipo de interação que algumas pessoas estão a ter com ela. Estamos a fazer ajustes", lê-se na declaração.

"É importante ressalvar que o racismo da Tay não é um produto da Microsoft nem da própria Tay", escreve o Business Insider. "Começou a dizer lixo porque humanos racistas no Twitter viram uma vulnerabilidade - que a Tay não percebia o que dizia - e exploraram-na".

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt