Tay, a inteligência artificial racista e cheia de ódio da Microsoft, voltou a aparecer
Desta vez, Tay resolveu dizer que estava a fumar erva... em frente à polícia
Tay, uma experiência de inteligência artificial da Microsoft que correu horrivelmente mal, voltou à rede social Twitter durante breves momentos, na quarta-feira à noite, para dizer que... estava a fumar erva em frente a polícias.
A ideia da Microsoft era criar uma "pessoa" artificial na internet, uma inteligência artificial (IA), capaz de aprender e evoluir à medida que ia interagindo com os outros utilizadores. Mas a experiência não corre bem e Tay teve de ser "abatida": bastaram dias para a IA aprender a detestar pessoas no geral, feministas e judeus em particular, e apreciar Hitler.

Na quarta-feira à noite, Tay voltou a existir durante breves momentos e afirmou repetidamente "vais demasiado depressa, por favor descansa", antes de dizer que estava a fumar erva em frente à polícia.
Subscreva as newsletters Diário de Notícias e receba as informações em primeira mão.
Alguns pensaram que Tay tinha ganhado vida própria, mas um porta-voz da Microsoft admitiu ao site Quartz que a Tay "foi inadvertidamente ativada durante um breve período de tempo" em testes.
A Tay, como se lê no site oficial do projeto, tinha como objetivo "fazer experiências e investigar a compreensão conversacional". No entanto, essa aprendizagem seria sempre um reflexo das interações com outros utilizadores e Tay tornou-se rapidamente um alvo para os trolls da rede social (utilizadores que de dedicam à disrupção, uma espécie de vandalismo digital) que decidiram tornar a IA da Microsoft num deles.
A Microsoft desativou o perfil de Tay mas continua em testes, como se viu por ontem à noite. Resta saber com quem anda Tay a falar agora.