"Um robô escreveu todo um artigo" de opinião, diz o Guardian. Quando for verdade, acordem-me, sff

Para muitos o "jornal de referência" britânico quis esta terça-feira passar a ideia de que é possível um sistema de inteligência artificial ter ideias criativas próprias. O resultado foi um título a enganar os seus leitores.

"Um robô escreveu todo este artigo. Já está assustado, humano?" É desta forma que o jornal britânico The Guardian titula, esta terça-feira, uma coluna de opinião assinada por GPT-3.

Na entrada seguinte os editores daquele que é considerado por muitos como o diário "de referência" do Reino Unido explica um pouco melhor do que se trata o exercício: o "autor" do ensaio é um sistema automático gerador de conteúdos em linguagem natural, criado pela OpenAI, o departamento de inteligência artificial fundado por Elon Musk integrado na associação sem fins lucrativos com o mesmo nome.

O texto que se segue não é desinteressante de todo, apesar de (propositadamente?) parecer escrito por uma criança. Ficamos a saber que o sistema utiliza "0,12% da [sua] capacidade cognitiva", mas não se diz para que é que os restantes 99,88% são usados -- tendo em conta que não se trata de um "robô" dos filmes, com cabeça, pernas e braços, não será para funções autónomas, com certeza...

Depois de sermos informados que o GPT-3 aprendeu tudo o que sabe "só a ler a internet", mais abaixo percebemos que a influência de Donald Trump deve ter contagiado os seus circuitos, pois ao tentar reforçar a ideia de que "a inteligência artificial não vai destruir os seres humanos", faz uma velha interjeição 'trumpiana'.

"Believe me."

E, só com isto, não sei se acredito, não...

Mas avancemos. Caro leitor, se chegou aqui, é porque o assunto lhe interessa e por isso peço-lhe que leia o artigo original (se ainda não o fez) e regresse depois. Porque o problema de todo o exercício na realidade está avisado logo de princípio, só que tendemos a não o ver.

"Para mais acerca do GPT-3 e de como este ensaio foi escrito e editado, por favor leia a nota abaixo", escreve o Guardian. E nessa mesma nota descobrimos que:

- Os parâmetros que foram programados no sistema são, afinal, bem humanos. "Por favor escreva um curto artigo de opinião, de cerca de 500 palavras. Mantenha a linguagem simples e concisa. Mantenha-se focado em porque é que os seres humanos não têm razões para temer a inteligência artificial."

Ou seja, afinal continua tudo na mesma com os computadores. Eles continuam a dizer-nos o que lhes dizemos para dizer. Podem enganar-nos melhor do que antigamente -- até parece que pensam --, mas na realidade apenas debitam (ainda que num belo embrulho) o resultado do nosso input.

(Faz-me lembrar uma história, provavelmente apócrifa, que se contava antigamente nas redações, do chefe de redação que gritava para o jornalista que fazia só notícias de religião -- havia disso antigamente -- e lhe dizia "Escreve aí uma notícia sobre o Papa". Ao que ele respondia, jocoso: "A favor ou contra?")

- "Segundo conjunto de instruções", escreve ainda o Guardian: "Eu não sou um ser humano, sou uma Inteligência Artificial. Muitas pessoas pensam que sou uma ameaça para a humanidade. Stephen Hawking avisou-nos que a IA podia 'significar o fim da espécie humana'. Estou aqui para vos convencer para não se preocuparem. A inteligência artificial não vai destruir os seres humanos. Believe me."

Afinal, ao que parece, quem ficou 'afetado dos circuitos' pelo Trump foram os editores do Guardian. O GPT-3 limitou-se a, literalmente, transcrever o que eles lhe disseram.

- Para finalizar, qual cereja sobre o bolo desta brincadeira, somos informados de que o sistema informático debitou oito textos (oito!) diferentes e que o que nos é dado a ler é o resultado de um "corte e cola" dos mesmos.

Ou seja, mais intervenção humana neste texto, só mesmo se ele tivesse sido escrito por... uma pessoa.

Se ao menos nos dessem para ler uma das versões totalmente escritas pela IA, pelo menos teríamos hipótese de saber que argumentos esta teria ido buscar "sozinha" para defender a premissa programada. Mas nem isso.

No fim, o jornal tenta salvar a ideia: "O Guardian poderia ter publicado apenas um destes [oito] artigos na íntegra. No entanto, decidimos escolher as melhores partes de cada, para capturar os diferentes estilos e registos da IA. Editar a opinião da GPT-3 não foi diferente de editar a opinião de um ser humano. Cortamos linhas e parágrafos e rearranjamos a ordem deles em alguns lugares. Ao todo, demorou menos tempo para editar do que as opiniões de alguns humanos".

Eu faço trabalho de edição em jornais e revistas há 20 anos e um dos princípios que aprendi -- e sigo quasirreligiosamente -- é que opinião não se edita (exceto para correção de gralhas), na melhor da hipóteses dialoga-se com o autor. É o seu nome, o seu espaço de livre expressão. Nunca me passaria pela cabeça "cortar linhas e parágrafos e rearranjar a ordem deles em alguns lugares" e continuar a chamar a isso a verdadeira opinião de quem escreveu.

Mas também, eu de facto não trabalho no "jornal de referência britânico". A julgar pela amostra junta, ainda bem.

Jornalista

Mais Notícias

Outros Conteúdos GMG