Elon Musk e especialistas pedem suspensão de grandes experiências de Inteligência Artificial

Carta aberta, assinada por mais de 1.000 pessoas até agora, incluindo Musk e o cofundador da Apple Steve Wozniak, foi motivada pelo lançamento do GPT-4 da empresa OpenAI

O magnata Elon Musk, dono do Twitter e da SpacEX, juntou-se a uma série de especialistas que pediram esta quarta-feira uma pausa no desenvolvimento de poderosos sistemas de inteligência artificial (IA) para dar tempo de garantir que eles sejam seguros.

Uma carta aberta, assinada por mais de 1.000 pessoas até agora, incluindo Musk e o cofundador da Apple, Steve Wozniak, foi motivada pelo lançamento do GPT-4 da empresa OpenAI, apoiada pela Microsoft.

A empresa diz que o seu modelo mais recente é muito mais poderoso do que a versão anterior, que foi usada para alimentar o ChatGPT, um bot capaz de gerar excertos de texto a partir de curtas informações.

"Sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e para a humanidade", diz a carta aberta, intitulada "Pause Giant AI Experiments" ("Suspendam as grandes experiências de Inteligência Artificial").

"Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que os seus efeitos serão positivos e os seus riscos administráveis", avisam os especialistas.

Musk foi um investidor inicial na OpenAI, passou anos no seu conselho de administração e a sua empresa de automóveis Tesla desenvolve sistemas de IA para ajudar a impulsionar sua tecnologia de condução autónoma, entre outras aplicações.

A carta, apresentada pelo Future of Life Institute, financiado por Musk, foi assinada por críticos proeminentes da IA, bem como por concorrentes da OpenAI, como o chefe da Stability AI, Emad Mostaque.

O pioneiro canadiano Yoshua Bengio, também signatário, alertou "que a sociedade não está pronta" para essa ferramenta poderosa e para os seus possíveis usos indevidos. "Vamos desacelerar. Vamos garantir que desenvolvemos melhores proteções", apelou, pedindo uma discussão internacional completa sobre IA e as suas implicações, "tal como fizemos com a energia nuclear e as armas nucleares".

Sistemas mais "confiáveis e leais"

A carta citou um blog escrito pelo fundador da OpenAI, Sam Altman, que sugeriu que "em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros".

"Nós concordamos. Esse ponto é agora", escreveram os autores da carta aberta. "Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o desenvolvimento de sistemas de IA mais poderosos que o GPT-4".

Os especialistas pedem que os governos intervenham e imponham uma moratória caso as empresas não concordem em suspender esses projetos.

Os seis meses devem ser usados para desenvolver protocolos de segurança, sistemas de governança de IA e reorientar a investigação para garantir que os sistemas de IA sejam mais precisos, seguros, "confiáveis e leais".

A carta não detalhou os perigos revelados pelo GPT-4. Mas alguns investigadores, incluindo Gary Marcus, da Universidade de Nova Iorque, que assinou a carta, há muito argumentam que os chatbots são grandes mentirosos e têm o potencial de serem grandes propagadores de desinformação.

Mais Notícias

Outros Conteúdos GMG