Sam Altman. Da crença no Juízo Final ao lugar mais poderoso da nova Inteligência Artificial
Em 2016, antes da eleição de Donald Trump como presidente dos Estados Unidos, um impetuoso Sam Altman disse aos fundadores da startup Shypmate que tinha um plano de contingência para sobreviver ao Juízo Final. A preparação incluía um depósito de armas, ouro, iodeto de potássio, antibióticos, pilhas, água, máscaras de gás fornecidas pelo exército israelita e uma propriedade nas montanhas do Big Sur, na costa central da Califórnia. Avisou-os de que vinha aí algo catastrófico: um vírus sintético mortífero, uma guerra nuclear, ou uma revolta da Inteligência Artificial contra os humanos.
Sete anos depois, Sam Altman é o rosto da revolução da Inteligência Artificial generativa que muitos pensam ser o início da catástrofe. A sua empresa, OpenAI, lançou o bot de conversação ChatGPT há precisamente um ano, abrindo as comportas da IA generativa.
Mas o executivo de 38 anos passou a última semana envolvido num dos casos mais bizarros de Silicon Valley: foi demitido na sexta-feira, contratado pela Microsoft na segunda e recontratado pela OpenAI na noite de terça. O processo foi ilustrativo da sua força. Fez um braço de ferro com o conselho de administração da empresa e ganhou, solidificando de vez o seu poder e papel central na nova era da IA.
"Ele é muito bom neste papel", disse ao DN Gerd Leonhard, CEO da The Futures Agency e autor do filme documental sobre Inteligência Artificial Look Up Now. "Ele provou ser um operador astuto. Nem sequer detém uma participação. Só quer o poder, não tem dinheiro metido nisto."
A demissão de Sam Altman pelo conselho de administração da OpenAI tem de ser enquadrada na estrutura pouco comum da empresa. Originalmente, foi criada como organização sem fins lucrativos para garantir que a IA beneficia a Humanidade. Em 2019, quatro anos depois, abriu uma subsidiária com fins lucrativos (mas com um limite para os lucros) chamada OpenAI Global, LLC, e nomeou Sam Altman para liderar a nova fase.
Foi daqui que surgiu o ChatGPT, DALL-E e produtos subsequentes no último ano. À medida que a IA generativa aqueceu e surgiram receios de que está a ser atirada para o mercado sem as salvaguardas necessárias, vários membros do conselho de administração mostraram-se alarmados.
O primeiro evento anual da empresa para programadores, que decorreu em São Francisco a 6 de novembro, terá sido a gota de água. O conselho votou para demitir Sam Altman e, em comunicado, disse que ele não tem sido transparente. Em causa está uma visão radicalmente diferente de como prosseguir: Sam Altman quer acelerar o lançamento de produtos e o conselho de administração defende uma abordagem cautelosa, devido ao potencial arrasador da tecnologia.
"A OpenAI foi deliberadamente estruturada para avançar a nossa missão: assegurar que a Inteligência Artificial Geral beneficia toda a Humanidade", disse o conselho de administração, em comunicado. "O conselho continua totalmente empenhado em servir esta missão", continuou. "Estamos gratos pelos muitos contributos do Sam na fundação e crescimento da OpenAI. Ao mesmo tempo, acreditamos que nova liderança é necessária à medida que avançamos."
Estas afirmações envelheceram mal, visto que apenas dias depois o mesmo conselho retrocedeu e sentou Sam Altman novamente no lugar de CEO, alterando a sua própria composição.
"A tentativa de golpe falhou", disse ao DN Shelly Palmer, especialista em IA e CEO do The Palmer Group. "O Sam está de volta."
No interregno, o que sucedeu foi uma revolta dentro da organização: o cofundador Greg Brockman demitiu-se em protesto e 95% dos funcionários ameaçaram demitir-se em massa se Altman não voltasse. Negociações de emergência falharam inicialmente e a Microsoft, a maior acionista da OpenAI, contratou Altman e Brockman para uma nova unidade de IA. Isso durou apenas um dia. Terça-feira, o ex-CEO era CEO novamente.
"A equipa do capitalismo ganhou", declarou o New York Times, no rescaldo desta turbulência, num artigo intitulado "A IA pertence agora aos capitalistas."
Gerd Leonhard concorda com essa análise e está agora mais pessimista quanto ao futuro.
"Uma das provisões do anterior conselho da OpenAI era que, se as coisas ficassem muito perigosas, podiam arrancar a ficha da tomada e parar", afirmou. "Esse deixou de ser o caso."
Leonhard acredita nos rumores segundo os quais a OpenAI desenvolveu algo tão potencialmente perigoso que assustou os membros do conselho, empenhados na missão de beneficiar a Humanidade.
"Creio que esse é o cenário mais óbvio. Chegaram a um ponto em que lhes pareceu que isto pode tornar-se incontrolável, e a sua missão era prevenir isso."
O tiro saiu pela culatra. Os membros envolvidos na demissão foram afastados - Ilya Sutskever, cientista chefe da OpenAI; Helen Toner, diretora de estratégia no centro de segurança e tecnologia emergente da Universidade de Georgetown; e Tasha McCauley, investigadora da RAND Corporation. O "golpe" acabou por dar mais poder a Sam Altman, qualquer que seja a versão de IA que ele tenha em mente.
"Estamos a falar da maior invenção desde o fogo", comparou Gerd Leonhard. O especialista frisou que a IA não é uma coisa nova, mas a sua comercialização pública desta forma muda todo o jogo.
Shelly Palmer tem um entendimento diferente. Não considera que haja aqui uma polarização irreconciliável entre capitalismo e responsabilidade.
"A questão assume que é uma escolha entre um ou outro. É uma falsa dicotomia. A OpenAI pode e vai fazer ambas as coisas."
A turbulência acontece quando passa um ano desde o lançamento do ChatGPT e numa altura em que a União Europeia tem em andamento uma proposta de regulação da tecnologia, o AI Act. Há um mês, o presidente norte-americano Joe Biden promulgou uma ordem executiva para regulamentar a IA, com foco em salvaguardas de privacidade, equidade e cooperação internacional.
Mas parece cada vez menos provável que haja um acordo transfronteiriço entre as principais potências. É o que refere Shelly Palmer.
"Não vejo os Estados Unidos, Europa e China a alinharem-se nalguma coisa relacionada com IA nos próximos tempos", afirmou. "A UE vai regular em demasia, é o que faz, os EUA vão inovar, é o que fazem, e a China vai imitar, é o que faz", considerou.
O especialista também disse que a supremacia na IA irá equivaler a supremacia económica e militar. "Isso impedirá os EUA e a China de chegarem a um acordo que seja mais que decorativo."
No início de novembro, 28 nações - incluindo EUA e China - assinaram uma declaração de cooperação para evitar os riscos potencialmente "catastróficos" da IA. Foi durante o primeiro AI Safety Summit, um encontro internacional que decorreu em Londres e se debruçou sobre os riscos existenciais colocados pelo desenvolvimento destas tecnologias.
No rescaldo, Gerd Leonhard considera que o o que aconteceu na OpenAI não augura nada de bom.
"Para ser honesto, não estou muito otimista quanto a isto neste momento", indicou. "Sou habitualmente um otimista, mas creio que podemos estar a caminhar para uma situação em que temos um grande incidente ou acidente devido ao uso desta tecnologia. Por exemplo, um "crash" do mercado financeiro global causado pela IA."
Leonhard disse que isso pode acontecer dentro de um a três anos. Considera que, com máquinas tão poderosas e inteligentes que conseguem manipular e encarnar humanos, perceber como os influenciar, não há forma de lidar com isso a não ser bloquear a origem.
"O pior cenário possível é isto ficar fora de controlo e termos de desconectar a Internet para o solucionar."
Situações menos extremas mas também preocupantes, apontou, estão na possibilidade de que as máquinas sejam usadas para manipular o mercado financeiro influenciando, por exemplo, os mil executivos de topo no mundo. "É engenharia social e a IA é muito boa nisso", descreveu. "Não há maneira de sabermos que estamos a ser manipulados. A IA tornou-se mais sofisticada, criando histórias que podem levar as pessoas a mudarem de opinião."
Neste contexto, Leonhard interpreta o triunfo de Sam Altman e da sua visão na OpenAI como preocupante. A empresa foi a primeira a estabelecer como objetivo a criação de uma Inteligência Artificial Geral.
"Muito poucas empresas estão a dizer que querem inventar uma máquina que é mais capaz que os humanos em todas as tarefas aplicáveis", frisou.
"Só isso justifica o envolvimento de todos os governos. Porque isto já não é só potencialmente uma arma, mas algo crucial para todos os aspetos da sociedade", continuou. "Ter a abordagem de criar algo que pode ultrapassar os humanos é pedir um conflito entre o estado e a indústria."
O próprio Sam Altman tem falado sobre os riscos da IA. Mas, em vez de suspender o seu desenvolvimento, acredita que a sociedade tem de perceber como fazer isto da forma certa.
Cresceu em St. Louis, Missouri, e interessou-se cedo por computadores: aprendeu a programar em Macintosh quando tinha apenas 8 anos, na década de noventa. As salas de chat na Internet, que era nascente, ajudaram-no a contar aos pais que era homossexual.
Não chegou a licenciar-se na Universidade de Stanford, onde estudou ciências da computação durante dois anos. Deixou os estudos para fundar a sua própria startup, Loopt, que viria a ser vendida por 43 milhões de dólares em 2012.
Altman criou depois o seu fundo de investimento, Hydrazine Capital, com a ajuda do controverso investidor Peter Thiel. Aos 28 anos, foi escolhido para liderar a aceleradora de startups Y Combinator, provavelmente a mais importante de Silicon Valley.
Era aí que estava quando disse aos fundadores da Shypmate que tinha um plano pronto para o Juízo Final. Tinha 31 anos.
Nessa altura, o receio de que as máquinas inteligentes se tornassem num risco existencial para a Humanidade era partilhado por outros nomes ilustres, como Stephen Hawking, Elon Musk e Bill Gates. Altman fora um dos fundadores da OpenAI precisamente com Elon Musk, e o objetivo era impedir que a IA viesse a exterminar os humanos. Em 2019, deixou a Y Combinator e tornou-se CEO da OpenAI, que passou a ter uma nova estrutura para lhe permitir fazer lucros.
Desde essa altura que Altman e o CEO da Microsoft, Satya Nadella, desenvolveram uma relação de negócio próxima. A Microsoft já investiu mais de 10 mil milhões na OpenAI e tem direitos sobre as suas tecnologias. Foi o veterano que Altman referiu quando se soube que ia voltar a ser CEO.
"Com o novo conselho de administração e o apoio do Satya", afirmou, "estou ansioso para regressar à OpenAI e continuar a desenvolver a nossa forte parceria."