O CEO da Anthropic, Dario Amodei
O CEO da Anthropic, Dario AmodeiCC / TechCrunch

A Grande Aceleração. IA evolui mais rápido do que a capacidade humana de a medir

Cenário é tal que a Anthropic teve de flexibilizar políticas de segurança para acompanhar a concorrência. Já a Europa tenta provar que o rigor do AI Act não é um travão, mas um selo de confiança.
Publicado a
Atualizado a

O setor da Inteligência Artificial (IA) entrou numa fase de aceleração sem precedentes, com a fronteira entre a inovação e o risco a esbater-se como nunca.

A Anthropic, até agora vista como a "voz da consciência" de Silicon Valley, deu esta semana um passo que sinaliza uma mudança de paradigma: a atualização da sua Política de Escalonamento Responsável (RSP 3.0). Ao abandonar o compromisso de pausar o desenvolvimento de modelos caso os riscos de segurança fossem elevados -- a menos que os seus concorrentes façam o mesmo. A empresa admite que a sobrevivência comercial está a sobrepor-se à cautela.

Segundo o documento oficial da Anthropic (RSP 3.0), divulgado na terça-feira (24 de fevereiro) a empresa norte-americana justifica esta mudança apontando para um "ambiente estratégico onde a liderança tecnológica é indissociável da segurança global". Na prática, isto significa que a empresa dirigida por Dario Amodei não aceitará ficar para trás enquanto outros avançam sem as mesmas amarras éticas.

"Vazio de visibilidade" nas métricas

Esta decisão surge num momento em que a própria indústria admite que a IA está a desenvolver-se a uma velocidade que as ferramentas tradicionais já não conseguem acompanhar. De acordo com uma análise publicada pelo The Telegraph, o progresso é tão rápido que "estamos a ficar sem formas de medir o que estas máquinas conseguem fazer".

Os modelos de "fronteira" estão a atingir resultados quase perfeitos em testes de referência (benchmarks) como o MMLU, que os especialistas previam que demorassem anos a ser superados.

Esta "crise das métricas" cria um vazio de visibilidade. Como refere um relatório do AI Safety Institute também desta semana, "o fosso entre as capacidades reais e a nossa capacidade de as testar está a aumentar perigosamente". Sem métricas fiáveis, torna-se quase impossível avaliar os riscos de sistemas que agora utilizam "raciocínio complexo" e cujos processos internos permanecem opacos para os seus próprios criadores.

Pressão da Defesa

A pressão geopolítica também está a moldar este novo cenário. O Departamento de Defesa dos EUA tem sido vocal na necessidade de integrar estas ferramentas, alertando que "a excessiva prudência pode constituir um risco de segurança nacional perante o avanço de potências rivais", de acordo com um comunicado do Pentágono divulgado esta quarta pelos media internacionais.

É neste contexto que a Anthropic, pressionada por investidores, decidiu que a sua missão de segurança deve agora ser equilibrada com a "viabilidade competitiva no mercado global".

A Europa no labirinto regulatório

Deste lado do Atlântico, a União Europeia tenta manter um equilíbrio difícil com o EU AI Act. Para muitos críticos, estas normas podem bem representar um "suicídio económico", mas a Comissão Europeia defende uma visão diferente, com eurocratas e outros responsáveis politicos a reiterar que o objetivo não é travar a inovação, mas sim garantir que a Europa seja "o líder mundial na IA de confiança".

O CEO da Anthropic, Dario Amodei
Paulo Cunha: “Do ponto de vista político, esta é uma espécie de Constituição para a IA”

Empresas europeias como a Mistral AI e a Aleph Alpha estão a tentar capitalizar esta postura. Como já referiu anteriormente um porta-voz da Mistral AI, o foco na "IA Soberana" permite oferecer produtos que garantem a "transparência e a proteção de dados que os modelos americanos, na sua pressa, começam a negligenciar".

O desafio para 2026 é saber se este rigor europeu será visto como um selo de qualidade ou como uma relíquia de um tempo em que os humanos ainda acreditavam ter o controlo dos tempos e do desenvolvimento das máquinas.

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt