A estratégia da Microsoft para a Inteligência Artificial mantém-se clara: em vez de tentar construir um modelo dentro de portas, a gigante de Redmond está a cimentar a sua posição como o grande orquestrador de um ecossistema global de IA. Esta semana, a empresa do Windows lançou as novas funcionalidades Critique e Council para o Copilot Researcher que quebram a barreira da exclusividade com a OpenAI e conseguem integrar o Claude, da rival Anthropic, num fluxo de trabalho unificado. Este movimento confirma que a Microsoft pretende ser a "casa" onde os melhores modelos do mundo colaboram.Esta mudança de paradigma, que coloca os dois maiores rivais do mercado (GPT e Claude) a trabalhar lado a lado, promete resolver o maior obstáculo à adoção em massa da IA generativa no mundo corporativo: a falta de rigor factual e as recorrentes "alucinações". Ao combinar a capacidade generativa do GPT com o rigor analítico do Claude, a Microsoft estabelece o que muitos especialistas já consideram o novo padrão de ouro para a investigação assistida por computador.Desde o início da febre da IA generativa, a Microsoft tem seguido um caminho distinto de concorrentes como a Google ou a Meta. Enquanto outros tentam desenvolver modelos "verticalizados" de raiz, a Microsoft tem investido muitos milhares de milhões para garantir que é a primeira a comercializar as inovações de terceiros. A parceria com a OpenAI foi o primeiro passo de um caminho que agora se torna mais complexo, com a integração do Claude 4 da Anthropic. Ao atuar como um "maestro", a Microsoft utiliza uma camada tecnológica denominada Work IQ, integrada no ecossistema Microsoft 365, para gerir estes modelos externos.Em vez de processar toda uma solicitação num único motor, o Copilot Researcher funciona como um centro de decisão que delega partes específicas de uma tarefa complexa ao modelo que melhor a desempenha.Critique: um sistema de ‘revisão por pares’O isolamento de um modelo único é, muitas vezes, a causa da sua falha. Um sistema solitário carece de um mecanismo de revisão independente, o que leva a respostas que, embora pareçam convincentes, estão por vezes erradas. Entra aqui o modo Critique, desenhado para replicar o rigor de uma firma de auditoria, ou de uma redação, eliminando a "IA solitária" em favor de um processo sequencial de verificação.Neste fluxo, o processo tem início com o modelo da OpenAI — reconhecido pela sua versatilidade e capacidade de planeamento — que assume o papel de ‘redator principal’. O GPT encarrega-se de planear a pesquisa, aceder a fontes em tempo real através do Bing (o motor de busca da Microsoft), estruturar os tópicos fundamentais e redigir o primeiro rascunho do relatório técnico. Mas assim que este rascunho é concluído, o sistema delega a tarefa de auditoria ao Claude, da Anthropic. (Ainda que, de acordo com a Microsoft, o sistema é dinâmico, pelo que pode ser alterado à medida que evolui.)Este modelo, frequentemente elogiado pela sua precisão lógica e adesão estrita a diretrizes éticas, atua aqui como um ‘editor sénior’. A sua missão exclusiva é procurar inconsistências, verificar se as citações e fontes indicadas existem realmente e garantir que a informação é factual. Caso o Claude detete erros ou omissões, o sistema aciona uma refinação automática, devolvendo o documento ao GPT com instruções específicas de correção. O utilizador final só recebe o relatório quando ambos os sistemas validam a integridade da informação.Segundo a Microsoft, o Critique melhora significativamente a precisão factual, refletindo-se num ganho de 13,88% face ao Perplexity Deep Research, o sistema baseado no Claude Opus 4.6 que liderava o ranking (ler mais abaixo)Council: a inteligência coletivaAlém da colaboração sequencial, a Microsoft introduziu ainda o modo Council (Conselho), que explora a diversidade de "personalidades" e arquiteturas dos modelos dos seus parceiros. Neste cenário, a lógica deixa de ser de auditoria e passa a ser de debate. O GPT e o Claude recebem o mesmo briefing e trabalham de forma totalmente independente sobre o tema proposto, sem conhecimento prévio do que o outro está a produzir.No final do processo, um terceiro modelo de IA atua como sintetizador, apresentando ao utilizador um quadro comparativo de ambas as abordagens. É neste ponto que a estratégia de parceiros múltiplos revela a sua maior vantagem competitiva. Enquanto o GPT pode focar-se em métricas de rentabilidade e tendências dinâmicas de mercado, o Claude pode identificar riscos de conformidade ou dilemas éticos que o primeiro modelo ignorou. Esta pluralidade de visões, gerada por algoritmos treinados com filosofias e conjuntos de dados diferentes, será capaz de oferecer aos decisores uma análise de 360 graus que nenhum modelo individual conseguiria replicar.O benchmark DRACO demonstra a eficáciaA validação empírica desta "super IA" de investigação surge através do benchmark DRACO (Deep Research Accuracy, Completeness, and Objectivity), um teste que avalia a qualidade da investigação em áreas críticas como o Direito, a Medicina, as Finanças e a Tecnologia, com tarefas que vão desde casos jurídicos complexos a problemas de engenharia avançada. Os resultados obtidos vieram confirmar que a soma das partes assim orquestrada é mais inteligente do que cada uma das empresas de IA individualmente, diz a gigante norte-americana.No DRACO, o Researcher com Critique registou um aumento de 7 pontos no score agregado, como referido, uma melhoria de 13,88% face ao Perplexity Deep Research — o sistema de referência baseado no Claude Opus 4.6. Esta melhoria de quase 14% sobre qualquer outro sistema disponível, incluindo soluções de peso como o Google Gemini ou a ferramenta de pesquisa profunda da Perplexity aponta para ganhos significativos na fidelidade das citações e na profundidade da análise crítica, áreas onde a colaboração entre modelos de parceiros diferentes provou ser o fator decisivo.