Pular para o conteúdo
Hogrid

Anthropic apresenta ‘dreaming’: agentes de IA que aprendem com seus próprios erros entre sessões

Inteligência Artificial··porEmerson Nunes

A Anthropic anunciou uma técnica chamada dreaming que permite que agentes de IA revisem suas sessões de trabalho anteriores, identifiquem padrões recorrentes e melhorem seu desempenho de forma autônoma. A analogia com o sono humano é intencional: assim como o cérebro consolida memórias durante o descanso, os agentes Claude agora fazem o mesmo entre ciclos de execução.

O anúncio foi feito durante o Code with Claude 2026 e representa um passo significativo na trajetória dos sistemas agênticos — aqueles que executam tarefas de forma autônoma, tomando decisões sem intervenção humana constante.

Ilustração de rede neural e inteligência artificial
Foto: Unsplash / CC0

Como o dreaming funciona

O dreaming é um processo agendado que roda entre sessões de trabalho. Ele acessa o histórico de ações do agente, extrai padrões — erros repetidos, fluxos de trabalho convergentes, preferências compartilhadas entre equipes de agentes — e atualiza a memória persistente com novos insights que a próxima sessão poderá usar.

O processo também faz higiene de memória: remove anotações obsoletas, une duplicatas e resolve contradições entre registros acumulados. Com isso, evita que o agente carregue informações desatualizadas ou contraditórias que poderiam prejudicar decisões futuras.

Nenhuma sessão individual consegue enxergar padrões que só se revelam ao longo do tempo. O dreaming resolve exatamente isso — é uma visão longitudinal que um único ciclo de execução jamais teria.

Resultados concretos com early adopters

Os números de quem já testou a funcionalidade são expressivos. A Harvey, empresa de IA jurídica, registrou um aumento de aproximadamente 6x na taxa de conclusão de tarefas após implementar o dreaming em seus agentes. A Wisedocs, que usa IA para revisão de documentos médicos, reduziu em 50% o tempo gasto nessa etapa.

Esses resultados sugerem que a técnica não é apenas incremental. Em domínios onde o agente precisa lidar com alto volume de casos com padrões similares — como triagem jurídica ou análise clínica —, a capacidade de aprender sistemicamente entre sessões pode ser transformadora.

O que mais veio junto

Junto com o dreaming, a Anthropic também lançou duas outras funcionalidades para os Claude Managed Agents. A primeira são os Outcomes — um sistema que permite aos desenvolvedores definir critérios de sucesso para que os agentes avaliem seus próprios resultados. A segunda é a orquestração multi-agente, que coordena múltiplos agentes Claude trabalhando em paralelo.

Outcomes e orquestração multi-agente já estão disponíveis em beta público para todos os desenvolvedores na plataforma Claude. O dreaming ainda está em research preview.

Por que isso importa

Agentes de IA que não aprendem entre sessões precisam ser reprogramados manualmente quando cometem os mesmos erros repetidas vezes. Com o dreaming, esse ciclo de feedback passa a acontecer de forma automática e contínua — o que reduz a carga sobre engenheiros e torna os sistemas mais resilientes ao longo do tempo.

Para empresas que dependem de agentes para tarefas críticas, a promessa é simples: menos supervisão humana, mais autonomia qualificada. E uma IA que dorme para aprender melhor no dia seguinte.

Fontes: VentureBeat, The New Stack

Compartilhe

Leve este artigo para sua rede