>_Skillful
Need help with advanced AI agent engineering?Contact FirmAdapt
All Posts

Como agentes de IA decidem quando pedir ajuda humana

Os melhores agentes conhecem seus limites. Definir quando escalar versus quando continuar tentando é um dos problemas de design mais difíceis na arquitetura de agentes.

April 26, 2026Basel Ismail
ai-agents escalation human-in-the-loop design-patterns

O problema do escalonamento

Um agente que nunca pede ajuda eventualmente vai fazer algo errado e caro. Um agente que pede ajuda o tempo todo é só um chatbot com etapas extras. O ponto ideal é um agente que cuida do trabalho rotineiro de forma autônoma e escala quando realmente precisa de um humano, o que é mais difícil de implementar do que parece.

A dificuldade é que o agente precisa avaliar a própria confiança, estimar o risco de prosseguir versus o custo de interromper um humano e fazer esse julgamento em tempo real em situações diversas. Não existe um limiar universal que funcione para toda tarefa.

Escalonamento baseado em confiança

O padrão mais comum vincula o escalonamento à confiança do agente em seu plano ou saída. Se o agente está confiante de que sabe como prosseguir e de que o resultado será correto, ele segue de forma autônoma. Se a confiança cai abaixo de um limiar, ele escala.

O desafio prático é calibrar a confiança. Os modelos são notoriamente ruins em autoavaliação, às vezes confiantes quando estão errados e incertos quando estão certos. Complementar a confiança do modelo com sinais externos ajuda: o plano corresponde a padrões conhecidos? As ferramentas estão retornando os resultados esperados? A saída passa nas verificações de validação? Esses sinais objetivos são mais confiáveis do que a confiança subjetiva do modelo.

Escalonamento baseado em risco

Mesmo quando o agente está confiante, algumas ações são arriscadas demais para execução autônoma. Apagar dados, enviar comunicações externas, fazer transações financeiras, implantar código em produção: tudo isso deve exigir aprovação humana, independentemente da confiança do agente, porque o custo de errar é alto.

Isso se mapeia ao conceito de guardrail: certas categorias de ação sempre escalam. A confiança do agente determina se ele escala em áreas cinzentas; o nível de risco determina se ele escala nos casos claros.

Projetando a experiência de escalonamento

Quando um agente escala, a qualidade do escalonamento importa. "Preciso de ajuda" é inútil. "Estou tentando atualizar o plano de cobrança do usuário, mas a API retornou um erro que não reconheço. Aqui está o erro, aqui está o que tentei e aqui estão as opções que vejo" é útil. Um bom escalonamento fornece contexto, mostra o trabalho do agente até o momento e oferece opções concretas para o humano escolher.

O humano deve conseguir responder rapidamente. Se o escalonamento exige ler páginas de contexto, ele é caro demais. O agente deve resumir a situação de forma concisa e apresentar pontos de decisão claros. Frameworks de agentes que lidam bem com escalonamento facilitam essa implementação.

Reduzindo escalonamentos desnecessários

Acompanhe os padrões de escalonamento para encontrar oportunidades de automação. Se o agente escala repetidamente o mesmo tipo de pergunta, você provavelmente pode adicionar uma regra ou capacidade que cuide disso. Se 30% dos escalonamentos são "não tenho permissão para fazer X", talvez o agente precise de permissões mais amplas (com os guardrails apropriados). Pesquise por ferramentas de analytics para agentes que tragam à tona esses padrões.


Leituras relacionadas

Explore agentes de IA no Skillful.sh. Explore servidores MCP.