Se você já trabalha com modelos de linguagem, sabe que a diferença entre uma resposta medíocre e uma resposta excepcional está quase sempre no prompt. Com o lançamento do Claude Opus 4.6, a Anthropic elevou significativamente a capacidade de raciocínio, seguimento de instruções e geração de conteúdo estruturado. Mas para extrair o máximo desse modelo, você precisa dominar técnicas específicas de engenharia de prompt que funcionam com a arquitetura Claude — e muitas delas são diferentes do que funciona com outros LLMs.

Uso o Claude Opus como ferramenta principal de trabalho há mais de 8 meses, tanto para desenvolvimento de software quanto para produção de conteúdo técnico. O que percebi nesse período é que o Opus 4.6 responde de forma radicalmente diferente dependendo de como você estrutura a instrução. Prompts que funcionavam perfeitamente no GPT-4 ou mesmo no Claude 3.5 Sonnet produzem resultados completamente diferentes aqui — e na maioria das vezes, o Opus 4.6 entrega resultados superiores quando você entende as regras do jogo. A parte que ninguém comenta é que o modelo é extremamente literal: se você não pedir algo explicitamente, ele simplesmente não faz. Isso parece uma limitação, mas na prática é uma vantagem enorme para quem sabe escrever instruções precisas.

O que mudou no Claude Opus 4.6 em relação a versões anteriores

O Claude Opus 4.6 representa um salto qualitativo em relação às versões anteriores da família Claude. Segundo a documentação oficial da Anthropic, o modelo processa até 1 milhão de tokens de contexto, o que significa que você pode alimentá-lo com documentos extensos, bases de código inteiras e conversas longas sem perder informação. Mas o que realmente importa para engenharia de prompt são três mudanças fundamentais:

  • Interpretação literal das instruções: o Opus 4.6 não tenta adivinhar o que você quer. Ele segue exatamente o que está escrito no prompt. Isso elimina comportamentos indesejados de "over-helping" que eram comuns em versões anteriores.
  • Suporte nativo a pensamento estendido (extended thinking): o modelo pode raciocinar internamente antes de responder, produzindo respostas mais precisas em tarefas complexas de análise e código.
  • Melhor aderência a formatos estruturados: JSON, XML, tabelas e código seguem o formato solicitado com muito mais consistência, reduzindo a necessidade de retry e parsing defensivo.

Na prática, isso significa que prompts vagos produzem resultados vagos — mas prompts bem estruturados produzem resultados excepcionais. O modelo recompensa precisão.

Estruturando prompts com XML Tags — a técnica mais eficaz

De todas as técnicas de engenharia de prompt disponíveis, a que produz os melhores resultados consistentes com o Claude Opus 4.6 é o uso de XML tags para estruturar o prompt. Conforme documentado nas melhores práticas oficiais da Anthropic, o Claude foi treinado para reconhecer e respeitar a hierarquia de tags XML como delimitadores semânticos.

Em vez de escrever um parágrafo longo com instruções misturadas, separe cada componente do prompt em tags específicas:

Tag XMLFunçãoExemplo de uso
<context>Informação de fundo que o modelo precisaDescrição do projeto, stack técnica, restrições
<instructions>O que o modelo deve fazerTarefa principal, formato de saída esperado
<example>Exemplos de entrada/saída (few-shot)Pares de input/output para calibrar o formato
<constraints>Limitações e regras obrigatóriasTamanho máximo, linguagem, formato proibido
<output_format>Estrutura exata da respostaJSON schema, template de markdown

O motivo pelo qual XML funciona melhor que Markdown ou listas numeradas é que as tags criam fronteiras semânticas claras. O modelo sabe exatamente onde termina o contexto e onde começam as instruções, o que reduz drasticamente erros de interpretação.

Exemplo prático: prompt para revisão de código

Um prompt genérico como "revise este código e sugira melhorias" vai produzir uma resposta genérica. Compare com um prompt estruturado que especifica exatamente o que você espera:

<context>
Estou desenvolvendo uma API REST em Node.js com Express.
O código abaixo é um middleware de autenticação JWT.
Stack: Node 20, Express 4, jsonwebtoken 9.
</context>

<instructions>
Revise o código abaixo focando em:
1. Vulnerabilidades de segurança (OWASP Top 10)
2. Tratamento de erros incompleto
3. Performance em cenários de alta concorrência
</instructions>

<constraints>
- Não sugira migrar para outro framework
- Mantenha compatibilidade com Node 20
- Priorize segurança sobre legibilidade
</constraints>

<code>
// cole o código aqui
</code>

<output_format>
Para cada issue encontrada:
- Severidade: crítica / alta / média / baixa
- Linha(s) afetada(s)
- Problema
- Correção sugerida (com código)
</output_format>

A diferença de qualidade entre as duas abordagens é gritante. O prompt estruturado direciona a atenção do modelo para os aspectos que realmente importam e elimina respostas genéricas do tipo "considere adicionar mais testes".

Chain of Thought: quando e como usar pensamento estendido

O Chain of Thought (CoT) é uma técnica onde você instrui o modelo a raciocinar passo a passo antes de entregar a resposta final. No Claude Opus 4.6, essa técnica é potencializada pelo recurso de extended thinking, que permite ao modelo processar internamente antes de gerar a saída visível.

Segundo a documentação da Anthropic, o extended thinking funciona melhor com configurações adaptativas em vez de forçar manualmente um bloco de pensamento. Na prática, isso significa que para tarefas complexas — análise de bugs, decisões de arquitetura, problemas matemáticos — você deve habilitar o thinking e deixar o modelo decidir a profundidade do raciocínio.

No entanto, para tarefas simples como conversão de formato, tradução direta ou geração de boilerplate, o extended thinking adiciona latência desnecessária. A regra prática é: se a tarefa exige raciocínio multi-etapa, habilite; se é uma transformação direta, desabilite.

Quando o CoT faz diferença real

  • Debugging complexo: peça ao modelo para analisar o fluxo de dados passo a passo antes de sugerir a correção
  • Decisões de arquitetura: instrua-o a listar prós e contras antes de recomendar uma abordagem
  • Análise de requisitos: peça para identificar ambiguidades e dependências antes de propor a solução
  • Problemas de performance: solicite que trace o caminho crítico de execução antes de otimizar

Few-Shot Prompting: calibrando o formato da resposta

Few-shot prompting consiste em fornecer exemplos concretos de entrada e saída desejada dentro do prompt. No Claude Opus 4.6, essa técnica é especialmente poderosa porque o modelo é excelente em identificar padrões e replicá-los com consistência. Conforme descrito no tutorial interativo de prompt engineering da Anthropic, os exemplos devem ser realistas e específicos — não genéricos.

A técnica funciona melhor quando você precisa de um formato de saída muito específico que é difícil de descrever apenas com instruções textuais. Em vez de explicar o formato em três parágrafos, mostre dois exemplos e o modelo vai replicar o padrão.

Um erro comum é fornecer exemplos triviais demais. Se seus exemplos são simples mas o caso real é complexo, o modelo vai simplificar a resposta para corresponder ao nível dos exemplos. Sempre use exemplos que representem a complexidade real do que você precisa.

Enquadramento positivo: diga o que fazer, não o que evitar

Uma descoberta importante documentada pela comunidade de usuários do Claude é que o modelo responde significativamente melhor a instruções positivas do que a negações. Em vez de listar o que o modelo não deve fazer, descreva explicitamente o que ele deve fazer.

Abordagem negativa (menos eficaz)Abordagem positiva (mais eficaz)
"Não use jargão técnico""Escreva em linguagem acessível para iniciantes"
"Não repita informações""Cada parágrafo deve adicionar informação nova"
"Não faça listas genéricas""Inclua exemplos práticos com código em cada item"
"Não seja prolixo""Limite cada resposta a no máximo 200 palavras"

Outro ponto crítico: linguagem agressiva prejudica a qualidade. Frases como "CRITICAL!", "YOU MUST", "NEVER EVER" podem parecer enfáticas para humanos, mas no Claude Opus 4.6 elas causam over-triggering — o modelo fica tão focado em evitar o erro que compromete a qualidade geral da resposta. Instruções calmas e diretas produzem resultados consistentemente melhores.

Prompt Chaining: dividindo tarefas complexas em etapas

Prompt chaining é a técnica de dividir uma tarefa grande em múltiplas chamadas sequenciais ao modelo, onde cada chamada recebe o resultado da anterior como contexto. Segundo a Anthropic, essa abordagem é especialmente eficaz para tarefas que envolvem múltiplas etapas de raciocínio ou transformação.

Na prática, prompt chaining funciona como um pipeline de dados onde cada etapa tem uma responsabilidade única e bem definida. Por exemplo, para gerar documentação técnica a partir de código-fonte, você pode encadear:

  • Etapa 1: analisar o código e extrair a estrutura (classes, funções, dependências)
  • Etapa 2: gerar descrições para cada componente com base na análise
  • Etapa 3: montar o documento final com formatação e exemplos de uso
  • Etapa 4: revisar consistência e completude do documento gerado

Cada etapa produz um resultado intermediário que é mais fácil de validar e corrigir do que tentar obter o documento final em uma única chamada. Além disso, se uma etapa produzir resultado insatisfatório, você pode re-executar apenas aquela etapa sem desperdiçar tokens nas outras.

Quando usar chaining vs. prompt único

Nem toda tarefa precisa de chaining. Use prompt único quando a tarefa é autocontida e o formato de saída é simples. Use chaining quando há dependências entre etapas, quando o resultado intermediário precisa de validação, ou quando a janela de contexto de um único prompt não comporta todas as informações necessárias.

Gerenciamento de contexto em prompts longos

Com 1 milhão de tokens de contexto, é tentador simplesmente jogar toda a informação disponível no prompt e deixar o modelo se virar. Mas isso é um erro. Mesmo com janela de contexto massiva, a organização da informação impacta diretamente a qualidade da resposta.

A melhor prática é fornecer um "roteiro" no início do prompt que indica ao modelo o que ele vai encontrar e o que deve priorizar. Algo como:

<roadmap>
Este prompt contém:
1. Especificação da API (seções 1-3): contexto do projeto
2. Código atual do módulo de pagamentos (seção 4): código a ser revisado
3. Logs de erro recentes (seção 5): evidência do bug
4. Instruções de revisão (seção 6): o que você deve fazer

Priorize a seção 6 para entender a tarefa.
Use as seções 1-3 como referência quando necessário.
</roadmap>

Essa técnica de "indexação" do prompt é especialmente útil quando você está trabalhando com documentos longos ou múltiplos arquivos de código. O modelo consegue navegar melhor pelo contexto quando sabe antecipadamente o que está disponível e onde encontrar cada informação.

Prefill: controlando o início da resposta

Prefill é uma técnica avançada onde você pré-define o início da resposta do modelo. No Claude, isso é feito através do parâmetro de mensagem do assistente na API. O modelo continua a partir do ponto onde você parou, o que garante o formato exato desde a primeira linha.

Casos de uso práticos para prefill:

  • Forçar formato JSON: inicie a resposta com { para garantir que o modelo retorne JSON válido
  • Definir idioma: comece com uma frase no idioma desejado para evitar que o modelo responda em inglês
  • Estruturar análise: inicie com o cabeçalho da primeira seção para garantir que o modelo siga a estrutura solicitada
  • Eliminar preâmbulo: evite respostas que começam com "Claro, vou ajudar com isso!" ao pré-definir o início com conteúdo direto

O prefill é particularmente útil em automações e integrações via API, onde você precisa de respostas parseable que sigam um formato rígido sem variações.

Erros comuns que destroem a qualidade do prompt

Depois de meses trabalhando intensivamente com engenharia de prompt no Claude Opus 4.6, identifiquei os erros mais frequentes que levam a resultados ruins — mesmo com um modelo tão capaz:

  • Instruções contraditórias: pedir "seja conciso" e "explique em detalhes" no mesmo prompt. O modelo tenta satisfazer ambos e não satisfaz nenhum.
  • Falta de especificidade no formato: dizer "formate bem" sem definir o que "bem" significa. Especifique: Markdown, JSON, tabela, bullets, parágrafos.
  • Excesso de restrições: cada restrição adicional reduz o espaço de solução. Inclua apenas restrições que realmente importam para o resultado.
  • Contexto irrelevante: incluir informação que não é necessária para a tarefa dilui a atenção do modelo. Menos contexto relevante é melhor que muito contexto genérico.
  • Não iterar: engenharia de prompt é um processo iterativo. O primeiro prompt raramente é o melhor. Teste variações, compare resultados, refine progressivamente.

Um aprendizado pessoal importante: eu costumava escrever prompts enormes com dezenas de restrições e exemplos, achando que mais contexto sempre significaria melhor resultado. Com o Opus 4.6, descobri que o oposto é verdadeiro. Os melhores prompts que uso no dia a dia têm entre 200 e 500 palavras — claros, estruturados com XML tags, com no máximo 2-3 exemplos e restrições cirurgicamente escolhidas. A qualidade do prompt está na precisão, não no volume.

Template prático para começar

Para facilitar a adoção dessas técnicas, aqui está um template que uso como ponto de partida para a maioria dos meus prompts profissionais. Adapte conforme a complexidade da tarefa:

<role>
Você é um [especialidade] com experiência em [domínio].
</role>

<context>
[Informação de fundo relevante para a tarefa]
</context>

<task>
[Descrição clara e específica do que deve ser feito]
</task>

<constraints>
- [Restrição 1]
- [Restrição 2]
</constraints>

<output_format>
[Formato exato esperado — idealmente com exemplo]
</output_format>

Esse template funciona para 80% dos casos de uso. Para tarefas mais complexas, adicione tags de <example> e <thinking_instructions>. Para tarefas simples, remova o que não for necessário — o Claude Opus 4.6 não precisa de cerimônia quando a tarefa é direta.

Conclusão

Engenharia de prompt com o Claude Opus 4.6 não é sobre truques ou hacks — é sobre comunicação clara e estruturada com um modelo que recompensa precisão. As técnicas que realmente fazem diferença são surpreendentemente simples: use XML tags para estruturar, seja específico no que quer, forneça exemplos representativos, prefira instruções positivas e itere sobre seus prompts como faria com qualquer outro artefato de engenharia. O modelo é uma ferramenta extraordinariamente poderosa, mas como qualquer ferramenta, a qualidade do resultado depende de quem a opera. Invista tempo em aprender a se comunicar com ele e os retornos serão exponenciais na sua produtividade diária.