Saber escrever bons prompts deixou de ser um diferencial e virou requisito básico para qualquer profissional que usa IA no dia a dia. Com o ChatGPT rodando o GPT-5 e o Claude operando com o Opus 4.7, a capacidade desses modelos cresceu enormemente — mas a qualidade do output ainda depende diretamente da qualidade do input que você fornece. Um prompt mal estruturado desperdiça o potencial do modelo, enquanto um prompt bem construído transforma uma IA genérica em uma ferramenta cirúrgica para o seu problema específico.
Trabalho com prompt engineering há mais de dois anos, e o que mais me surpreendeu nesse período foi como as técnicas evoluíram. Em 2023, a maioria dos guias ensinava truques superficiais — "fale como se fosse um especialista" ou "peça passo a passo". Em 2026, prompt engineering é uma disciplina técnica real, com padrões documentados, benchmarks mensuráveis e diferenças significativas entre modelos. Uso ChatGPT e Claude diariamente para tarefas que vão de geração de código a análise de documentos longos, e aprendi na prática que cada modelo responde melhor a estruturas diferentes. O que funciona perfeitamente no Claude pode gerar resultados medianos no ChatGPT, e vice-versa.
O que mudou no prompt engineering em 2026
O prompt engineering de 2026 é fundamentalmente diferente do que praticávamos dois anos atrás. A mudança mais importante é que a ênfase migrou de prompts longos para prompts estruturados. O tamanho ideal para a maioria das tarefas está entre 150 e 300 palavras — não porque prompts maiores sejam ruins, mas porque estrutura e clareza importam mais que volume de texto.
Outra mudança fundamental é o surgimento dos modelos de raciocínio estendido. O GPT-5 com thinking mode e o Claude Opus com extended thinking fazem cadeia de raciocínio internamente. Isso significa que a técnica clássica de chain-of-thought — pedir explicitamente "pense passo a passo" — se tornou redundante para esses modelos avançados. Eles já fazem isso por conta própria, e forçar o raciocínio explícito pode até degradar a qualidade da resposta.
A terceira grande mudança é o paradigma agêntico. Prompts modernos não são escritos apenas para obter texto — são escritos para ativar ciclos autônomos de trabalho onde o modelo usa ferramentas, busca informações e executa ações de forma independente. O Claude Code e os GPTs customizados são exemplos diretos dessa evolução.
Estrutura básica de um prompt eficiente
Todo prompt eficiente em 2026 segue uma estrutura que funciona como um contrato entre você e o modelo. Segundo a documentação oficial da Anthropic, os elementos essenciais são:
- Papel (Role): quem o modelo deve ser nesta interação. Não use papéis genéricos como "especialista" — seja específico: "engenheiro de software sênior com experiência em arquitetura de microsserviços".
- Critérios de sucesso: o que define uma resposta boa. Em vez de "me ajude com esse código", diga "refatore esta função para reduzir a complexidade ciclomática de 12 para menos de 5, mantendo os mesmos testes passando".
- Restrições: limites explícitos. "Use apenas bibliotecas padrão do Python", "Responda em no máximo 200 palavras", "Não sugira soluções que exijam migração de banco de dados".
- Formato de saída: como a resposta deve ser estruturada. JSON, Markdown, lista numerada, tabela — especifique exatamente.
- Tratamento de incerteza: dê permissão explícita para o modelo dizer "não sei" em vez de inventar. Isso reduz alucinações drasticamente.
Exemplo prático: prompt ruim vs. prompt bom
Prompt ruim: "Me explica sobre Docker"
Prompt bom: "Sou um desenvolvedor backend Python que nunca usou containers. Explique Docker focando em: (1) por que eu deveria usar em vez de virtualenv para isolar ambientes, (2) os 5 comandos que vou usar em 90% do tempo, (3) um Dockerfile mínimo para uma API FastAPI. Use exemplos práticos, não teoria abstrata. Se algum conceito exigir conhecimento prévio de redes, explique brevemente."
A diferença não é apenas de tamanho — é de especificidade. O segundo prompt dá ao modelo contexto sobre quem você é, o que precisa, como quer receber a informação e onde estão suas lacunas de conhecimento.
Diferenças entre prompts para ChatGPT e Claude
Cada modelo tem uma arquitetura e um treinamento diferentes, o que significa que respondem de formas distintas a diferentes estruturas de prompt. Entender essas diferenças é o que separa um usuário casual de alguém que realmente extrai o máximo de cada ferramenta.
Claude: XML tags são o padrão ouro
O Claude foi treinado para reconhecer e respeitar tags XML como delimitadores estruturais. Segundo a documentação de best practices da Anthropic, usar tags XML é genuinamente o melhor método de estruturação para o Claude — não Markdown, não listas numeradas.
| Técnica | Claude | ChatGPT |
|---|---|---|
| Estruturação preferida | Tags XML (<instructions>, <context>) | Seções Markdown (##, ###) |
| Few-shot examples | 3-5 exemplos em tags <example> | 3-5 exemplos em blocos de código |
| Chain-of-thought | Ativado via extended thinking (automático) | Ativado via thinking mode (automático) |
| Contexto longo | Até 1M tokens — coloque documentos primeiro | Até 256K tokens — seja mais seletivo |
| Saída estruturada | Responde bem a JSON schema em XML | Structured outputs via API nativo |
Na prática, quando trabalho com Claude, meus prompts seguem este padrão:
<role>Engenheiro de dados sênior</role> <context>Estou migrando pipelines de Airflow para Dagster...</context> <task>Reescreva este DAG como um Dagster job...</task> <constraints>Use apenas dagster core, sem plugins extras</constraints>
ChatGPT: Markdown e instruções diretas
O ChatGPT responde melhor a prompts estruturados com Markdown. Seções com cabeçalhos (##), listas com bullets e blocos de código delimitados por triple backticks são processados de forma mais eficiente pelo GPT-5.
Outra diferença prática: o ChatGPT tende a ser mais verboso por padrão. Se você quer respostas concisas, precisa ser explícito: "Responda de forma direta, sem introduções ou resumos finais. Máximo 150 palavras." No Claude, a concisão tende a ser mais natural quando o prompt é bem estruturado.
Técnicas avançadas que funcionam em 2026
Além da estrutura básica, existem técnicas avançadas que elevam significativamente a qualidade das respostas. Estas são as que uso com mais frequência e que têm impacto mensurável nos resultados.
1. Few-shot prompting com exemplos diversos
Fornecer de 3 a 5 exemplos de input/output continua sendo uma das técnicas de maior retorno em prompt engineering. O segredo é que os exemplos devem ser diversos — cubra casos normais, edge cases e situações ambíguas. Se todos os seus exemplos seguem o mesmo padrão, o modelo vai generalizar de forma rasa.
2. Prompt chaining para tarefas complexas
Em vez de tentar resolver tudo em um único prompt gigante, divida a tarefa em etapas sequenciais. Primeiro peça ao modelo para analisar, depois para planejar, depois para executar. Cada etapa recebe o output da anterior como contexto. Isso funciona especialmente bem para tarefas como refatoração de código, onde o modelo precisa primeiro entender a base existente antes de propor mudanças.
3. Citação antes da análise
Quando trabalha com documentos longos, peça ao modelo para primeiro citar os trechos relevantes do documento e só depois realizar a análise. Segundo a documentação da Anthropic, isso melhora significativamente a precisão porque força o modelo a ancorar suas conclusões em evidências textuais concretas, reduzindo alucinações.
4. Output contracts com JSON schema
Para integrações programáticas, defina o schema exato do JSON que você espera. Isso é particularmente importante quando o output do modelo alimenta outro sistema. Tanto o ChatGPT quanto o Claude suportam structured outputs via API, mas mesmo em uso conversacional, fornecer um schema no prompt melhora a consistência.
5. Prompt caching para eficiência
Se você usa a API do Claude, aproveite o prompt caching. Com essa funcionalidade, system prompts grandes custam aproximadamente 10 vezes menos por chamada após a primeira execução. Isso é particularmente útil quando você tem um system prompt elaborado que não muda entre chamadas — por exemplo, um prompt com regras de estilo de código do seu projeto.
Erros comuns que degradam a qualidade
Depois de centenas de horas testando prompts, estes são os erros mais frequentes que vejo — e que cometi muitas vezes antes de entender por quê:
- Pedir para "ser criativo": isso é um anti-pattern. Criatividade sem restrições gera resultados imprevisíveis. Em vez disso, defina o espaço criativo: "Sugira 3 abordagens alternativas para resolver este bug, priorizando legibilidade sobre performance".
- Excesso de negações: instruções positivas funcionam melhor que proibições. Em vez de "não use jargão técnico, não faça parágrafos longos, não inclua disclaimers", diga "escreva em linguagem acessível para leigos, com parágrafos de 2-3 frases, indo direto ao ponto".
- Contexto insuficiente sobre você: o modelo não sabe seu nível de experiência. Um prompt sobre "como fazer deploy" vai gerar respostas completamente diferentes dependendo se você é um DevOps sênior ou um estudante que acabou de criar seu primeiro projeto.
- Ignorar o system prompt: se você usa a API, o system prompt é onde devem ficar as instruções persistentes — papel, regras de formato, restrições. O user prompt deve conter apenas a tarefa específica de cada interação.
- Não iterar: prompt engineering é um processo iterativo. Se a primeira resposta não foi boa, não reescreva o prompt do zero — analise o que saiu errado e ajuste especificamente aquele aspecto.
Templates prontos para usar hoje
Aqui estão templates que uso diariamente e que funcionam consistentemente tanto no ChatGPT quanto no Claude:
Template para análise de código
"Analise o seguinte código [linguagem]. Identifique: (1) bugs potenciais com nível de severidade, (2) problemas de performance com estimativa de impacto, (3) violações de convenções da linguagem. Para cada problema encontrado, sugira a correção com o diff exato. Se o código estiver bom em algum aspecto, diga explicitamente — não invente problemas."
Template para escrita técnica
"Escreva um [tipo de documento] sobre [tema] para um público de [perfil]. O tom deve ser [formal/conversacional/técnico]. Inclua exemplos práticos de [contexto]. Estruture com introdução que apresente o problema, 3-5 seções com h2, e conclusão com próximos passos acionáveis. Extensão: [X] palavras."
Template para debugging
"Estou recebendo [erro] quando [ação]. Stack trace: [colar]. Ambiente: [linguagem, versão, OS]. Já tentei: [listar tentativas]. O que eu espero que aconteça: [comportamento desejado]. Diagnostique a causa raiz e proponha a correção mais simples que resolva o problema sem efeitos colaterais."
Conclusão
Prompt engineering em 2026 não é sobre truques ou hacks — é sobre comunicação clara e estruturada com sistemas que entendem nuances quando você as fornece. A regra mais importante é esta: trate o prompt como uma especificação técnica, não como uma conversa casual. Defina o papel, os critérios de sucesso, as restrições e o formato de saída. Use a estrutura que cada modelo prefere — XML para Claude, Markdown para ChatGPT. Forneça exemplos diversos, dê permissão para incerteza e itere sobre os resultados. Essas práticas não são teoria — são padrões testados em produção que consistentemente geram outputs melhores, mais confiáveis e mais úteis. A diferença entre um prompt mediano e um prompt excelente pode ser a diferença entre uma resposta genérica de IA e uma solução que resolve seu problema específico em minutos.

