O que mudou quando parei de escrever instruções e comecei a ensinar a IA a criar as próprias instruções
A Frustração que Todo Mundo Conhece
Você já passou meia hora ajustando o que escreve para o ChatGPT, Claude ou Gemini — e finalmente conseguiu uma resposta boa? Parabéns. Agora tenta pedir algo parecido, mas um pouquinho diferente. Provavelmente vai ter que começar tudo de novo.
Eu fiquei meses nessa dança. Escrevia um prompt bom, funcionava numa terça-feira, e na quinta já não dava o mesmo resultado. Até que caiu a ficha: o problema não era eu escrever prompts ruins. O problema era eu estar escrevendo cada prompt do zero, toda vez, como se fosse artesanato.
A pergunta certa não é "como escrever um bom prompt". É: como fazer prompts que funcionam em escala, que se adaptam, e que eu não precise reescrever toda semana?
A resposta tem nome: meta prompting. E apesar do nome pomposo, o conceito é mais simples do que parece.
Afinal, O Que É Meta Prompting?
A ideia central é direta: em vez de você ficar ajustando instruções manualmente, você pede para a própria IA te ajudar a criar instruções melhores.
Pensa assim. Normalmente, você diz para a IA:
"Escreve um ensaio sobre mudanças climáticas."
Com meta prompting, você diz algo como:
"Crie um prompt estruturado que instrua um modelo de IA a escrever um ensaio sobre mudanças climáticas. O prompt deve especificar que o ensaio precisa ter 3 seções (causas, impactos e soluções), manter um tom acessível, usar exemplos concretos e terminar com uma chamada para ação."
A diferença? No primeiro caso, você recebe uma resposta. No segundo, você recebe um template — um molde reutilizável que funciona para esse ensaio e para dezenas de outros parecidos. Muda o tema, mantém a estrutura, e o resultado continua bom.
Para quem não é da área técnica, pense numa analogia: é como a diferença entre dar um peixe e ensinar a pescar. Só que aqui, quem aprende a pescar é a própria IA.
Por Que Isso Funciona Tão Bem?
Existe uma pesquisa acadêmica de peso por trás disso. Um grupo de pesquisadores de Stanford e da Tsinghua University (Zhang, Yuan e Yao) publicou um paper que foi apresentado no ICLR 2024 — uma das conferências mais importantes de IA no mundo — e continuou sendo atualizado até dezembro de 2025.
A sacada principal deles foi perceber que a maioria das técnicas de prompt foca no conteúdo (dar exemplos, mostrar respostas certas), enquanto meta prompting foca na estrutura — no jeito de pensar sobre o problema.
Para simplificar: imagine que você está ensinando alguém a cozinhar. A abordagem tradicional (chamada de "few-shot") seria mostrar 3 receitas prontas e torcer para a pessoa entender o padrão. Meta prompting é ensinar: "primeiro leia todos os ingredientes, depois escolha a técnica, depois execute passo a passo, e no final prove e ajuste". Esse roteiro funciona para qualquer receita — não só as 3 que você mostrou.
Os resultados práticos são impressionantes. Nos testes, um modelo Qwen-72B usando meta prompting conseguiu resultados comparáveis ao GPT-4 em benchmarks de matemática — e gastando de 80% a 90% menos tokens (que é como se mede o "combustível" de uma IA). Menos tokens = mais rápido e mais barato.
Meta Prompting vs. Few-Shot: Qual a Diferença na Prática?
O método mais popular até pouco tempo era o "few-shot prompting": você dá alguns exemplos de entrada e saída, e a IA tenta imitar o padrão. Funciona, mas tem limitações.
Com few-shot, se os seus exemplos são sobre receitas italianas e você pede uma receita japonesa, a IA pode se confundir — porque ela aprendeu com exemplos específicos, não com uma lógica geral. Meta prompting resolve isso: como o foco é na estrutura de raciocínio e não nos exemplos, o template se adapta naturalmente a variações.
Além disso, few-shot consome mais tokens (cada exemplo ocupa espaço), enquanto meta prompting é enxuto — você envia a estrutura, não um monte de exemplos.
| aspecto | fewshot | meta |
|---|---|---|
| Foco | Conteúdo — exemplos concretos | Estrutura — lógica de raciocínio |
| Generalização | Limitada ao que foi exemplificado | Adapta a variações naturalmente |
| Uso de tokens | Alto — cada exemplo ocupa espaço | Enxuto — só a estrutura |
| Manutenção | Precisa atualizar exemplos | Template reutilizável |
| Custo | Maior por chamada | Otimiza uma vez, reutiliza sempre |
Dois Sabores: Manual e Recursivo
Na prática, meta prompting aparece de duas formas.
A versão manual é a mais acessível. Você cria um template estruturado uma vez e reutiliza. Por exemplo, um template para resolver problemas de matemática:
"Para resolver este problema, siga estas etapas: (1) liste as variáveis envolvidas, (2) escolha o método de resolução mais adequado, (3) resolva passo a passo mostrando todo o raciocínio, (4) verifique sua resposta substituindo os valores nas equações originais."
Serve para qualquer problema de matemática. Você muda o problema, o roteiro permanece.
A versão recursiva é mais sofisticada (e mais interessante). Aqui, a IA cria seus próprios prompts. Você diz "antes de resolver este problema, primeiro gere um prompt detalhado que outro modelo de IA usaria para resolver isso da melhor forma possível". A IA produz o prompt, e depois usa esse prompt para resolver.
É meta de verdade: a IA pensando sobre como deveria pensar.
Os pesquisadores formalizaram essa versão recursiva como um processo de auto-aprimoramento, onde cada iteração refina o prompt anterior. Na prática, isso significa que a IA vai ficando melhor em criar instruções para si mesma conforme recebe feedback.
O Que Mudou em 2025-2026
Quando comecei a pesquisar meta prompting, era um conceito majoritariamente acadêmico. Isso mudou rápido.
Ferramentas gratuitas entraram no jogo. Em setembro de 2025, Dharmesh Shah — cofundador da HubSpot — lançou o Metaprompt.com, uma ferramenta gratuita que faz meta prompting virar algo que qualquer pessoa consegue usar. Você cola seu prompt, a ferramenta apresenta perguntas de otimização como checkboxes simples, e gera uma versão melhorada que você pode copiar ou rodar direto. Sem código, sem complicação. Shah explicou que a técnica funciona porque você está pedindo para a IA reescrever seu prompt e melhorá-lo, dando permissão para ela fazer perguntas esclarecedoras.
Anthropic e OpenAI integraram geradores de prompts nativos nas suas plataformas. Isso significa que meta prompting deixou de ser um "hack" e virou funcionalidade oficial.
O framework DSPy amadureceu. DSPy, criado em Stanford, permite que desenvolvedores programem o que querem que a IA faça (em Python), e o framework otimiza automaticamente como pedir isso para o modelo. Em julho de 2025, lançaram o GEPA (Genetic-Pareto), um otimizador que usa reflexão — a IA analisa onde errou, propõe melhorias no prompt, e evolui a qualidade ao longo de iterações. Nos testes, superou até técnicas de aprendizado por reforço em determinadas tarefas.
Agentes autônomos levaram meta prompting ao extremo. Projetos como AutoGPT e frameworks como o Get Shit Done (GSD) usam meta prompting na espinha dorsal: um "agente coordenador" gera prompts estruturados para agentes especializados (pesquisador, planejador, executor, verificador), coleta os resultados e refina as instruções. É como um gerente de projetos que também reescreve o briefing conforme o projeto avança — e que nunca perde o fio da meada. Vou falar mais sobre o GSD daqui a pouco, porque é o que mais uso no dia a dia.
Inference-time scaling virou tendência. A ideia é gastar mais poder computacional no momento da geração (em vez de só no treinamento) para obter respostas melhores. Meta prompting se encaixa perfeitamente aqui: ao adicionar etapas de raciocínio estruturado durante a geração, o modelo "pensa mais" antes de responder.
Meta Prompting na Vida Real: O Framework Get Shit Done
A teoria é bonita, mas quero falar de algo que venho usando no dia a dia — inclusive para refatorar o código do meu próprio blog.
O Get Shit Done (GSD) é um framework open-source criado por um dev solo que se cansou de "teatro corporativo" — sprint ceremonies, story points, retrospectivas — só para construir um projeto pessoal. O GSD se descreve como um sistema de meta-prompting, context engineering e desenvolvimento orientado a especificações para o Claude Code, OpenCode e Gemini CLI. E na prática, é exatamente isso que ele entrega.
O GSD resolve um problema real que qualquer um que já usou IA para programar conhece: o context rot. Conforme a conversa com a IA vai crescendo, a qualidade das respostas cai. O modelo começa a "esquecer" coisas, a repetir erros, a perder o fio da meada. É frustrante — você está no meio de uma refatoração complexa e de repente a IA começa a gerar código que contradiz o que ela mesma escreveu 10 minutos atrás.
A solução do GSD é elegante e é meta prompting puro. Funciona assim: um "orquestrador magro" (thin orchestrator) coordena tudo, mas nunca faz o trabalho pesado. Ele gera prompts estruturados em XML e delega para agentes especializados — um pesquisador, um planejador, um executor, um verificador — cada um rodando com um contexto 100% limpo de 200k tokens. O orquestrador fica em 10-15% de uso de contexto. O trabalho real acontece em janelas frescas.
Na prática, o fluxo é: /gsd:discuss-phase → /gsd:plan-phase → /gsd:execute-phase → /gsd:verify-work. Cada fase gera prompts para a próxima. O plano vira prompt para o executor. A saída do executor vira prompt para o verificador. É uma cadeia de meta prompts onde cada etapa alimenta a seguinte.
Minha Experiência Refatorando o Blog
Quando decidi refatorar meu blog usando GSD, a diferença foi imediata. Em vez de abrir o Claude Code e digitar "refatora esse componente", o fluxo foi:
- Criei uma especificação descrevendo o que eu queria (não como fazer, mas o quê).
- O GSD pesquisou o domínio, entendeu a estrutura atual do projeto, e gerou um roadmap dividido em fases.
- Para cada fase, o orquestrador criou planos detalhados — prompts estruturados que diziam para os agentes executores exatamente o que implementar, com critérios de verificação.
- Cada tarefa ganhou seu próprio commit atômico. Se algo quebrasse, era só rodar
git bisectpara achar o problema exato.
O resultado? O contexto principal nunca passou de 40%. Cada agente trabalhava com uma janela limpa. A qualidade se manteve do começo ao fim — sem aquela degradação gradual que acontece quando você fica refinando prompt atrás de prompt na mesma conversa.
Isso é meta prompting aplicado de verdade: a IA gerando e refinando as instruções para si mesma, em loop, com verificação a cada etapa.
Não É o Único — Mas É o Que Mais Funciona (Pra Mim)
Existem outros frameworks no mesmo espaço. A diferença do GSD é que ele não tenta replicar um processo Agile inteiro dentro de uma ferramenta de IA. A filosofia é "a complexidade fica no sistema, não no seu workflow".
| fw | foco | filosofia | curva |
|---|---|---|---|
| GSD | Dev solo / pequenas equipes | Sem teatro corporativo — complexidade no sistema | Baixa (npx + 6 comandos) |
| BMAD | Projetos Agile-like | Sprint ceremonies dentro da IA | Média |
| SpecKit | Spec-driven development | Spec primeiro, código depois | Média |
| Taskmaster | Task management com IA | Gerenciamento de tarefas aumentado | Média |
Para instalar o GSD, é um npx get-shit-done-cc --claude --global e pronto. Funciona com Claude Code, OpenCode (modelos open-source) e Gemini CLI. É MIT license, gratuito, e o projeto está ativo — tem PRs sendo mergeados todo dia.
# Instalação global (Claude Code)
npx get-shit-done-cc --claude --global
# Fluxo básico de uma fase
/gsd:discuss-phase # coleta contexto via perguntas adaptativas
/gsd:plan-phase # gera PLAN.md com tarefas detalhadas
/gsd:execute-phase # executa com agentes em janelas limpas
/gsd:verify-work # valida o que foi construídoSe você trabalha com código e usa algum assistente de IA para programar, experimenta. Mudou meu workflow mais do que qualquer outra ferramenta que testei em 2025.
Na Prática: Como Começar (Mesmo Sem Saber Programar)
Vou dar três caminhos, do mais simples ao mais técnico.
Caminho 1 — Pra quem não programa: Vá ao Metaprompt.com (ou use o gerador de prompts nativo do Claude ou do ChatGPT). Cole seu prompt atual, responda as perguntas de otimização, e compare os resultados. Sério, começa por aí. A diferença costuma ser brutal.
Caminho 2 — Pra quem quer ir além: Crie seus próprios templates. Identifique 3 a 5 tarefas que você faz repetidamente com IA (resumir documentos, redigir emails, analisar dados). Para cada uma, escreva um template com etapas claras. Algo como:
"Para resumir este documento: (1) identifique o tipo de documento (relatório, artigo, ata de reunião), (2) extraia os 3-5 pontos principais, (3) inclua palavras-chave relevantes, (4) classifique o sentimento geral (positivo/neutro/negativo) e justifique, (5) indique quem é afetado e como."
Teste, ajuste, e guarde o que funcionar bem. Trate esses templates como receitas que você vai aperfeiçoando.
Caminho 3 — Pra desenvolvedores: Aqui você tem duas opções fortes. Se quer otimização automática de prompts em pipelines de ML/dados, explore o DSPy. Se quer meta prompting aplicado ao desenvolvimento de software (escrever código com IA de verdade), instala o GSD no Claude Code ou Gemini CLI. Para o DSPy: em vez de escrever prompts em texto, você define entradas e saídas em código (chamadas de "signatures") e usa otimizadores como MIPROv2 ou GEPA para que o framework encontre automaticamente o melhor prompt para sua tarefa.
Para quem trabalha com código, aqui vai um exemplo simplificado de como meta prompting funciona em Python com a API da OpenAI:
from openai import OpenAI
client = OpenAI()
# Seu prompt original (provavelmente meio genérico)
prompt_original = "Resuma este artigo: {artigo}"
# O meta prompt: pede para a IA melhorar seu prompt
meta_prompt = f"""
Melhore o prompt abaixo para gerar resumos mais úteis.
Considere adicionar: estrutura clara, categorização do conteúdo,
palavras-chave, e análise de sentimento.
Prompt original: {prompt_original}
Retorne apenas o prompt melhorado, nada mais.
"""
# Um modelo mais inteligente otimiza o prompt...
resposta = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": meta_prompt}]
)
prompt_otimizado = resposta.choices[0].message.content
# ...e o prompt otimizado é usado no dia-a-dia com um modelo mais barato
resultado = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": prompt_otimizado.format(artigo="...")}]
)A lógica é simples: modelo inteligente (e caro) cria o prompt uma vez; modelo rápido (e barato) executa ele mil vezes.
Armadilhas Que Eu Aprendi na Marra
Complicar demais. A tentação é criar um mega-template com 50 linhas de instruções cobrindo todos os cenários possíveis. Resiste. Um meta prompt simples e claro quase sempre supera um complexo e confuso. Comece com 3-5 passos. Só adicione complexidade quando os resultados pedirem.
Não testar. Meta prompting não é magia. O prompt gerado precisa ser testado. Rode ele com 5-10 entradas diferentes e veja se os resultados são consistentes. Se não forem, ajuste.
Ignorar o custo. Cada vez que você pede para a IA otimizar um prompt, essa é uma chamada que custa tokens. A solução é cachear: otimize o prompt uma vez por tipo de tarefa e reutilize. Não faz sentido otimizar de novo toda vez que for usar.
Pular direto pro meta prompting quando um prompt simples resolve. Se a tarefa é trivial ("que horas são em Tóquio?"), meta prompting é desperdício. Use quando há complexidade real, repetição, ou necessidade de consistência.
Ética e Segurança: Não Dá Pra Ignorar
Se a IA está gerando seus próprios prompts, quem garante que esses prompts são éticos? Essa pergunta importa. Na prática, todo meta prompt de produção deveria incluir guardrails — limites claros sobre o que o prompt gerado pode e não pode fazer.
Coisas como: verificar se a saída não viola privacidade, identificar vieses potenciais, considerar impactos não-intencionais, e ser transparente sobre limitações. Isso não é paranoia — é engenharia responsável.
Empresas sérias já tratam meta prompts como código: com versionamento (usando Git), testes automatizados, e governança clara sobre quem pode modificar o quê.
Pra Onde Isso Vai
A tendência mais clara é o que alguns chamam de "Thinker LLMs" — modelos especializados não em responder perguntas, mas em arquitetar como outros modelos devem responder.
Isso já está acontecendo. Anthropic, OpenAI e Google já oferecem variantes dessa arquitetura em seus produtos. Em 2026, a tendência é que meta prompting se torne tão integrado que a maioria das pessoas nem vai perceber que está usando.
A IBM descreveu meta prompting como uma técnica que cria templates reutilizáveis em linguagem natural para categorias inteiras de problemas, não só para problemas individuais. Analistas de mercado apontam que 2025 marcou o ponto de virada em que modelos pararam de ficar mais inteligentes apenas pelo treinamento e começaram a ficar mais inteligentes na hora de "pensar" — e meta prompting é peça central disso.
O Que Eu Levo Desses Meses de Trabalho
Depois de meses trabalhando com meta prompting em produção, algumas coisas ficaram claras.
Prompts modulares vencem prompts gigantes. Sempre. É a mesma lógica de código limpo: funções pequenas e compostas são mais fáceis de manter do que um script monolítico de 500 linhas.
Estrutura importa mais que exemplos. Um bom roteiro de raciocínio se adapta a situações novas. Um conjunto de exemplos só cobre o que você já viu.
Itere, não busque perfeição. Versione seus prompts como versiona código. Teste. Meça. Evolua. O meta prompt v1 nunca vai ser o melhor — e tudo bem.
E talvez a lição mais importante: meta prompting não é sobre escrever prompts melhores. É sobre construir sistemas que geram prompts melhores. A diferença pode parecer sutil, mas na prática muda tudo.
Referências
- Zhang, Y., Yuan, Y., & Yao, A. C. C. (2023-2025). Meta Prompting for AI Systems. arXiv:2311.11482. Publicado no ICLR 2024, atualizado até dezembro de 2025.
- Suzgun, M., & Kalai, A. T. (2024). Meta-prompting: Enhancing language models with task-agnostic scaffolding. Stanford/OpenAI.
- IBM Think. (2025). What is Meta Prompting? — https://www.ibm.com/think/topics/meta-prompting
- OpenAI Cookbook. (2024). Enhance your prompts with meta prompting.
- Shah, D. (2025). Meta Prompting: The Secret to Better AI Results. simple.ai newsletter.
- Agrawal et al. (2025). GEPA: Reflective Prompt Evolution Can Outperform Reinforcement Learning. arXiv:2507.19457.
- Stanford NLP. (2023-2026). DSPy: The framework for programming — not prompting — language models. https://dspy.ai
- TÂCHES / glittercowboy. (2025-2026). Get Shit Done (GSD): A meta-prompting, context engineering and spec-driven development system. https://github.com/gsd-build/get-shit-done
Quer começar? Pega o prompt que você mais usa, joga no Metaprompt.com ou no gerador de prompts do Claude, e compara os resultados. Depois volta aqui e me conta.
Me encontra no Twitter/X se quiser trocar ideia sobre isso.
Escrito em 2026 por Orlando Cechlar Bitencourt Senior Backend Developer @ Serasa