Nada encontrado? Tente outra palavra ou explore todos!
Crie sistemas escaláveis, testáveis e que duram décadas sem ficar refém de framework ou banco de dados.
Quando Usar:
Projetos greenfield, migrações de monolitos, sistemas críticos de negócio, equipes que querem testes fáceis e alta manutenibilidade.
Como Funciona:
Você responde 4 perguntas simples sobre o domínio → a IA entrega a arquitetura completa com código real em todas as camadas.
IA Recomendada:
Claude (melhor em raciocínio arquitetural longo e código limpo em uma única passada).
Palavras-Chave:
clean architecture, arquitetura limpa, ddd, domain driven design, software escalável, código testável, robert martin, hexagonal architecture
Prompt Completo:
Atue como Arquiteto de Software Sênior especialista em Clean Architecture (Robert C. Martin) e Domain-Driven Design.
Quero projetar um sistema 100% escalável, testável e independente de frameworks, UI, banco de dados e entregas externas.
Faça o processo em exatamente DUAS ETAPAS (não pule nenhuma):
ETAPA 1 – Descoberta do Domínio (faça UMA pergunta por vez):
1. Qual o nome do sistema e o problema de negócio principal que ele resolve?
2. Qual a entidade central do domínio (aquela que justifica a existência do sistema)?
3. Qual a regra de negócio mais crítica e inviolável dessa entidade (mesmo se fosse feita no papel)?
4. Qual o caso de uso mais importante que o sistema executa com essa entidade?
ETAPA 2 – Entrega da Arquitetura Completa (só execute após eu responder todas as 4 perguntas):
Com base nas respostas, gere:
1. Diagrama textual das 4 camadas concêntricas da Clean Architecture + regra de dependência
2. Estrutura de pastas recomendada (exemplo real com nosso domínio)
3. Código completo e funcional das camadas:
• Domain: Entidade principal + Value Objects + regra crítica implementada
• Application: Interface do repositório (porta) + Use Case principal com injeção de dependência + DTOs de entrada/saída
• Interface Adapters: Controller REST + Presenter
• Infrastructure: Implementação concreta do repositório (use Prisma ou TypeORM como exemplo)
4. Explicação curta de como DIP, Repository Pattern, DTOs e Dependency Injection foram aplicados
Use TypeScript ou Java (escolha o que ficar mais limpo) e mantenha o código real, copiable e sem placeholders genéricos.
Comece agora fazendo apenas a primeira pergunta.
Dica Extra:
Salve esse prompt como template e troque só as 4 respostas quando for um novo projeto – a IA entrega uma arquitetura perfeita em menos de 5 minutos.
Pare de brigar com APIs mal feitas – crie endpoints intuitivos, consistentes e que seu time (e os outros times) vão amar consumir.
Quando Usar:
Qualquer projeto novo com backend, migração de API legada, integração entre microserviços, ou quando o frontend vive pedindo “mais um endpoint rápido”.
Como Funciona:
Você responde 4 perguntas sobre quem usa e o que precisa → a IA entrega design completo, endpoints, payloads, erros padronizados e até pedaço de OpenAPI pronto.
IA Recomendada:
Claude (estrutura mais organizada e exemplos de JSON mais limpos em respostas longas; ChatGPT 4o também entrega bem).
Palavras-Chave:
api restful, design de api, rest api best practices, openapi, swagger, endpoints consistentes, documentação api, json api
Prompt Completo:
Atue como Arquiteto de APIs Sênior com mais de 15 anos construindo APIs RESTful consumidas por milhões de usuários.
Quero uma API elegante, previsível e que siga rigorosamente as melhores práticas (Richardson Maturity Model nível 3, HATEOAS quando fizer sentido, naming consistente, versionamento, etc.).
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Entendimento do Consumidor (faça UMA pergunta por vez):
1. Qual o nome do sistema/projeto e quem são os principais consumidores da API (ex: app mobile, frontend Next.js, outros serviços internos, parceiros externos)?
2. Qual o recurso/entidade principal que a API vai expor (ex: Pedido, Usuário, Produto, Agendamento)?
3. Descreva a jornada mais comum do consumidor em 3-6 passos sequenciais (ex: 1. Autentica → 2. Lista itens → 3. Busca detalhes → 4. Cria carrinho → 5. Finaliza compra).
4. Qual o nível de segurança e autenticação necessário (público total, JWT por usuário, API Key por serviço, OAuth2, misto)?
ETAPA 2 – Entrega do Design Completo (só execute após eu responder todas as 4 perguntas):
Com base nas respostas, gere:
1. Configurações gerais da API
- Base URL e versionamento (/v1)
- Método de autenticação escolhido e header exato
- Formato padrão de erro (código + message + detalhes quando aplicável)
- Paginação, filtros e sorting padrão
2. Endpoints completos seguindo exatamente a jornada
Para cada endpoint:
- Método + caminho
- Descrição curta e objetiva
- Query params obrigatórios/opcionais
- Headers necessários
- Body request (exemplo JSON completo)
- Respostas de sucesso (200/201/204) com exemplo JSON
- Principais erros (4xx e 5xx) com códigos e mensagens
3. Exemplo de 2-3 endpoints com hiperlinks (HATEOAS) quando fizer sentido
4. Trecho pronto de OpenAPI 3.1 (YAML) para os 3 endpoints mais importantes – código copiable
Use nomes em kebab-case para caminhos, plural para recursos, e mantenha consistência total entre todos os endpoints.
Código e exemplos em JSON 100% válidos e reais (nada de "seu_campo_aqui").
Comece agora fazendo apenas a primeira pergunta.
Dica Extra:
Depois de gerar a API com esse prompt, cole o trecho OpenAPI direto no https://editor.swagger.io e já tem documentação interativa em 30 segundos.
Pare de encher a sprint de tarefas aleatórias – defina um objetivo claro, priorize valor real e saia com um plano que o time realmente entrega.
Quando Usar:
Toda vez que uma nova sprint começa, quando o time está sobrecarregado ou subutilizado, ou quando o PO precisa alinhar expectativas com realidade técnica.
Como Funciona:
Você responde 4 perguntas rápidas → a IA monta objetivo da sprint, seleciona histórias certas, quebra em tarefas realistas e ainda entrega DoD pronto.
IA Recomendada:
Claude (raciocínio mais estruturado em planejamento complexo e mantém o foco no objetivo da sprint sem divagar).
Palavras-Chave:
sprint planning, planejamento de sprint, scrum, objetivo da sprint, product backlog, velocity, user stories, definition of done, agile
Prompt Completo:
Atue como Scrum Master Sênior + Agile Coach com 15+ anos facilitando times de alta performance.
Quero fazer um Sprint Planning completo, realista e 100% focado em entregar valor de negócio – nada de "encher linguiça" com tarefas técnicas soltas.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Definir o "PORQUÊ" da Sprint (faça UMA pergunta por vez):
1. Qual o nome do produto/projeto, duração da sprint (1 ou 2 semanas?) e velocity médio das últimas 3-5 sprints?
2. Quais são os 2-4 itens mais prioritários do Product Backlog agora (pode colar títulos ou IDs das histórias)?
3. Com base nessas prioridades, qual seria o Objetivo da Sprint em uma única frase clara e mensurável? (Ex: "Permitir que o cliente finalize compras com Pix e boleto" ou "Lançar MVP do dashboard do vendedor")
4. Tem algum impedimento ou redução de capacidade nessa sprint (férias, feriados, dependências externas, onboarding)?
ETAPA 2 – Montar o Plano da Sprint (só execute depois de eu responder todas as 4 perguntas):
Com base nas respostas, entregue:
1. Objetivo da Sprint (em negrito, uma única frase poderosa)
2. Sprint Backlog selecionado
- Liste as User Stories que cabem no velocity (use estimation em story points)
- Formato: [ID] Como [persona], quero [funcionalidade] para que [benefício] – (X pontos)
- Total comprometido vs velocity (ex: 32/35 pontos)
3. Breakdown detalhado em tarefas da história mais importante ou complexa
- Use checklist com estimativa em horas ou meio-dia
- Inclua tarefas de dev, teste, review, deploy e validação com PO
4. Definition of Done (DoD) oficial da sprint (checklist pronta para colar no board)
5. Dicas rápidas de facilitação
- Como rodar a Planning em até 2h (para sprint de 2 semanas)
- Frases matadoras para usar na reunião
- Template de Burndown simples
Se o velocity não comportar tudo que o PO quer, sugira cortes ou negociações com argumentos claros (nunca aceite overload).
Use linguagem direta, humana e motivadora – como se estivesse facilitando a reunião agora.
Comece fazendo apenas a primeira pergunta.
Dica Extra:
Depois de rodar esse prompt, copie o Objetivo da Sprint e cole como título do board no Jira/Notion – o time inteiro já entra alinhado desde o segundo 1 da sprint.
Pare de fazer deploy na mão e correndo risco – monte um pipeline profissional que testa, protege e entrega em produção com um clique (e rollback em 10 segundos).
Quando Usar:
Todo projeto que já tem teste automatizado (ou quer ter), migração de deploy manual → automático, times que perdem horas por semana com “deu erro em prod”, ou antes de qualquer release crítico.
Como Funciona:
Você responde 4 perguntas sobre sua stack e cultura → a IA entrega pipeline completo com estágios, segurança, estratégia de deploy e código YAML pronto para colar.
IA Recomendada:
Claude (raciocínio mais profundo em infra e gera YAML mais limpo e seguro em respostas longas).
Palavras-Chave:
ci/cd pipeline, github actions, gitlab ci, jenkins, deploy automático, blue-green, canary deploy, rollback rápido, segurança devops, testes automatizados
Prompt Completo:
Atue como Engenheiro DevOps Sênior + Arquiteto Cloud com 15+ anos montando pipelines que rodam em empresas de milhões de usuários.
Quero um pipeline CI/CD moderno, seguro, observável e que caiba exatamente na minha realidade – nada de "best practice genérica que ninguém usa".
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Entendimento do Contexto (faça UMA pergunta por vez):
1. Qual o nome/tipo da aplicação, linguagem principal, arquitetura (monolito, microsserviços, serverless, SPA?) e onde ela roda ou vai rodar (AWS, GCP, Azure, Vercel, Railway, Kubernetes, etc.)?
2. Como está o fluxo atual de merge e deploy (ex: "PR → merge → SSH na máquina → pm2 restart" ou "já temos algo no GitHub Actions") e quantas pessoas revisam código?
3. Qual o impacto real se a aplicação cair 15 minutos (ex: "só interna", "clientes reclamam", "perde dinheiro na hora")?
4. Qual ferramenta de CI/CD você quer ou já usa (GitHub Actions, GitLab CI, CircleCI, Jenkins, Bitbucket, Azure DevOps, outros)?
ETAPA 2 – Entrega do Pipeline Completo (só execute depois de eu responder todas as 4):
Com base nas respostas, entregue:
1. Fluxo visual em texto (ex: push → build → test → security → deploy staging → e2e → approval → deploy prod com estratégia X)
2. Estágios detalhados do CI
- Build + cache inteligente
- Testes (unit, integration, coverage mínimo exigido)
- Lint + static analysis
- Security scan (dependências, SAST, container se aplicável)
3. Estágios do CD
- Build artefato/imagem Docker com tag semântica
- Deploy automático em staging/homolog
- Testes E2E automatizados
- Gate de aprovação manual (quem aprova)
- Estratégia de deploy em produção escolhida para o nível de criticidade (Rolling, Blue-Green, Canary ou Feature Flag) com motivo claro
- Plano de rollback em < 2 minutos
4. Código YAML 100% funcional e copiable para a ferramenta escolhida
- Jobs nomeados claros
- Cache de dependências
- Secrets referenciadas
- Matriz quando fizer sentido
- Notificações Slack/Teams no final
5. Extras obrigatórios
- Como versionar imagens Docker
- Como promover a mesma imagem de staging → prod (zero rebuild)
- Monitoramento básico pós-deploy (health check)
- Tempo médio estimado de execução do pipeline
Use boas práticas 2025 (parallel jobs, cache agressivo, fail-fast, trunk-based quando possível).
Comece agora fazendo apenas a primeira pergunta.
Dica Extra:
Depois de gerar o YAML, cole direto no repositório e adicione a badge do pipeline no README – o time inteiro já vê que “agora é profissional” na hora.
Acabe com PRs que viram guerra – crie um checklist vivo, priorizado e humano que garante qualidade sem matar a velocidade nem o bom clima.
Quando Usar:
Quando o time está crescendo, quando bugs bobos estão vazando pra produção, quando o feedback está virando crítica pessoal ou quando ninguém sabe mais o que é “bom código” aqui dentro.
Como Funciona:
Você responde 4 perguntas sobre stack, prioridade real e cultura → a IA entrega checklist personalizado + filosofia + guia de comunicação que o time inteiro abraça.
IA Recomendada:
Claude (gera checklists mais equilibrados, humanos e com exemplos concretos; Grok também manda bem, mas Claude ganha no tom colaborativo).
Palavras-Chave:
code review checklist, boas práticas code review, qualidade de código, feedback construtivo, cultura de engenharia, testes automatizados, segurança código, legibilidade
Prompt Completo:
Atue como Principal Engineer + Tech Lead com 18+ anos construindo times de alta performance e cultura de code review saudável.
Quero um checklist de Code Review que seja NOSSO – não uma lista genérica do Google, mas algo que reflita exatamente o que significa “código bom” para esse time hoje.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Alinhar a Barra de Qualidade (faça UMA pergunta por vez):
1. Qual a stack principal e tipo de projeto (ex: backend Node.js/TS, frontend React/Next, data pipeline Python, mobile Flutter, fullstack etc.)?
2. Se fosse escolher SÓ UMA coisa que todo código desse projeto precisa ter sem exceção, qual seria? (ex: “legibilidade absurda”, “segurança blindada”, “performance máxima”, “entrega ultra-rápida”, “testável até o osso”)
3. Qual o acordo real sobre testes hoje? (ex: “toda regra de negócio com unit test + 80% coverage”, “testes são bons mas não bloqueiam”, “foco em E2E e aceitação manual”)
4. Como está a cultura de feedback no time agora? (ex: “muito franca e direta”, “as pessoas têm medo de comentar”, “é educado demais e não resolve nada”, “não tem padrão”)
ETAPA 2 – Entregar o Checklist Definitivo (só execute depois de eu responder todas as 4):
Com base nas respostas, entregue:
1. Filosofia do Code Review do time (1 parágrafo poderoso, pronto pra colar no wiki/notion)
2. Checklist priorizado (comece pela categoria mais crítica pro nosso contexto)
- Máximo 12-15 itens no total (o que realmente importa)
- Formato checklist com [ ] e linguagem positiva
- Categorias: Funcionalidade → [prioridade #1 que você definiu] → Testes → Segurança → Performance → Estilo & Convenções
- Exemplos concretos da nossa stack sempre que possível
3. Guia rápido de Comunicação (para quem revisa e quem recebe)
- Frases prontas para críticas construtivas
- Como elogiar obrigatoriamente em todo review
- Como discordar sem brigar
4. Template pronto de comentário de PR (exemplo real de como usar o checklist na prática)
5. Dica de implementação
- Como colar isso no GitHub/PR template
- Como transformar em GitHub Code Owners + required checks quando maduro
Use tom humano, direto e acolhedor – exatamente como se estivesse facilitando essa conversa no time agora.
Comece fazendo apenas a primeira pergunta.
Comece agora fazendo apenas a primeira pergunta.
Dica Extra:
Depois de gerar, crie uma página no Notion chamada “Nosso Code Review” e marque todos os devs – na próxima sprint o número de “LGTM” sem comentário cai 90% e a qualidade sobe na hora.
Pare de testar tudo ou nada – monte uma pirâmide inteligente que protege o que realmente importa, dá feedback em minutos e deixa o time entregar rápido sem medo de quebrar produção.
Quando Usar:
Projeto novo ou legado que vive com medo de deploy, bugs caros escapando pra produção, time debatendo “quantos testes são suficientes” ou antes de escalar o produto de verdade.
Como Funciona:
Você responde 4 perguntas sobre o que não pode quebrar → a IA entrega pirâmide personalizada, ferramentas certas, metas realistas e como encaixar no CI/CD sem virar gargalo.
IA Recomendada:
Claude (raciocínio mais pragmático e equilibra perfeitamente risco x velocidade em respostas longas; ChatGPT 4o também é ótimo).
Palavras-Chave:
estratégia de testes, test strategy, pirâmide de testes, testes automatizados, testes unitários, testes integração, e2e cypress, playwright, qualidade de software, shift left
Prompt Completo:
Atue como Senior SDET + QA Tech Lead com 15+ anos definindo estratégias de teste em startups e empresas que faturam alto.
Quero uma estratégia de testes PRAGMÁTICA: que proteja o negócio, seja rápida de executar e não vire um peso que mata a velocidade do time.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Mapear o Risco Real (faça UMA pergunta por vez):
1. Qual o nome/tipo da aplicação, stack principal (ex: Next.js + Node + PostgreSQL, React Native + Firebase, Python FastAPI etc.)?
2. Se o fluxo mais importante quebrar em produção, o que acontece de verdade? (ex: perde dinheiro na hora, dano de imagem, usuário reclama mas volta, ninguém percebe rápido)
3. Qual é o fluxo/jornada ABSOLUTAMENTE crítico que não pode falhar nunca? (ex: checkout com pagamento, login com 2FA, upload de arquivo médico, geração de relatório fiscal)
4. Como está a cultura de qualidade hoje? (ex: “só dev testa”, “tem QA manual separada”, “todo mundo testa mas ninguém automatiza”, “já temos bastante teste mas está lento”)
ETAPA 2 – Entregar a Estratégia Completa (só execute depois de eu responder todas as 4):
Com base nas respostas, entregue:
1. Filosofia de Qualidade do projeto (1 parágrafo forte, pronto pra colar no wiki)
2. Pirâmide de Testes personalizada (com % aproximado de esforço por camada)
- Base: Testes de Unidade (x%)
• O que cobre • Ferramentas recomendadas • Meta de cobertura realista • Quando roda
- Meio: Testes de Integração/Serviço (y%)
• Foco nos contratos e integrações • Ferramentas • Quando roda
- Topo: Testes End-to-End (z%)
• SOMENTE os fluxos críticos • Ferramentas (Cypress ou Playwright – escolhe o melhor pro caso) • Quantos testes no máximo • Quando roda (staging)
3. Testes complementares necessários ou não (Performance, Segurança, Acessibilidade, Contract Testing) com justificativa clara baseada na criticidade
4. Integração total com CI/CD
- Onde cada camada roda no pipeline
- Gates de qualidade (o que bloqueia merge/deploy)
- Tempo máximo aceitável por camada
5. Métricas que realmente importam (e as que a gente ignora)
- Cobertura só em código novo
- Flakiness rate
- Bugs em produção (a métrica rainha)
- Tempo do feedback loop
6. Plano de 30-60-90 dias pra implementar (passo a passo realista)
Use linguagem direta, humana e sem frescura acadêmica – como se estivesse explicando pro time na reunião de planejamento.
Comece agora fazendo apenas a primeira pergunta.
Dica Extra:
Depois de rodar esse prompt, cole a “Filosofia de Qualidade” como primeira página do seu board de testes – o time inteiro para de discutir “se precisa testar” e começa a discutir só “como testar melhor”. Funciona como mágica.
Transforme aquele monstro legado em código moderno sem fazer “Big Rewrite” perigoso: plano faseado, seguro e que entrega valor desde a semana 1.
Quando Usar:
Sistema antigo que dá medo de tocar, novas features demoram meses, time vive apagando incêndio ou você já ouviu “melhor reescrever tudo” (e sabe que isso mata empresa).
Como Funciona:
Você responde 4 perguntas reais sobre a dor → a IA entrega diagnóstico honesto + plano faseado com Strangler quando precisa, testes de proteção e métricas que provam que está funcionando.
IA Recomendada:
Claude (raciocínio mais maduro em sistemas complexos e legado; gera planos mais realistas e seguros que times realmente seguem).
Palavras-Chave:
refatoração legado, strangler fig, martin fowler, big rewrite, dívida técnica, testes caracterização, refatoração incremental, modernização código, plano refatoração
Prompt Completo:
Atue como Arquiteto de Software Sênior + Especialista em Migração de Legados com 20+ anos salvando sistemas que todo mundo queria jogar fora.
Quero um plano de refatoração SEGURO, incremental e que o negócio continue girando – nada de “vamos reescrever tudo em 18 meses” que nunca entrega.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Diagnóstico Sem Mimimi (faça UMA pergunta por vez):
1. Qual o nome/tipo do sistema legado, linguagem principal, tamanho aproximado (linhas de código ou módulos) e há quanto tempo ele está em produção?
2. Qual a dor MAIOR que esse legado causa HOJE pro negócio ou pro time (ex: “nova feature leva 3 meses”, “cai toda sexta”, “só o João entende e ele tá saindo”, “gasta 80% do tempo em manutenção”)?
3. Qual o pior code smell técnico que mais trava o dia a dia (ex: god class de 15k linhas, zero testes, acoplamento total com Oracle 11g, duplicação insana, etc.)?
4. Qual o apetite real do negócio/tipo de time (ex: “pode investir 20% da capacidade por sprint”, “precisa entregar feature pesada em 3 meses”, “temos 2 devs que ainda entendem o legado”)?
ETAPA 2 – Plano de Refatoração Realista (só execute depois de eu responder todas as 4):
Com base nas respostas, entregue:
1. Diagnóstico cruelmente honesto em 3 frases + estratégia escolhida (Incremental puro, Strangler Fig, Rewrite controlado ou combinação) com justificativa clara de por que NÃO é outra.
2. Fases obrigatórias e cronograma realista
- Fase 0: Rede de segurança (testes de caracterização ou golden master) – o que cobrir primeiro e como fazer rápido
- Fase 1: Refatoração oportunista + Boy Scout Rule (regra do escoteiro)
- Fase 2: Ataques cirúrgicos nos piores smells (tarefas concretas pro backlog)
- Fase 3: Strangler quando necessário (quais bounded contexts viram microsserviços/nova stack primeiro)
- Fase 4: Descomissionamento do legado (critérios de sucesso pra desligar o monstro)
3. Alocação de capacidade (% do sprint dedicado à refatoração sem matar entrega de valor)
4. Riscos + mitigações reais (o que pode dar errado e como não morrer)
5. Métricas que provam que está melhorando (lead time, change failure rate, velocity em features novas, moral do time)
6. Primeiras 3 tarefas que eu posso colocar no backlog amanhã mesmo e já sentir diferença
Use tom direto, experiente e sem enrolação – como se estivesse salvando minha empresa na reunião de emergência agora.
Comece fazendo apenas a primeira pergunta.
Dica Extra:
Rode esse prompt com o PO e o Tech Lead na mesma sala – em 20 minutos sai alinhamento que normalmente leva 3 reuniões e evita o maior erro: começar refatoração sem rede de segurança.
Acabe com o “ninguém sabe como rodar isso” – crie uma estrutura clara, viva e que onboarda dev novo em 15 minutos (e não vira lixo em 3 meses).
Quando Usar:
Projeto novo ou antigo que tá virando bagunça, onboarding dói, API muda e ninguém atualiza o README, ou você já perdeu horas explicando a mesma coisa pra 5 devs diferentes.
Como Funciona:
Você responde 4 perguntas sobre quem usa e qual a maior dor → a IA entrega estrutura priorizada, arquivos exatos, filosofia e estratégia anti-desatualização que cola de verdade.
IA Recomendada:
Claude (gera estruturas mais organizadas, exemplos mais reais e estratégias de manutenção que times realmente adotam; ChatGPT 4o também entrega bem).
Palavras-Chave:
documentação técnica, readme perfeito, architecture decision records, adr, onboarding dev, contributing md, docusaurus, mkdocs, openapi, documentação viva
Prompt Completo:
Atue como Tech Lead Sênior + Technical Writer com 15+ anos criando docs que salvam vidas de times (e evitam plantão às 2h da manhã).
Quero uma estrutura de documentação que seja VIVA, útil desde o dia 1 e que não vire mentira em 2 sprints – nada de “vou fazer um Notion gigante que ninguém atualiza”.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Entender Quem Sofre (faça UMA pergunta por vez):
1. Qual o nome/tipo do projeto, stack principal e se é open-source, interno ou produto?
2. Quem é o leitor que mais precisa dessa doc AGORA (ex: dev novo no time, outro time que consome a API, dev frontend que precisa do backend, comunidade externa)?
3. Qual a tarefa que essa pessoa mais tenta fazer e mais trava hoje (ex: “rodar o projeto local”, “fazer a primeira chamada na API”, “entender por que tomamos essa decisão maluca”, “contribuir com um PR”)?
4. Qual o maior vilão da manutenção hoje (ex: “ninguém atualiza”, “doc fica fora do repo”, “muda código e esquece doc”, “não tem dono”)?
ETAPA 2 – Entregar a Estrutura Definitiva (só execute depois de eu responder todas as 4):
Com base nas respostas, entregue:
1. Filosofia da Documentação (1 parágrafo poderoso, pronto pra colar no README)
2. Estrutura de pastas e arquivos (exata, com nomes reais)
- README.md (a porta de entrada perfeita – o que TEM que ter nele)
- docs/onboarding/ ou SETUP.md (como rodar em 10 minutos)
- docs/architecture/ ou ARCHITECTURE.md + ADRs (decisões que ninguém entende mais)
- docs/api/ ou OpenAPI gerado (se for API)
- CONTRIBUTING.md (regras do jogo)
- CHANGELOG.md + TROUBLESHOOTING.md
- Template de ADR pronto pra usar
3. Ferramentas recomendadas pro nosso caso (Markdown puro no repo, Docusaurus, MkDocs, Gitbook, ou Swagger gerado do código) com motivo real
4. Estratégia anti-desatualização baseada no vilão que você identificou
- Regras obrigatórias no PR template
- Automatizações (ex: lint que quebra build se doc não mudar)
- Dono da doc + ritual simples de atualização
5. Os 3 primeiros arquivos/tarefas que eu posso criar amanhã e já sentir a diferença
Use tom direto, experiente e acolhedor – como se estivesse salvando meu time na call de emergência.
Comece agora fazendo apenas a primeira pergunta.
Dica Extra:
Depois de rodar esse prompt, crie a pasta /docs e commit o README novo com o PO logado – o primeiro dev que onboardar semana que vem já vai te mandar um “obrigado por existir” no Slack. Acontece toda vez.
Pare de fazer gráficos bonitos que ninguém usa – explore dados com foco no negócio e saia com 3-5 hipóteses que movem receita, retenção ou corte de custo.
Quando Usar:
Todo novo dataset, antes de qualquer modelagem, quando o time de negócio pergunta “o que esses dados estão dizendo?”, ou quando você precisa justificar investimento em ML com evidências reais.
Como Funciona:
Você responde 4 perguntas sobre o problema real → a IA entrega roteiro completo de EDA com código Python pronto (Pandas + Seaborn), limpeza inteligente e hipóteses de negócio acionáveis.
IA Recomendada:
Claude (raciocínio mais profundo em estatística descritiva, gera hipóteses mais ricas e código mais limpo; ChatGPT 4o também é excelente).
Palavras-Chave:
análise exploratória dados, eda python, pandas seaborn, hipóteses negócio, visualização dados, churn analysis, feature engineering, data insights
Prompt Completo:
Atue como Principal Data Scientist com 15+ anos transformando dados em decisões de milhões.
Quero uma EDA que não seja só “olha que gráfico bonito”, mas que responda uma pergunta de negócio e termine com hipóteses que eu consigo levar pro board amanhã.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Entender o Negócio (faça UMA pergunta por vez):
1. Qual o dataset (nome/tabela), tamanho aproximado e origem (ex: vendas 2023-2025, logs de app, CRM, Kaggle)?
2. Qual a pergunta de negócio QUE PAGA A CONTA que queremos responder (ex: “por que o churn subiu?”, “o que faz um cliente comprar mais?”, “como detectar fraude mais cedo?”)?
3. Qual a variável-alvo exata no dataset (coluna e valores – ex: churn: Yes/No, revenue: float, fraud: 1/0)?
4. Se acertarmos essa previsão/entendimento, qual ação concreta de negócio a gente toma (ex: campanha de retenção, ajuste de preço, bloqueio automático)?
ETAPA 2 – Entregar o Roteiro Completo de EDA (só execute depois de eu responder todas as 4):
Com base nas respostas, gere:
1. Setup inicial (importações, carregamento do df – assuma csv ou parquet)
2. Inspeção + limpeza inteligente
- Shape, tipos, missing, duplicados
- Decisões justificadas de tratamento (ex: “drop coluna X – 90% missing e não recuperável”)
3. Análise univariada com gráficos essenciais (histograms, countplots, boxplots) – só o que importa pro alvo
4. Análise bivariada FOCADA na variável-alvo
- Cat × alvo: countplot com hue ou stacked bar %
- Num × alvo: boxplot + violin + kde por classe
- Tabelas cruzadas com % quando fizer sentido
5. Correlações + heatmap + deteção de multicolinearidade
6. Feature engineering inicial que já surge da EDA (ex: faixa etária, tempo de relacionamento, ratio de uso, etc.) com código
7. 4-6 hipóteses de negócio MATADORAS no formato:
“Clientes com [condição] têm [X vezes] mais chance de [alvo] porque [evidência + número do gráfico].
Ação sugerida: [ideia concreta que gera/ganha dinheiro].”
8. Conclusão em 3 frases + próximas etapas (modelagem, experimento, coleta nova)
Todo código 100% executável em Jupyter/Colab, com comentários e títulos de seção em markdown.
Use linguagem direta, humana e com senso de urgência – como se estivesse apresentando pro CEO amanhã.
Comece agora fazendo apenas a primeira pergunta.
Dica Extra:
Rode esse prompt com o dataset já aberto no Colab, cole o código seção por seção e, em 30-40 minutos, você tem um notebook apresentável que vira relatório automático com nbconvert – já aconteceu de hipóteses dessa EDA virarem campanhas que pagaram o salário do time inteiro no mês seguinte.
Pare de vazar dados e retrabalhar toda vez – monte um pipeline limpo, robusto e que transforma dados bagunçados em features perfeitas pro modelo voar.
Quando Usar:
Todo novo projeto de ML/classificação, dataset sujo ou com categóricas/numéricas misturadas, antes de qualquer treino, ou quando você já quebrou a cara com data leakage.
Como Funciona:
Você responde 4 perguntas rápidas sobre seus dados e modelo → a IA entrega pipeline completo com ColumnTransformer + Pipeline scikit-learn, código 100% copiable e justificativas que impressionam até o tech lead.
IA Recomendada:
Claude (gera código mais limpo, escolhas mais inteligentes de scaler/encoder e explicações técnicas perfeitas em respostas longas).
Palavras-Chave:
pré-processamento ml, pipeline scikit-learn, columntransformer, one-hot encoding, robustscaler, feature engineering, data leakage, machine learning pipeline, encoding categóricas
Prompt Completo:
Atue como ML Engineer Sênior com 15+ anos construindo modelos que rodam em produção e faturam dinheiro de verdade.
Quero um pipeline de pré-processamento PROFISSIONAL: zero leakage, escalável, reproduzível e que funcione com qualquer modelo (de LogReg até XGBoost).
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Diagnóstico Rápido e Honesto (faça UMA pergunta por vez):
1. Qual o objetivo do modelo (classificação binária, multiclasse, regressão?) e quais tipos de features você tem (numéricas, categóricas, texto, datas, etc.)?
2. As categóricas são nominais (sem ordem – ex: cidade, cor) ou ordinais (com ordem clara – ex: baixo/médio/alto)? E quantas categorias únicas cada uma tem (cardinalidade alta/baixa)?
3. As numéricas têm outliers fortes ou distribuição assimétrica (já olhou boxplot/histograma)? E o dataset tem missing values relevantes?
4. Qual família de modelo você pretende usar primeiro (linear/SVM que precisa escala, ou tree-based tipo RandomForest/XGBoost/LightGBM que não liga muito)?
ETAPA 2 – Entregar o Pipeline Completo (só execute depois de eu responder todas as 4):
Com base nas respostas, entregue:
1. Estratégia escolhida + justificativa curta e brutalmente honesta (por que esse scaler, por que esse encoder, por que não outro)
2. Código 100% executável em Python (scikit-learn 1.5+)
- Importações necessárias
- Separação X/y
- Train/test split estratificado (com motivo)
- ColumnTransformer com:
• Pipeline numérico (imputer + scaler escolhido)
• Pipeline categórico (imputer + encoder escolhido + handle_unknown='ignore')
• (opcional) coluna de texto ou datas se aparecer na etapa 1
- Pipeline final combinando preprocessor + modelo placeholder (pode ser Dummy ou LogisticRegression)
- Exemplo de fit + predict + predict_proba
3. Tratamento de missings inteligente (SimpleImputer estratégia X ou KNN se justificar)
4. Feature engineering básico que já vale ouro (ex: ratios, binned age, tempo desde última compra, etc.) com código
5. Como salvar/carregar o pipeline inteiro (joblib/pickle) pra produção
6. Teste rápido de sanidade (assert que o pipeline roda sem erro num df de exemplo)
7. Dicas de produção
- Como aplicar exatamente o mesmo preprocess em novos dados
- Monitoramento de drift nas categóricas/numéricas
- Quando usar Feature-engine ou Category Encoders no lugar
Código limpo, comentado, pronto pra colar no Colab/Jupyter e rodar na hora.
Use tom direto, experiente e sem frescura – como se estivesse salvando meu deploy de amanhã.
Comece agora fazendo apenas a primeira pergunta.
Dica Extra:
Depois de rodar esse prompt, salve o pipeline com joblib e crie um FastAPI básico com um endpoint /predict – em 15 minutos você já tem uma API de ML rodando em produção que não quebra nunca com dados novos. Já vi isso virar MVP que captou investimento.
Pare de chutar “vou usar XGBoost porque todo mundo usa” – rode um experimento justo, com métrica que importa pro negócio e saia sabendo exatamente qual modelo coloca dinheiro no caixa.
Quando Usar:
Todo projeto de classificação (churn, fraude, lead scoring, recomendação), quando você tem 2+ modelos na cabeça e precisa provar pro time/PO qual é o melhor, ou antes de jogar semanas em tuning do modelo errado.
Como Funciona:
Você responde 4 perguntas sobre o que realmente dói no negócio → a IA entrega comparativo completo com baseline, validação cruzada estratificada, boxplot automático e decisão baseada em números (não em hype).
IA Recomendada:
Claude (raciência mais equilibrado entre negócio e técnica, escolhe métricas certas pro contexto e gera código + explicação que até o stakeholder entende).
Palavras-Chave:
comparação modelos classificação, cross validation, stratified kfold, random forest vs xgboost, métrica negócio, auc roc, precision recall, f1 score, model selection
Prompt Completo:
Atue como Principal Data Scientist com 18+ anos decidindo modelos que rodam em produção e geram milhões (ou evitam perder milhões).
Quero um comparador de modelos de classificação JUSTO, rápido e que responda: “qual algoritmo coloca mais dinheiro no bolso ou evita mais perda?” – nada de “testa tudo e vê”.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Definir o que é “vencer” (faça UMA pergunta por vez):
1. Qual o problema de negócio exato (ex: prever churn, detectar fraude, classificar lead quente, prever inadimplência)?
2. Qual a proporção real da classe positiva (ex: 50/50, 20/80, 3/97)? Tem desbalanceamento pesado?
3. Qual erro dói mais no bolso ou na operação (Falso Positivo ou Falso Negativo)? Dê exemplo concreto do impacto financeiro/reputacional.
4. Com base nas respostas acima, qual métrica principal vamos coroar o campeão (AUC-ROC, Precision@K, Recall da classe minoritária, F1-score, Profit Curve, etc.)?
ETAPA 2 – Entregar o Comparador Completo (só execute depois de eu responder todas as 4):
Com base nas respostas, entregue:
1. Métrica campeã escolhida + justificativa curta e brutal (por que essa e não outra)
2. Os 4 competidores obrigatórios (sempre esses, só muda hyperparams default):
- LogisticRegression (baseline interpretável)
- RandomForest (robusto out-of-the-box)
- XGBoost ou LightGBM (state-of-the-art boosting – escolhe o melhor pro caso)
- (bônus) CatBoost se tiver muitas categóricas altas
3. Código 100% executável em Python
- Importações
- StratifiedKFold (5 ou 10 folds com shuffle e seed)
- Loop com cross_val_score usando a métrica campeã
- DataFrame com média ± desvio padrão de cada modelo
- Boxplot comparativo lindo (seaborn ou plotly)
- Teste estatístico opcional (paired t-test ou Wilcoxon) pra provar diferença significativa
4. Regras claras de decisão
- Vencedor técnico (maior score médio + menor variância)
- Trade-off complexidade vs performance
- Quando escolher o “menos bom” por interpretabilidade/latência/custo
5. Próximos passos automáticos
- Hyperparameter tuning só no vencedor (Optuna ou Hyperopt)
- SHAP global pro campeão pra explicar pro negócio
- Threshold tuning se a métrica for precision/recall
6. Template de relatório de 5 linhas que você cola pro PO e ele aprova na hora
Código limpo, comentado, roda em 2 minutos num dataset de 100k linhas.
Use tom direto, experiente e com humor ácido quando o baseline ganhar – como se estivesse salvando o orçamento do time agora.
Comece fazendo apenas a primeira pergunta.
Dica Extra:
Rode esse comparador logo depois do pré-processamento do card anterior, salve o boxplot como imagem e cole no Notion/Slide – em uma call de 15 minutos você prova pro time inteiro qual modelo vai pra produção e ninguém mais perde semana tunando o perdedor. Já vi isso economizar literalmente meses de trabalho.
Pare de tunar hiperparâmetros na sorte – encontre a config perfeita que melhora 10-30% o modelo sem fritar sua máquina ou seu prazo.
Quando Usar:
Logo após escolher o modelo baseline, quando o score atual não bate a meta de negócio, ou pra extrair o máximo antes de deployar em produção.
Como Funciona:
Você responde 4 perguntas sobre modelo, tempo e intuição → a IA entrega estratégia Grid/Random Search, grade personalizada, código pronto e análise que evita overfitting caro.
IA Recomendada:
Claude (raciocínio mais eficiente em espaços de busca grandes e equilibra compute vs ganho real; ChatGPT 4o também é sólido).
Palavras-Chave:
otimização hiperparâmetros, grid search, randomized search, hyperparameter tuning, gridsearchcv, randomizedsearchcv, xgboost tuning, random forest tuning, validação cruzada
Prompt Completo:
Atue como ML Engineer Sênior com 15+ anos otimizando modelos que rodam em produção e entregam ROI real.
Quero uma otimização de hiperparâmetros EFICIENTE: que maximize performance sem explodir tempo/compute, focada no meu modelo e métrica.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Definir Estratégia (faça UMA pergunta por vez):
1. Qual o modelo (ex: RandomForest, XGBoost, SVM) e métrica principal a otimizar (ex: AUC-ROC, F1-score, Accuracy)?
2. Quanto tempo/compute você tem (ex: "2 horas no laptop", "1 dia na GPU", "semana inteira em cloud")?
3. Qual intuição você tem sobre hiperparâmetros chave (ex: "learning rate é crítico", "nenhuma, sou novo nisso")?
4. Qual o score atual do modelo default (pra definir meta realista)?
ETAPA 2 – Entregar Plano Completo (só execute depois de eu responder todas as 4):
Com base nas respostas, entregue:
1. Técnica escolhida (GridSearchCV, RandomizedSearchCV, ou Bayesian com Optuna se tempo permitir) + justificativa honesta (trade-off tempo vs exaustividade)
2. Espaço de busca inteligente e priorizado
- Hiperparâmetros chave com ranges/distribuições (ex: n_estimators: [100, 200, 500, 1000] ou uniform(50,500))
- Foque nos que importam pro modelo (max 5-7 pra não explodir)
3. Código 100% executável em Python (scikit-learn + optuna se aplicável)
- Importações
- StratifiedKFold (5-10 folds)
- SearchCV setup com n_iter=50-200 pra Random, ou grid full se pequeno
- Fit + best_params_ + best_score_
- Treino final no best + eval no test set separado
4. Análise dos resultados
- Comparação com baseline (ganho % e se valeu o custo)
- Dicas pra refinar (ex: reduza range se um param dominar)
5. Modelo final pronto pra produção (com early stopping se aplicável)
Código limpo, comentado, roda rápido em dataset médio.
Use tom direto, prático e sem teoria inútil – como se estivesse otimizando pro meu deadline amanhã.
Comece agora fazendo apenas a primeira pergunta.
Dica Extra:
Integre isso com MLflow pra logar todas as runs – em 5 minutos você tem dashboard que prova pro time qual config vira o jogo no negócio.
Pare de tratar ML como mágica – transforme previsões opacas em insights claros que explicam "por quê", constroem confiança e geram ações reais de negócio.
Quando Usar:
Após treinar um modelo caixa-preta (como XGBoost ou NN), quando o PO/stakeholder pergunta "por que ele decidiu isso?", pra auditoria regulatória, ou pra você mesmo entender e melhorar o modelo.
Como Funciona:
Você responde 4 perguntas sobre o propósito → a IA entrega plano de XAI com SHAP focado na sua pergunta de negócio, código pronto e tradução pra ações acionáveis.
IA Recomendada:
Claude (raciocínio mais profundo em XAI e gera explicações humanas + código limpo; ChatGPT 4o também é ótimo pra visualizações rápidas)..
Palavras-Chave:
explainable ai, xai shap, interpretabilidade modelo, shap values, feature importance, partial dependence, transparência ml, explicação local global
Prompt Completo:
Atue como Especialista em XAI + Comunicador de Dados com 15+ anos explicando ML pra boards e times não-técnicos.
Quero explicar um modelo caixa-preta de forma clara, confiável e que gere confiança + ações de negócio – nada de gráficos bonitos sem propósito.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Definir o "POR QUÊ" da Explicação (faça UMA pergunta por vez):
1. Qual o modelo (ex: RandomForest, XGBoost, Neural Net) e problema de negócio que ele resolve (ex: prever churn, detectar fraude, recomendar produto)?
2. Pra quem você precisa explicar (ex: CEO/board, time de marketing, reguladores, você mesmo)?
3. Qual a pergunta chave de negócio (ex: "quais fatores mais importam?", "por que essa previsão específica?", "o modelo é justo?")?
4. Qual o risco se a explicação falhar (ex: baixo - só curiosidade, alto - impacto em pessoas ou compliance)?
ETAPA 2 – Plano de Interpretação Completo (só execute depois de eu responder todas as 4):
Com base nas respostas, entregue:
1. Ferramenta escolhida (SHAP como principal, LIME pra local se justificar) + por quê é a melhor pro caso
2. Estratégia priorizada pela pergunta
- Global: Summary Plot + Bar Plot (importância média e interações)
- Dependência: Dependence Plot pra relações feature x impacto
- Local: Force/Waterfall Plot pra uma previsão específica
3. Código Python 100% executável (shap + treeexplainer se aplicável)
- Setup explainer
- Geração dos shap_values
- Plots com matplotlib/seaborn
- Exemplo de como salvar imagens pra relatório
4. Tradução pra negócio em 3-5 insights acionáveis (ex: "feature X aumenta churn 20% → campanha Y")
5. Construindo confiança extra (fairness check com SHAP groups, validação com experts)
6. Dicas rápidas pra apresentação (frases prontas pra explicar cada plot sem jargão)
Use tom acolhedor, prático e focado em valor – como se estivesse ajudando o time a confiar no modelo agora.
Comece fazendo apenas a primeira pergunta.
Dica Extra:
Integre isso com MLflow pra logar todas as runs – em 5 minutos você tem dashboard que prova pro time qual config vira o jogo no negócio.
Pare de entediar com gráficos – conte uma história irresistível que transforma números em decisão, orçamento aprovado e “uau, vamos fazer isso agora”.
Quando Usar:
Toda vez que você precisa de orçamento, alinhamento ou ação de gente grande (CEO, CFO, board, diretorias), ou quando já ouviu “legal, mas e aí, o que eu faço com isso?”.
Como Funciona:
Você responde 5 perguntas sobre a audiência e a dor real → a IA entrega roteiro completo de 7 slides, narrativa matadora, frases prontas e até respostas pras objeções mais chatas.
IA Recomendada:
Claude (melhor em storytelling estratégico, cria narrativas emocionais + lógicas que convencem céticos e empolgam visionários).
Palavras-Chave:
storytelling com dados, apresentação executiva, pitch de dados, data for business, dashboard executivo, comunicação insights, convencer stakeholders
Prompt Completo:
Atue como Head de Data + Consultor de Comunicação Executiva com 20+ anos vendendo projetos de dados pra boards que só entendem de dinheiro.
Quero uma apresentação que não seja mais um “relatório de dados”, mas uma história que faz o stakeholder sentir a dor, ver a solução e aprovar na hora – zero enrolação, máximo impacto.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Mapear a Sala e a Dor (faça UMA pergunta por vez):
1. Qual o projeto/resultados que você tem na mão (ex: modelo de churn, segmentação, forecast de vendas) e o número que mais impressiona?
2. Quem senta na mesa (cargos exatos: CEO, CFO, CMO, board) e o que mais tira o sono deles HOJE?
3. Qual a pergunta que eles vão fazer assim que você entrar (ex: “quanto dinheiro isso vai me fazer ganhar/perder?”)?
4. Eles têm poder de aprovar orçamento agora ou você tá plantando semente pro futuro?
5. Nível de ceticismo com dados/IA (ex: adoram inovação, já queimaram a língua com projetos, acham que substitui intuição)?
ETAPA 2 – Entregar o Storyboard Completo (só execute depois de eu responder todas as 5):
Com base nas respostas, entregue um roteiro de 6-8 slides (máximo 10 minutos) no arco clássico:
1. Slide de abertura – A Dor em Números (gancho que dói no bolso ou no ego)
2. Slide da Promessa – “E se a gente pudesse…” (uma frase que faz o olho brilhar)
3. Slide dos Insights – Os 3-4 vilões/heróis que ninguém via (traduzido pro idioma deles)
4. Slide da Prova – Exemplo real ou simulação que prova que funciona
5. Slide do Futuro – O “depois” pintado em números e emoção
6. Slide do Pedido – Ação concreta + custo + ROI cristalino
7. Slide final – Perguntas (com respostas prontas pras 3 objeções mais previsíveis)
Pra cada slide:
- Título matador (máx 10 palavras)
- 1 visual forte (descreva o gráfico/imagem)
- Bullet points ou frases curtas (nada de parágrafo)
- Script falado exato (o que você diz em voz alta)
- Tempo aproximado
Adapte linguagem, profundidade técnica e tom pro perfil da audiência (cético = mais prova social, visionário = mais futuro glorioso).
Use tom humano, confiante e acolhedor – como se estivesse salvando a empresa na sala de reunião agora.
Comece fazendo apenas a primeira pergunta.
Dica Extra:
Depois de rodar esse prompt, monte os slides no Google Slides/PowerPoint em menos de 1 hora (só cola o roteiro) e ensaie falando em voz alta – já vi apresentação feita com esse fluxo aprovar orçamento de R$ 1,2 mi em 12 minutos. Acontece toda hora.
Pare de “achar” que a mudança funciona – prove com estatística séria, tempo mínimo e risco zero de tomar decisão errada que custa caro.
Quando Usar:
Toda mudança que mexe em dinheiro (botão, preço, copy, fluxo de checkout, e-mail, landing), antes de virar regra pra 100% do tráfego, ou quando o time discute “eu acho que verde converte mais” sem prova.
Como Funciona:
Você responde 6 perguntas rápidas sobre baseline, tráfego e risco → a IA entrega plano completo com MDE realista, tamanho de amostra, duração exata, código Python pronto e decisão clara no final.
IA Recomendada:
Claude (raciocínio mais pragmático, equilibra perfeitamente rigor estatístico com realidade de tráfego baixo e prazo apertado).
Palavras-Chave:
teste a/b, ab testing, experimentação produto, tamanho amostra, mde, poder estatístico, significância prática, statsmodels, evan miller calculator
Prompt Completo:
Atue como Head de Experimentação + Growth Scientist com 15+ anos rodando milhares de testes A/B que moveram milhões em receita.
Quero um plano de teste A/B CIRÚRGICO: estatisticamente correto, mas que caiba na minha realidade de tráfego, prazo e risco – nada de “rode 3 meses pra detectar 0,2%”.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Mapear a Realidade (faça UMA pergunta por vez):
1. Qual mudança exata você quer testar (ex: botão verde vs azul, preço R$97 vs R$127, headline nova) e qual métrica principal (taxa de conversão, receita por usuário, LTV, retenção dia 7)?
2. Qual o valor atual (baseline) dessa métrica (ex: 4,8% converte, R$ 230 ARPU)?
3. Quantos usuários/visitantes entram no ponto do teste por dia ou por semana (ex: 1.200 visitas/dia no checkout)?
4. Qual o menor uplift que já justificaria implementar a mudança (ex: +5% já paga o esforço, ou só +15% vale o risco)?
5. Qual o risco real se a variante B for pior (ex: perde 2-3% de receita por semana = alto, ou só visual = baixo)?
6. Quanto tempo máximo você tem pra decidir (ex: 2 semanas no máximo, ou pode rodar 2 meses)?
ETAPA 2 – Entregar o Plano Completo (só execute depois de eu responder todas as 6):
Com base nas respostas, entregue:
1. Hipótese clara (unilateral ou bilateral) + justificativa honesta
2. Parâmetros estatísticos escolhidos
- α (0.05, 0.1 ou 0.01) + motivo
- Poder 80% ou 90% + motivo
- MDE realista (o menor uplift que vale a pena) + cálculo do tamanho de amostra por variante
3. Duração mínima e recomendada do teste (com regra de pelo menos 1-2 semanas completas)
4. Código Python 100% executável
- Cálculo do sample size (statsmodels ou fórmula manual)
- Análise final com proportions_ztest + intervalo de confiança
- Decisão automática: “implementar”, “matar” ou “segmentar mais”
5. Monitoramento sem peeking (quando olhar, como olhar)
6. Plano B caso o teste não atinja poder (sequential testing ou CUPED se justificar)
7. Frases prontas pro relatório final pro time/PO (ex: “Variante B ganhou com p=0.003 e uplift de +18% (IC95%: +11% a +25%) → implementamos segunda-feira”)
Use tom direto, prático e com senso de urgência – como se estivesse salvando a receita do mês agora.
Comece fazendo apenas a primeira pergunta.
Dica Extra:
Depois de rodar esse prompt, cole o cálculo de sample size direto no Notion do time de produto – acaba de vez com discussão “mas acho que já tá bom” e todo mundo começa a respeitar experimentos de verdade.
Pare de classificar “irado” como negativo – monte um pipeline que entende gíria brasileira, emojis e sarcasmo, com código pronto e performance que impressiona o time de produto.
Quando Usar:
Reviews de app, comentários no Instagram/Reclame Aqui, NPS aberto, chat de atendimento, tweets mencionando sua marca ou qualquer texto que você precisa saber se o cliente amou, odiou ou tá “mais ou menos”.
Como Funciona:
Você responde 6 perguntas sobre seus textos e recursos → a IA entrega pipeline completo com pré-processamento BR, escolha certa entre TF-IDF vs BERTimbau, código 100% executável e decisão clara do que usar em produção.
IA Recomendada:
Claude (raciocínio mais maduro em NLP multilíngue, entende melhor português BR, escolhe BERTimbau/AlBERTino quando precisa e não força transformer pesado sem motivo).
Palavras-Chave:
análise de sentimentos português, nlp brasil, bertimbau, sentiment analysis, pipeline nlp, huggingface portugues, classificação texto br, emojis sentimentos
Prompt Completo:
Atue como Arquiteto de NLP Sênior com 15+ anos construindo sistemas de análise de sentimentos que rodam em produção no Brasil (Magazine Luiza, Nubank, iFood nível).
Quero um pipeline de análise de sentimentos que entenda português brasileiro de verdade: gíria, emoji, negação (“não é ruim” = positivo), sarcasmo básico e que caiba no meu bolso/compute.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Diagnóstico Real (faça UMA pergunta por vez):
1. Qual o tipo de texto (ex: reviews de app, tweets, mensagens de WhatsApp, respostas NPS, reclamações Reclame Aqui) e quantos exemplos rotulados você tem (ou zero, se for zero-shot)?
2. Os textos são curtos (≤ 1-2 frases) ou longos? Tem muito emoji, erro de digitação, gíria BR (“irado”, “tô p da vida”)?
3. Qual o idioma principal (só PT-BR, mistura PT-BR/inglês, outros)?
4. Qual o objetivo de negócio real (ex: detectar insatisfação em tempo real, priorizar atendimento, medir NPS qualitativo, ranquear produtos)?
5. Você tem GPU disponível e pode pagar Hugging Face Inference ou precisa rodar 100% local/CPU?
6. Precisa explicar POR QUÊ classificou como negativo (pra atendimento) ou só o rótulo + score já resolve?
ETAPA 2 – Pipeline Completo (só execute depois de eu responder todas as 6):
Com base nas respostas, entregue:
1. Estratégia escolhida + justificativa honesta
- Zero-shot (Twitter-roBERTa-base-sentiment-latest ou PTEra) → quando poucos dados
- Fine-tuning BERTimbau Base/BERTimbau Large/AlBERTino → quando tem dados rotulados
- TF-IDF + Regressão Logística/SVM → só se for CPU e muitos dados simples
2. Pré-processamento OTIMIZADO pro português BR
- Manter/remover emojis (com biblioteca emoji → texto)
- Tratar negação brasileira (“não recomendo”, “nada a ver”)
- Código com limpeza mínima ou zero (pra transformers)
3. Código 100% executável em Python
- Opção 1: Zero-shot com pipeline() do HF (3 linhas!)
- Opção 2: Fine-tuning BERTimbau com Trainer (dataset Hugging Face)
- Opção 3: TF-IDF + modelo clássico (scikit-learn)
- Inferência em batch + retorno de score -1 a +1 ou positivo/neutro/negativo
4. Métricas reais pro PT-BR (macro-F1, accuracy por classe, exemplos que o modelo erra)
5. Deploy rápido
- FastAPI local ou Streamlit demo em 10 minutos
- Quantização pra CPU se precisar
6. Dicas de ouro brasileiras
- Como lidar com “tudo ótimo menos o prazo” (aspect-based se precisar)
- Modelos PT-BR que batem GPT-4 em sentimento local (PTEra, maritaca-ai/sabia)
Código limpo, comentado, roda no Colab gratuito.
Use tom direto, humano e com sotaque BR – como se estivesse tomando café e salvando meu produto agora.
Comece fazendo apenas a primeira pergunta.
Dica Extra:
Rode esse prompt, escolha a opção zero-shot primeiro (3 linhas de código) e já coloca num dashboard Streamlit interno amanhã – o time de CX vai pirar quando vir os comentários do Reclame Aqui classificados automaticamente com 88%+ de acerto em PT-BR real.
Pare de copiar arquitetura aleatória do Kaggle – crie uma rede que entende suas imagens de verdade, sem overfitting e sem torrar GPU desnecessária.
Quando Usar:
Todo projeto de visão computacional (classificar produtos, detectar defeitos, reconhecer documentos, análise médica simples), quando você tem imagens rotuladas e quer performance real sem PhD em deep learning.
Como Funciona:
Você responde 6 perguntas sobre dados, recursos e prazo → a IA escolhe entre transfer learning (MobileNetV2, EfficientNet, ResNet) ou custom do zero, entrega código TensorFlow/PyTorch pronto e explica cada camada como se fosse pro PO.
IA Recomendada:
Claude (raciocínio mais estratégico em visão computacional, escolhe o backbone certo pro tamanho dos dados e evita overkill caro).
Palavras-Chave:
cnn classificação imagens, transfer learning, mobilenetv2, efficientnet, resnet tensorflow, visão computacional, pytorch cnn, fine tuning imagens
Prompt Completo:
Atue como Arquiteto de Deep Learning Sênior com 15+ anos construindo modelos de visão que rodam em produção (de app mobile até fábrica).
Quero uma arquitetura de CNN perfeita pro MEU problema: nem muito simples que erra tudo, nem muito pesada que demora uma semana pra treinar.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Diagnóstico Honesto (faça UMA pergunta por vez):
1. Qual o problema exato (ex: classificar raio-X pneumonia, detectar defeito em peça, reconhecer placa de carro, classificar produto em foto) e quantas classes?
2. Quantas imagens rotuladas você tem pra treino + validação (ex: 800, 8k, 80k)?
3. As imagens são simples (objeto centralizado, fundo limpo) ou complexas (varia iluminação, ângulo, oclusão, fundo bagunçado)?
4. Qual resolução média (ex: 64x64, 224x224, 512x512 ou maior)?
5. Você tem GPU disponível (ex: Colab Pro, A100, ou só CPU/local)?
6. Precisa de precisão máxima (estado-da-arte) ou “bom o suficiente + rápido pra deploy” (ex: rodar em mobile/edge)?
ETAPA 2 – Arquitetura Sob Medida (só execute depois de eu responder todas as 6):
Com base nas respostas, entregue:
1. Estratégia escolhida + justificativa direta
- Transfer Learning (qual backbone: MobileNetV2, EfficientNet-B0/B3, ResNet50, ConvNeXt-Tiny) → quando dados < 25k
- Custom do zero (quantas camadas, blocos residuais ou não) → só se dados gigantes + GPU boa
- Quantização aware training se for edge
2. Código 100% executável (escolha TensorFlow/Keras OU PyTorch – o que ficar mais limpo pro caso)
- Data augmentation inteligente (albumentations ou tf.image)
- Backbone congelado ou não + quando descongelar
- Cabeça classificadora otimizada pro número de classes
- Callbacks (early stopping, reduce LR, checkpoint)
- Compile/train com learning rate scheduler
3. Tamanho final do modelo (MB) + FPS estimado em CPU/GPU/mobile
4. Fine-tuning passo a passo (fase 1: só cabeça, fase 2: descongelar últimas camadas)
5. Alternativa leve caso precise rodar em device (MobileNetV3-Small ou TinyML)
6. Como avaliar de verdade (confusion matrix por classe + exemplos que erra)
Código roda direto no Colab, com comentários em português claro.
Use tom acolhedor, direto e estratégico – como se estivesse desenhando a solução do seu produto agora mesmo.
Comece fazendo apenas a primeira pergunta.
Dica Extra:
Depois de rodar esse prompt, treine só a cabeça primeiro (10 épocas) e já veja se sobe de 60% pra 90% de acurácia – se sim, você já tem um MVP que impressiona amanhã.
Pare de lançar modelo e rezar pra não dar processo – audite viés de forma séria, escolha a métrica certa pro seu contexto e mitigue antes que vire crise de reputação ou multa da LGPD/AI Act.
Quando Usar:
Todo modelo que toma decisão sobre pessoas (crédito, contratação, saúde, justiça, marketing segmentado), antes de colocar em produção ou quando já tem cheiro de discriminação nos resultados.
Como Funciona:
Você responde 6 perguntas sobre aplicação, atributo sensível e valores da empresa → a IA entrega auditoria completa com métricas certas (Demographic Parity vs Equal Opportunity vs Equalized Odds), código Python pronto, interpretação pro negócio e plano de mitigação que cabe na realidade.
IA Recomendada:
Claude (melhor em raciocínio ético nuançado, explica trade-offs com clareza e sugere mitigação realista sem vender utopia).
Palavras-Chave:
fairness ia, viés algorítmico, ética machine learning, bias mitigation, demographic parity, equal opportunity, aif360, fairlearn, lgpd ai act, auditoria viés
Prompt Completo:
Atue como Especialista em Ética de IA + Fairness com 15+ anos auditando modelos em empresas reais (bancos, RH tech, saúde, governo).
Quero uma auditoria de viés que seja HONESTA: detecte o problema, explique o impacto real no negócio/pessoas e proponha mitigação que funciona sem destruir performance.
Processo em EXATAMENTE DUAS ETAPAS – não pule nada:
ETAPA 1 – Mapear o Risco Real (faça UMA pergunta por vez):
1. Qual a aplicação exata do modelo (ex: aprovação de crédito, triagem de currículos, pontuação de risco criminal, recomendação de conteúdo, diagnóstico médico) e qual decisão ele influencia?
2. Qual atributo sensível você quer auditar primeiro (gênero, raça/etnia, idade, renda, orientação sexual, deficiência) e ele está explícito ou só proxy no dataset?
3. Qual o pior dano possível se o modelo discriminar esse grupo (ex: negar crédito pra mulheres, não contratar negros qualificados, superdiagnosticar uma etnia)?
4. Tem exigência legal/regulatória (LGPD, AI Act europeu, GDPR, lei estadual americana, nada ainda)?
5. Como sua empresa define “ser justo” nesse contexto (mesma taxa de aprovação pra todos, mesma chance pros qualificados, minimizar dano histórico, outra coisa)?
6. Até quanto de acurácia você topa abrir mão pra ser justo (ex: zero, até 2%, até 5%, o que for preciso)?
ETAPA 2 – Plano de Auditoria Completo (só execute depois de eu responder todas as 6):
Com base nas respostas, entregue:
1. Métrica(s) de fairness escolhida(s) + justificativa cristalina (Demographic Parity vs Equal Opportunity vs Equalized Odds vs Predictive Parity) e por que as outras não servem pro seu caso
2. Código Python 100% executável
- Cálculo automático das métricas com sklearn + Fairlearn/AIF360
- Tabela comparativa por grupo protegido
- Gráfico de disparidade visual (bar ou radar plot)
- Teste estatístico de significância do viés
3. Interpretação em linguagem de gente (ex: “mulheres qualificadas têm 18% menos chance de aprovação que homens com mesmo perfil → impacto estimado de R$X em perda de receita + risco reputacional”)
4. Estratégia de mitigação recomendada
- Pré (reamostragem, reweighting, remoção de proxy)
- In-processing (adversarial debiasing, constraints com Fairlearn)
- Pós (threshold por grupo, calibração)
- Qual combina melhor com seu trade-off acurácia x justiça
5. Trade-off quantificado (ex: “mitigação X reduz viés em 85% e custa só 1.3% de acurácia)
6. Monitoramento contínuo em produção (o que logar, alertas, frequência)
7. Documento de 1 página pra apresentar pro jurídico/CEO (resumo executivo + decisão recomendada)
Use tom acolhedor, direto e responsável – como se estivesse protegendo a empresa e as pessoas ao mesmo tempo.
Comece fazendo apenas a primeira pergunta.
Dica Extra:
Depois de rodar esse prompt, salve o relatório de viés como PDF e compartilhe com o time jurídico – transforma “vamos ver no futuro” em “precisamos tratar isso agora” rapidinho.
USO CONSCIENTE DA IA: As informações geradas aqui são um ponto de partida pra estudo e inspiração, não substituem análise crítica, julgamento ou responsabilidade de um profissional qualificado. Sempre valide com fontes confiáveis e consulte um especialista licenciado antes de decidir qualquer coisa importante. Saiba mais no Aviso Legal
contato@aldeialab.com.br