"Alucinações" da IA — como não ser enganado no trabalho
A IA inventou um dado e eu quase apresentei para a diretoria. Entenda o risco.
Eu pedi ao ChatGPT uma estatística sobre adoção de IA no mercado brasileiro. Ele me deu: "Segundo pesquisa da FGV, 67% das empresas brasileiras já utilizam IA em seus processos."
Parecia legítimo. FGV é fonte confiável. O número era plausível. Quase coloquei no slide.
Fui verificar. A pesquisa não existia. O ChatGPT inventou a fonte, o número e a instituição. Com total confiança.
Isso se chama alucinação. E se você usa IA no trabalho, precisa saber como se proteger.
O que é alucinação (explicação simples)
IA generativa não "sabe" coisas. Ela prevê qual é a próxima palavra mais provável em uma sequência. Quando não tem informação suficiente, ela gera algo que parece certo — mas não é.
Não é uma mentira intencional. É mais como um aluno que não estudou e improvisa na prova oral: fala com confiança, usa termos técnicos, mas está inventando.
O problema: diferente do aluno, a IA nunca diz "não sei". Ela sempre responde. Com detalhes. Com segurança.
5 exemplos reais de alucinações perigosas no trabalho
1. Estatísticas inventadas
Pedi dados de mercado para uma proposta comercial. A IA gerou: "O mercado de EdTech no Brasil cresceu 34% em 2025, segundo a IDC."
Verifiquei: a IDC publicou um relatório, mas o número era 18%, não 34%. A IA puxou o número de outro contexto e misturou.
Risco: perder credibilidade com o cliente ao apresentar dados falsos.
2. Jurisprudência falsa
Um colega advogado pediu ao ChatGPT jurisprudência sobre um caso de propriedade intelectual. A IA gerou 3 processos com número de acórdão, tribunal, data e ementa.
Nenhum dos 3 existia. Os números pareciam reais, os tribunais eram reais, mas os processos eram completamente inventados.
Risco: sanções profissionais. Nos EUA já aconteceu — um advogado foi multado por citar jurisprudência gerada por IA.
3. Código de leis inexistente
Pedi para a IA citar o artigo da LGPD sobre tratamento de dados de menores. Ela citou corretamente o Art. 14. Mas quando pedi sobre um caso mais específico, inventou um artigo que não existe na lei.
Risco: recomendações de compliance baseadas em artigos fictícios.
4. Datas e eventos históricos errados
Para um relatório sobre o histórico de uma empresa, a IA colocou que ela foi fundada em 2008. Na verdade, foi em 2012. Misturou com outra empresa do mesmo setor.
Risco: parecer despreparado em reuniões com pessoas que conhecem os fatos.
5. Referências acadêmicas fantasma
Pedi referências bibliográficas sobre um tema. A IA gerou 5 referências com autor, título, journal e ano. Duas não existiam. Os autores eram reais, os journals eram reais, mas os artigos específicos eram inventados.
Risco: perder credibilidade acadêmica ou profissional ao citar fontes inexistentes.
Checklist anti-alucinação em 3 minutos
Sempre que a IA gerar informação factual, passe por este checklist:
1. Identifique as afirmações factuais (30 segundos)
Grife no texto: números, datas, nomes de pessoas/empresas, citações de leis, referências a pesquisas. Essas são as candidatas a alucinação.
2. Verifique no Perplexity ou Google (2 minutos)
Para cada afirmação factual crítica:
- Pesquise no Perplexity (ele cita fontes)
- Ou pesquise no Google com termos específicos
- Se não encontrar a fonte em 30 segundos, provavelmente é inventada
3. Aplique a regra do semáforo (30 segundos)
- Verde: informação confirmada com fonte → pode usar
- Amarelo: informação plausível mas sem fonte encontrada → use com ressalva ("estimativas indicam...")
- Vermelho: informação que não encontrou em lugar nenhum → delete
Quais ferramentas alucinam menos (e por quê)
Nenhuma IA é imune a alucinações, mas tem diferenças:
- Perplexity: alucina menos em pesquisas porque busca na web em tempo real e cita fontes. Se a fonte não existe, você percebe rápido.
- Claude: tende a ser mais honesto quando não sabe. Mais frequentemente diz "não tenho certeza" em vez de inventar.
- ChatGPT: muito capaz, mas muito confiante. Inventa com convicção.
- Gemini com Grounding: quando usa Google Search para embasar, erra menos em dados factuais.
- NotebookLM: só responde com base nos seus documentos. Se o dado não está nos documentos, ele diz que não encontrou.
Minha estratégia pessoal:
- Para pesquisa com fatos: Perplexity
- Para análise dos meus documentos: NotebookLM
- Para geração de texto e ideias: ChatGPT ou Claude (onde fatos importam menos)
A regra final
Confiar cegamente na IA é igual a confiar cegamente no estagiário novo.
Ele provavelmente está certo na maioria das vezes. Mas antes de mandar para o cliente, para a diretoria ou para publicação — você verifica.
Mesma coisa com a IA. Ela é uma ferramenta incrível. Mas quem assina embaixo é você.
1 profissional + IA vence no longo prazo
Entre na newsletter gratuita e receba playbooks e táticas práticas para produzir com mais velocidade e qualidade.