Vini.iA
Seguranca ChatGPT Claude Gemini Perplexity AI

"Alucinações" da IA — como não ser enganado no trabalho

Vinícius Eduardo
Vinícius Eduardo
7 min de leitura
"Alucinações" da IA — como não ser enganado no trabalho

"Alucinações" da IA — como não ser enganado no trabalho

A IA inventou um dado e eu quase apresentei para a diretoria. Entenda o risco.

Eu pedi ao ChatGPT uma estatística sobre adoção de IA no mercado brasileiro. Ele me deu: "Segundo pesquisa da FGV, 67% das empresas brasileiras já utilizam IA em seus processos."

Parecia legítimo. FGV é fonte confiável. O número era plausível. Quase coloquei no slide.

Fui verificar. A pesquisa não existia. O ChatGPT inventou a fonte, o número e a instituição. Com total confiança.

Isso se chama alucinação. E se você usa IA no trabalho, precisa saber como se proteger.

O que é alucinação (explicação simples)

IA generativa não "sabe" coisas. Ela prevê qual é a próxima palavra mais provável em uma sequência. Quando não tem informação suficiente, ela gera algo que parece certo — mas não é.

Não é uma mentira intencional. É mais como um aluno que não estudou e improvisa na prova oral: fala com confiança, usa termos técnicos, mas está inventando.

O problema: diferente do aluno, a IA nunca diz "não sei". Ela sempre responde. Com detalhes. Com segurança.

5 exemplos reais de alucinações perigosas no trabalho

1. Estatísticas inventadas

Pedi dados de mercado para uma proposta comercial. A IA gerou: "O mercado de EdTech no Brasil cresceu 34% em 2025, segundo a IDC."

Verifiquei: a IDC publicou um relatório, mas o número era 18%, não 34%. A IA puxou o número de outro contexto e misturou.

Risco: perder credibilidade com o cliente ao apresentar dados falsos.

2. Jurisprudência falsa

Um colega advogado pediu ao ChatGPT jurisprudência sobre um caso de propriedade intelectual. A IA gerou 3 processos com número de acórdão, tribunal, data e ementa.

Nenhum dos 3 existia. Os números pareciam reais, os tribunais eram reais, mas os processos eram completamente inventados.

Risco: sanções profissionais. Nos EUA já aconteceu — um advogado foi multado por citar jurisprudência gerada por IA.

3. Código de leis inexistente

Pedi para a IA citar o artigo da LGPD sobre tratamento de dados de menores. Ela citou corretamente o Art. 14. Mas quando pedi sobre um caso mais específico, inventou um artigo que não existe na lei.

Risco: recomendações de compliance baseadas em artigos fictícios.

4. Datas e eventos históricos errados

Para um relatório sobre o histórico de uma empresa, a IA colocou que ela foi fundada em 2008. Na verdade, foi em 2012. Misturou com outra empresa do mesmo setor.

Risco: parecer despreparado em reuniões com pessoas que conhecem os fatos.

5. Referências acadêmicas fantasma

Pedi referências bibliográficas sobre um tema. A IA gerou 5 referências com autor, título, journal e ano. Duas não existiam. Os autores eram reais, os journals eram reais, mas os artigos específicos eram inventados.

Risco: perder credibilidade acadêmica ou profissional ao citar fontes inexistentes.

Checklist anti-alucinação em 3 minutos

Sempre que a IA gerar informação factual, passe por este checklist:

1. Identifique as afirmações factuais (30 segundos)

Grife no texto: números, datas, nomes de pessoas/empresas, citações de leis, referências a pesquisas. Essas são as candidatas a alucinação.

2. Verifique no Perplexity ou Google (2 minutos)

Para cada afirmação factual crítica:

  • Pesquise no Perplexity (ele cita fontes)
  • Ou pesquise no Google com termos específicos
  • Se não encontrar a fonte em 30 segundos, provavelmente é inventada

3. Aplique a regra do semáforo (30 segundos)

  • Verde: informação confirmada com fonte → pode usar
  • Amarelo: informação plausível mas sem fonte encontrada → use com ressalva ("estimativas indicam...")
  • Vermelho: informação que não encontrou em lugar nenhum → delete

Quais ferramentas alucinam menos (e por quê)

Nenhuma IA é imune a alucinações, mas tem diferenças:

  • Perplexity: alucina menos em pesquisas porque busca na web em tempo real e cita fontes. Se a fonte não existe, você percebe rápido.
  • Claude: tende a ser mais honesto quando não sabe. Mais frequentemente diz "não tenho certeza" em vez de inventar.
  • ChatGPT: muito capaz, mas muito confiante. Inventa com convicção.
  • Gemini com Grounding: quando usa Google Search para embasar, erra menos em dados factuais.
  • NotebookLM: só responde com base nos seus documentos. Se o dado não está nos documentos, ele diz que não encontrou.

Minha estratégia pessoal:

  • Para pesquisa com fatos: Perplexity
  • Para análise dos meus documentos: NotebookLM
  • Para geração de texto e ideias: ChatGPT ou Claude (onde fatos importam menos)

A regra final

Confiar cegamente na IA é igual a confiar cegamente no estagiário novo.

Ele provavelmente está certo na maioria das vezes. Mas antes de mandar para o cliente, para a diretoria ou para publicação — você verifica.

Mesma coisa com a IA. Ela é uma ferramenta incrível. Mas quem assina embaixo é você.

Gostou desse conteúdo?

Compartilhe com sua rede e ajude mais pessoas.

1 profissional + IA vence no longo prazo

Entre na newsletter gratuita e receba playbooks e táticas práticas para produzir com mais velocidade e qualidade.

Quero receber

Continue aprendendo