Skip to main content

Hallucination Risk and Escalation

When to trust AI and when to escalate to a human.

Risco de alucinação e escalação

A IA pode inventar fatos, citações e conclusões jurídicas. Saiba quando confiar nela e quando escalar.

O que é alucinação?

Os modelos às vezes geram informações plausíveis, mas falsas. Podem inventar nomes de precedentes, artigos de lei ou datas. Eles não «conhecem» o direito—predizem texto.

Quando verificar tudo

  • Conclusões jurídicas: Nunca confie na IA para aconselhamento jurídico final.
  • Citações: Sempre consulte leis e jurisprudência você mesmo.
  • Prazos e procedimentos: Confirme conforme as regras processuais e a prática local.
  • Fatos específicos do caso: A IA não tem acesso ao seu caso. Verifique todos os detalhes.

Quando escalar

  • Saídas pouco claras ou contraditórias
  • Decisões de alto risco (litígios, transações, regulamentação)
  • Perguntas específicas de jurisdição
  • Qualquer coisa que normalmente validaria com um advogado sênior

Use a IA para acelerar pesquisa e redação. Use humanos para validar e decidir.