Hallucination Risk and Escalation
When to trust AI and when to escalate to a human.
Risco de alucinação e escalação
A IA pode inventar fatos, citações e conclusões jurídicas. Saiba quando confiar nela e quando escalar.
O que é alucinação?
Os modelos às vezes geram informações plausíveis, mas falsas. Podem inventar nomes de precedentes, artigos de lei ou datas. Eles não «conhecem» o direito—predizem texto.
Quando verificar tudo
- Conclusões jurídicas: Nunca confie na IA para aconselhamento jurídico final.
- Citações: Sempre consulte leis e jurisprudência você mesmo.
- Prazos e procedimentos: Confirme conforme as regras processuais e a prática local.
- Fatos específicos do caso: A IA não tem acesso ao seu caso. Verifique todos os detalhes.
Quando escalar
- Saídas pouco claras ou contraditórias
- Decisões de alto risco (litígios, transações, regulamentação)
- Perguntas específicas de jurisdição
- Qualquer coisa que normalmente validaria com um advogado sênior
Use a IA para acelerar pesquisa e redação. Use humanos para validar e decidir.