Hallucination Risk and Escalation
When to trust AI and when to escalate to a human.
Riesgo de alucinación y escalado
La IA puede inventar hechos, citas y conclusiones jurídicas. Sepa cuándo confiar en ella y cuándo escalar.
¿Qué es la alucinación?
Los modelos a veces generan información plausible pero falsa. Pueden inventar nombres de sentencias, artículos de ley o fechas. No «conocen» el derecho—predicen texto.
Cuándo verificar todo
- Conclusiones jurídicas: Nunca confíe en la IA para asesoramiento jurídico final.
- Citas: Siempre consulte usted mismo las leyes y la jurisprudencia.
- Plazos y procedimientos: Confirme según las normas procesales y la práctica local.
- Hechos específicos del caso: La IA no tiene acceso a su asunto. Verifique todos los detalles del expediente.
Cuándo escalar
- Salidas poco claras o contradictorias
- Decisiones de alto riesgo (litigios, transacciones, regulación)
- Preguntas específicas de una jurisdicción
- Cualquier cosa que normalmente validaría con un abogado senior
Use la IA para acelerar la investigación y la redacción. Use humanos para validar y decidir.