Hallucination Risk and Escalation
When to trust AI and when to escalate to a human.
Risque d'hallucination et escalade
L'IA peut inventer des faits, des citations et des conclusions juridiques. Sachez quand lui faire confiance et quand escalader.
Qu'est-ce que l'hallucination ?
Les modèles génèrent parfois des informations plausibles mais fausses. Ils peuvent inventer des noms d'arrêts, des articles de loi ou des dates. Ils ne « connaissent » pas le droit—ils prédisent du texte.
Quand tout vérifier
- Conclusions juridiques : Ne vous fiez jamais à l'IA pour un conseil juridique final.
- Citations : Vérifiez toujours vous-même les lois et la jurisprudence.
- Délais et procédures : Confirmez par rapport aux règles de procédure et à la pratique locale.
- Faits spécifiques au dossier : L'IA n'a pas accès à votre affaire. Vérifiez tous les détails du dossier.
Quand escalader
- Sorties peu claires ou contradictoires
- Décisions à enjeux élevés (contentieux, transactions, réglementation)
- Questions spécifiques à une juridiction
- Tout ce que vous feriez normalement valider par un avocat senior
Utilisez l'IA pour accélérer la recherche et la rédaction. Utilisez des humains pour valider et décider.