Skip to main content

Hallucination Risk and Escalation

When to trust AI and when to escalate to a human.

Risque d'hallucination et escalade

L'IA peut inventer des faits, des citations et des conclusions juridiques. Sachez quand lui faire confiance et quand escalader.

Qu'est-ce que l'hallucination ?

Les modèles génèrent parfois des informations plausibles mais fausses. Ils peuvent inventer des noms d'arrêts, des articles de loi ou des dates. Ils ne « connaissent » pas le droit—ils prédisent du texte.

Quand tout vérifier

  • Conclusions juridiques : Ne vous fiez jamais à l'IA pour un conseil juridique final.
  • Citations : Vérifiez toujours vous-même les lois et la jurisprudence.
  • Délais et procédures : Confirmez par rapport aux règles de procédure et à la pratique locale.
  • Faits spécifiques au dossier : L'IA n'a pas accès à votre affaire. Vérifiez tous les détails du dossier.

Quand escalader

  • Sorties peu claires ou contradictoires
  • Décisions à enjeux élevés (contentieux, transactions, réglementation)
  • Questions spécifiques à une juridiction
  • Tout ce que vous feriez normalement valider par un avocat senior

Utilisez l'IA pour accélérer la recherche et la rédaction. Utilisez des humains pour valider et décider.