Hallucination Risk and Escalation
When to trust AI and when to escalate to a human.
Rischio di allucinazione ed escalation
L'IA può inventare fatti, citazioni e conclusioni giuridiche. Sappiate quando fidarvi e quando escalare.
Cos'è l'allucinazione?
I modelli a volte generano informazioni plausibili ma false. Possono inventare nomi di sentenze, articoli di legge o date. Non «conoscono» il diritto—predicono testo.
Quando verificare tutto
- Conclusioni giuridiche: Non affidatevi mai all'IA per consulenza legale finale.
- Citazioni: Verificate sempre voi stessi leggi e sentenze.
- Scadenze e procedure: Confermate rispetto alle regole processuali e alla pratica locale.
- Fatti specifici del caso: L'IA non ha accesso al vostro fascicolo. Verificate tutti i dettagli.
Quando escalare
- Output poco chiari o contraddittori
- Decisioni ad alto rischio (contenzioso, transazioni, regolamentazione)
- Domande specifiche per giurisdizione
- Qualsiasi cosa che normalmente fareste verificare da un avvocato senior
Usate l'IA per accelerare ricerca e redazione. Usate gli umani per validare e decidere.