Hallucination Risk and Escalation
When to trust AI and when to escalate to a human.
Halluzinationsrisiko und Eskalation
KI kann Fakten, Zitate und rechtliche Schlussfolgerungen erfinden. Wissen Sie, wann Sie ihr vertrauen und wann Sie eskalieren sollten.
Was ist Halluzination?
Modelle erzeugen manchmal plausibel klingende, aber falsche Informationen. Sie können Urteilsnamen, Gesetzesparagraphen oder Daten erfinden. Sie «kennen» das Recht nicht—sie sagen Text vorher.
Wann alles prüfen
- Rechtliche Schlussfolgerungen: Verlassen Sie sich niemals auf KI für endgültige Rechtsberatung.
- Zitate: Schlagen Sie Gesetze und Urteile immer selbst nach.
- Fristen und Verfahren: Bestätigen Sie anhand der Prozessordnungen und lokalen Praxis.
- Mandantenspezifische Fakten: KI hat keinen Zugang zu Ihrem Mandat. Verifizieren Sie alle Mandatsdetails.
Wann eskalieren
- Unklare oder widersprüchliche Ausgaben
- Entscheidungen mit hohem Einsatz (Litigation, Transaktionen, Regulierung)
- Rechtsordnungspezifische Fragen
- Alles, was Sie normalerweise einem erfahrenen Anwalt vorlegen würden
Nutzen Sie KI zur Beschleunigung von Recherche und Entwurf. Nutzen Sie Menschen zur Validierung und Entscheidung.