Hallucination Risk and Escalation
When to trust AI and when to escalate to a human.
幻覚リスクとエスカレーション
AIは事実、引用、法的結論を捏造することがあります。いつ信頼し、いつエスカレーションするかを把握してください。
幻覚とは何か
モデルは、もっともらしく聞こえるが誤った情報を生成することがあります。判例名、法令条文、日付を捏造することがあります。法律を「知っている」わけではなく、テキストを予測しているだけです。
すべてを検証すべき場合
- 法的結論:最終的な法律相談は、AIに決して依拠しないでください。
- 引用:法令、判例は必ずご自身で確認してください。
- 期限と手続き:裁判規則と現地実務に照らして確認してください。
- クライアント固有の事実:AIはあなたの案件にアクセスできません。案件の詳細はすべて確認してください。
エスカレーションすべき場合
- 不明瞭または矛盾する出力
- ハイステークスの判断(訴訟、取引、規制)
- 管轄区域固有の質問
- 通常、上司弁護士に確認する内容
AIは調査と下書きの効率化に使います。人間は検証と判断に使います。