Skip to main content

Hallucination Risk and Escalation

When to trust AI and when to escalate to a human.

幻覚リスクとエスカレーション

AIは事実、引用、法的結論を捏造することがあります。いつ信頼し、いつエスカレーションするかを把握してください。

幻覚とは何か

モデルは、もっともらしく聞こえるが誤った情報を生成することがあります。判例名、法令条文、日付を捏造することがあります。法律を「知っている」わけではなく、テキストを予測しているだけです。

すべてを検証すべき場合

  • 法的結論:最終的な法律相談は、AIに決して依拠しないでください。
  • 引用:法令、判例は必ずご自身で確認してください。
  • 期限と手続き:裁判規則と現地実務に照らして確認してください。
  • クライアント固有の事実:AIはあなたの案件にアクセスできません。案件の詳細はすべて確認してください。

エスカレーションすべき場合

  • 不明瞭または矛盾する出力
  • ハイステークスの判断(訴訟、取引、規制)
  • 管轄区域固有の質問
  • 通常、上司弁護士に確認する内容

AIは調査と下書きの効率化に使います。人間は検証と判断に使います。