Skip to main content

Hallucination Risk and Escalation

When to trust AI and when to escalate to a human.

幻觉风险与升级

AI 可能捏造事实、引用和法律结论。了解何时信任、何时升级。

什么是幻觉?

模型有时会生成听起来合理但错误的信息。可能捏造判例名称、法规条款或日期。它们并不「了解」法律——只是在预测文本。

何时全面核实

  • 法律结论:切勿依赖 AI 获取最终法律建议。
  • 引用:始终自行查阅法规和判例。
  • 截止日期与程序:根据法院规则和当地惯例确认。
  • 客户特定事实:AI 无法访问您的案件。核实所有案件细节。

何时升级

  • 输出不清晰或相互矛盾
  • 高风险决策(诉讼、交易、监管)
  • 司法管辖区特定问题
  • 通常需由资深律师审核的任何内容

使用 AI 加速研究和起草。使用人类进行验证和决策。