在与主要音乐出版商进行的持续版权诉讼中,Anthropic 的法律团队被迫道歉,因为其自家 AI 聊天机器人 Claude 生成了一条不准确的引文,并被包含在法庭文件中,这突显了在法律程序中使用 AI 而未经过彻底人工核查所带来的风险。
引用争议
争议于2025年5月15日爆发,当时Anthropic的律师承认Claude在专家证人Olivia Chen于4月30日的声明中生成了错误的引用。根据法庭文件,虽然Claude为The American Statistician上的一篇学术论文提供了正确的出版物标题、年份和链接,但它却捏造了“一个不准确的标题和错误的作者”。联邦法官Susan van Keulen强调了事态的严重性,表示“漏掉引用和AI生成的幻觉之间有天壤之别”。
代表环球音乐集团(Universal Music Group)、Concord和ABKCO的律师指控Chen在证词中使用Claude引用虚假的文章。尽管Anthropic的律师Sy Damle最初表示该引用只是包含错误,但指向了一篇真实的文章,实际上文件中的链接却指向了另一篇标题和作者都不同的The American Statistician文章。尽管Anthropic有人工检查引用的流程,这些错误——以及Claude幻觉导致的其他几个错误——在提交法庭前都未被发现。
Anthropic 的法律回应
在他们提交给法庭的文件中,Anthropic 将引用错误描述为“一个诚实的引用失误,而不是伪造权威”,而不是有意误导法庭的行为。该公司的律师团队来自 Latham & Watkins,他们解释说,虽然在审核过程中已经纠正了错误的卷号和页码,但标题和作者姓名中的措辞错误却未被发现。
这一事件发生在一位 Anthropic 的律师要求 Claude 将通过谷歌搜索找到的资料格式化为法律引用之后。尽管公司已经道歉,但这一情况仍然令人尴尬,尤其是考虑到 Anthropic 正在为其 AI 技术相关的诉讼进行辩护,而与此同时,该技术却在法庭程序中给公司带来了麻烦。这种讽刺性的转折突显了 AI 公司在其自身产品在法律环境中为其带来问题时所面临的挑战。
版权诉讼
2023年10月提起的这起针对Anthropic的诉讼称,这家人工智能公司在未经授权的情况下,使用受保护的歌曲歌词来训练其Claude聊天机器人,从而侵犯了版权。环球音乐集团(Universal Music Group)、协和音乐集团(Concord Music Group)和ABKCO是本案的原告,他们声称Anthropic“抓取并摄取了大量包含其受版权保护材料的文本”。
该案最初是在另一个司法管辖区提起的,但于2024年6月成功转移到加利福尼亚州,这对Anthropic来说是程序上的胜利。尽管获得了包括亚马逊在2023年和2024年分两次投资的80亿美元在内的大量投资,Anthropic仍然面临音乐出版商的法律挑战。2025年5月,出版商提交了修订后的诉状,进一步强化了他们关于Anthropic“未经授权使用歌曲歌词”的指控,而Anthropic则再次请求驳回此案。这起诉讼是更广泛法律环境的一部分,正在检验科技公司是否可以在未获得权利人许可的情况下,使用受版权保护的材料来训练人工智能系统。
法庭中的人工智能幻觉
这一事件成为了人工智能幻觉在法律环境中引发问题的又一例证。在Anthropic案件发生前几天,加利福尼亚一位法官批评了两家律师事务所,原因是他们在法庭上提交了“虚假的AI生成”研究。同样,在2025年1月,一名澳大利亚律师因依赖ChatGPT准备法律文件而受到专业审查,这导致了错误的引用。
Claude引用争议凸显了AI系统在高风险环境中面临的根本性挑战。尽管这些模型具备复杂的能力,但它们仍可能生成看似可信但完全虚构的信息——这一现象被称为“幻觉”——即使是受过专业训练的人员在审核时也可能忽略。此案为在未实施强有力验证流程的情况下将AI工具纳入法律工作敲响了警钟,尤其是在法院和法律专业人士日益接触到AI生成内容的当下。
未经允许不得转载:综合性AI社区,引领 AI 技术交流与创新实 » Anthropic就Claude AI捏造法律证据致歉
最新评论