跑狗图正版资料

专业文章

大语言模型“幻觉”的法律责任

2025-03-24

大语言模型(Large Language Model, LLM)因强大的自然语言处理和表达能力,被赋予了过高的期待。他们就如同口齿伶俐的孩童,有能力发挥其“学习”过程中所获得的词汇和语言组织能力,用生动或诚恳的文风完成表达。这些看似成熟的文风和表达方式,掩盖了模型与生俱来的“幻觉”(hallucination)问题,即:模型生成的答案看似坚定明确,实则存在事实错误或者逻辑矛盾。


随着人工智能应用大规模向消费者推广,大语言模型的“幻觉”不仅是个技术问题,也自然地涉及到法律责任的界定。本文尝试从侵权法、合同法和消费者权益保护法的角度,分析模型“幻觉”给人工智能应用服务提供者带来的法律风险。


一、产生“幻觉”的原因


大语言模型产生“幻觉”,主要源于以下两方面的原因:


1.模型架构与算法局限


首先,大语言模型通常基于“Transformer”架构,通过自注意力机制捕捉文本中的单词或者单字,并结合所学习到的知识予以理解。然而,这种机制仅基于概率和上下文进行推断,并非机器对现实世界的直接观察和理解,因此容易生成看似合理,但实际上错误的信息。


其次,大语言模型在生成内容时,总是通过概率分布选择输出,这种概率上的随机性与真实世界中同样随机的事实发生概率相互重叠,就会导致逻辑不连贯乃至完全虚假的回答。


再次,由于模型需要处理海量数据,因此大模型在“训练”或“学习”的时候,只能通过参数化的方式对信息进行压缩。这种压缩就好比将一个由数十万个像素、展示了数千个毛孔和皮肤细节组成的人物照片“磨皮”后,形成一个邻近像素具有渐变地一致性的、概括的头像图片。数据压缩必然导致细节丢失,从而导致模型在遇到特定细节的问题时,无法重构真实细节。而在模型算法要求必须生成答案的前提下,就只能通过上述基于概率的“推断”来虚构出事实的细节。


2.训练数据的质量和范围的局限性


训练数据可能包含“噪声”(即表面上相关,但实质上不相关的信息)、不一致性、缺失值或偏差。如果数据中的某些信息是错误的或不完整的,模型可能会学习到这些错误信息,从而在生成内容时出现偏差或不准确的结果。例如,如果数据集中对某一种特定种族人群的描述存在固有偏见或错误描述,则大语言模型会将这种偏见当作事实。


训练数据也存在范围的局限性。例如法律条文仅能“法律知识”中的一小部份信息。法律知识还存在于更宏观、复杂的政治结构、法律渊源、法律理论、立法过程、案件先例和实践做法中。大语言模型的碎片化理解方式难以提供正确的答案。


值得强调的是,尽管训练数据的质量确实对“幻觉”的产生有一定影响,这并非大语言模型产生幻觉的正当性理由。


二、“幻觉”可能导致的侵权责任


《民法典》第一千一百六十五条规定,行为人因过错侵害他人民事权益造成损害的,应当承担侵权责任。侵权行为的判定包括“过错”、“损害”及“过错与损害之间的因果关系”等要件。鉴于“损害”与“因果关系”两个要件高度取决于具体的个案事实,我们在此仅重点分析“过错”的构成问题。


按照一般侵权法原理,过错是侵权人对可能产生的损害后果的故意或过失的主观心理状态,且这种心理状态下引导的行为于法律所不容。我们认为,可以通过以下几个方面分析大语言模型软件(或服务)的提供者是否存在过错:


第一,服务提供者对损害的可预见性。如果一种软件/服务的运行结果存在错误、进而导致用户受到损害的可能,且这种可能性是同领域一般技术人员的知识范围内即可明确预见的,则服务提供者就有责任将这种可能性明确告知用户。就目前市场上常见的大语言模型服务而言,每一个大语言模型的开发者(即服务提供者)必然对其模型的算法原理有明确的认知,因此也必然知晓这些算法环境下输出的结果存在“幻觉”的可能。因此,如果对这种幻觉的存在予以放纵甚至掩饰,服务提供者就可能被认定为有过错。


第二,用户对损害的可预见性。如果一种软件/服务的运行结果存在错误的可能,且软件/服务提供者已经将存在这种错误的可能性明确通知软件使用者,则对软件使用者而言,其可以预见使用该软件/服务可能造成的损害。在这种情况下,软件(即服务)提供者的行为就不存在过错。反之,如果软件/服务提供者明知其所提供的软件产品或服务的运行结果存在虚假、错误的可能,仍然声称其软件具有提供真实信息的功能,或者对这些虚假、错误信息的出现概率或者出现原因作出引人误解的宣传,那么软件/服务提供者的行为就可能被判定为存在过错。


综上,判断大语言模型软件/服务的提供者是否有过错,主要不在于模型是否会产生“幻觉”,而更应当考察软件/服务提供者对“幻觉”的态度:越是明确承认、作出标识或者提出警告,其被判定过错的可能性就越低;越是予以隐瞒、文过饰非甚至虚假宣传,则被判定过错的可能性就越高。


三、消费者保护法上的责任


消费者保护法一方面可以作为判断民法上的侵权构成中“违法性”的判断标准,另一方面也从行政法和经济法范畴,进一步强化经营者违法行为的后果。


具体而言,如果提供大语言模型软件/服务的经营者存在虚假宣传、未披露模型局限性或误导消费者等行为,就可能构成欺诈行为,需承担相应的法律责任(例如《消费者权益保护法》第五十五条所规定的三倍赔偿)。


要构成消费者保护法所规范的“欺诈”,需要证明经营者存在故意提供虚假或者误导性的信息,诱使消费者作出错误选择的行为。就大语言模型的“幻觉”而言,以下行为可能被认定为欺诈:


  • 虚假宣传:大语言模型软件/服务的提供者在广告宣传中夸大其产品的功能或准确性,例如声称“经过全网搜索”、“准确回答问题”或直接否定“幻觉”的存在,或者对“幻觉”的发生概率予以错误描述。


  • 误导消费者将生成内容视为专业建议:在涉及法律、医疗或金融等高风险场景中,如果大语言模型生成的内容被消费者误认为是专业人士的建议,而服务提供者未尽到澄清和提示义务。


  • 明知模型存在缺陷,但在算法设计中故意要求大语言模型掩盖或粉饰这些缺陷:与以往的应用软件或互联网服务不同,大语言模型本身也在作出陈述,其中的一些内容具有极高的迷惑性。例如,大语言模型可能以非常确定的语气描述并不存在的事实,甚至可能为了显示其观点的正确性或者事实的真实性,生造出其实并不存在的证据、文献来源甚至国家机关的文件。还有的大语言模型算法中,要求模型生成一些其实不可能发生的“即时纠正”或者“自我调优”的承诺。严格地说,这类情况并非不可控制的“幻觉”,而是可以在模型训练和算法中予以避免的。如果大模型服务提供者放纵这类情况的发生,也有可能被认定存在过失甚至欺诈。


其他法律后果:若服务提供者的欺诈行为涉及虚假宣传,除了可能因《消费者保护法》而致“退一赔三”和行政处罚等责任外,还可能同时违反《广告法》、《反不正当竞争法》等相关法律,面临行政处罚、罚款甚至吊销经营许可证的法律风险。


因此,大语言模型服务提供者应通过真实宣传、充分披露局限性和合理提示,避免因消费者欺诈行为引发的法律风险与赔偿责任。


四、免责条款被判定无效的风险


一些大语言模型服务提供者在《用户协议》中加入免责条款,以期借此减免自己的法律责任。例如,有的用户协议声明模型生成的内容“仅供参考,不构成专业建议”,或者载明如下的条款:“您(用户)根据输出的内容所作出的任何判断或者据此作出的后续相关操作行为,所带来的后果和责任均由您(用户)承担”等。


“用户协议中的免责条款的效力”并非新问题。根据《民法典》,对格式条款的效力判定主要包括以下方面:


  • 格式条款是否违反法律强制性规定:若免责条款试图排除消费者的基本权利,则可能被认定无效(《民法典》第497条)


  • 免责条款造成对方人身损害的,因故意或者重大过失造成对方财产损失的无效(《民法典》第506条)


  • 格式条款是否进行充分提示或说明义务:若服务提供者未采取合理的方式提示用户注意免除或者减轻其责任等与对方有重大利害关系的条款,用户可以主张该条款不成为合同的内容(《民法典》第496条)


  • 格式条款不合理地免除或者减轻其责任、加重用户责任、限制用户主要权利、排除对方主要权利,导致合同无效(《民法典》第497条)


对于大语言模型软件/服务的提供者而言,以下两点需要特别注意:


  • 免责条款不能排除服务提供者的核心义务:如果存在本文第二、第三部分所阐述的过错或者欺诈情况,则大语言模型的“幻觉”可能被视为“未履行合同的主要义务”,从而被认定无效


  • 仅有免责条款并不能免除服务提供者在民法上的注意义务和消费者保护法上的避免虚假陈述的义务


五、结语


综上,大语言模型软件/服务的提供者不能仅靠免责条款来规避法律责任,而应当咨询有经验的律师,根据自身产品的特点,订制化地设计合规方案乃至算法安排,从而证明自身具有“算法向善”的主观意图、不存在欺诈的故意,也没有误导用户的过错行为。这些工作不但是可以预防法律风险,更体现了模型提供者的社会责任,令自身的产品在激烈的竞争中脱颖而出。


回顾数字科技的发展历史,从网络爬虫到搜索引擎、从“BT下载”到流媒体播放、从区块链到NFT,每一次技术突破总会引发一些法律讨论,而其中的大部分问题其实可以(并且应当)从既有的法律体系和法理逻辑中找到答案。成熟的法律工作者可以透过表象看本质,在充分理解技术原理的条件下,为技术创新者找到简洁有效、标本兼治的合规措施和法律风险预防方案,而无需迷失于层出不穷的行政规章或“标准”制造的丛林。


最后需要说明的是:本文仅从侵权法、合同法和消费者保护法角度分析了大语言模型“幻觉”引发的法律责任。而模型“幻觉”还可能诱发知识产权、产品质量、个人信息保护、人格权保护、新闻管制乃至国家安全等多维度的法律风险。限于篇幅,尚未一一讨论。