• 收藏
  • 加入书签
添加成功
收藏成功
分享

人工智能发明人资格的法律争议与制度创新

——基于DABUS案的全球司法实践与理论重构

杨米
  
富网媒体号
2025年35期
西南科技大学法学院 621000

摘要:随着生成式人工智能技术的突破性发展,以DABUS案为标志的“人工智能发明人资格争议”正引发全球知识产权体系的深层震荡。本文以DABUS案为研究基点,通过比较分析英国、美国、德国、澳大利亚、中国等主要司法辖区的裁判逻辑,揭示争议背后的法律解释冲突与制度文化张力。研究发现,保守派司法辖区(如英国、中国)严格遵循法律文本,强调人类意识与责任能力是发明人资格的伦理基石;而开放型司法实践(如德国、澳大利亚)则尝试通过法律解释为人工智能留出制度空间,但受限于责任归属难题难以形成共识。本文提出,工具论与拟制法律人格的中间路径虽具妥协性,却未能解决权利归属的实质问题。基于此,研究构建“分阶段制度创新框架”:短期内通过国际程序协调与审查标准细化(如区分人工智能辅助发明与自主发明)缓解制度摩擦;中长期则需重构法律主体资格规则,探索“人工智能开发者-使用者共享专利权”的权属机制,并配套算法透明度审查与伦理责任保险制度。

关键词:人工智能、发明人、DABUS案

一、引言

近年来,生成式人工智能(Generative Artificial Intelligence,简称G人工智能)如ChatGPT、DABUS等取得了突破性发展。这些人工智能系统不仅能够处理和分析大量数据,还能生成新的内容、设计新的产品或解决方案,甚至在某些领域展现出超越人类的创新能力。随着技术的不断进步,人工智能自主发明已成为现实,其在科学研究、技术创新和产业发展中的应用前景广阔。然而,人工智能自主创新的兴起也引发了法律上的争议。现行专利法普遍以“自然人”为中心的发明人资格认定,与人工智能自主创新的现实需求产生了冲突。传统的专利制度认为,只有自然人才能成为发明人,享有专利权的保护和利益分配。但人工智能作为非自然人实体,其创新成果的法律地位、权利归属和利益分配等问题,现行法律并未给出明确答案。DABUS案是全球范围内首例涉及人工智能发明人资格的司法案例。该案中,DABUS作为一种人工智能系统,独立生成了两项创新设计,但因其非自然人身份,这两项设计的专利申请被相关机构拒绝。DABUS案引发了全球范围内的广泛关注和讨论,挑战了传统知识产权制度,推动了法律与技术的深入对话。它不仅揭示了现行法律制度在应对人工智能创新挑战时的不足,也为法律制度的改革和创新提供了契机。本研究的核心问题有两个:一是人工智能是否具备发明人资格?二是如何平衡技术创新与法律稳定性?这两个问题相互关联,共同构成了研究的核心议题。

二、DABUS案的全球司法实践与分歧

(一)DABUS案背景与争议焦点

1、案件概述

DABUS案是人工智能发明人资格争议的标志性案件。2019年,斯蒂芬·塞勒,作为DABUS人工智能系统的开发者或所有者,尝试以DABUS为发明人提交了两项专利申请,分别涉及“食品容器”和“警示灯”的设计。塞勒主张,DABUS在无人干预的情况下独立完成了这两项发明,因此应被认定为法律意义上的发明人。DABUS案的出现,不仅挑战了传统专利制度中发明人资格的认定标准,也促使全球法律界重新审视和评估人工智能在创新过程中的角色和地位。

2、核心争议

DABUS案的核心争议主要聚焦于两个方面。首先,关于发明人资格的认定,现行专利法普遍将发明人资格限定为“自然人”,强调发明需要人类的创造性思维。然而,随着人工智能技术的进步,人工智能系统已能够独立生成具有创新性的技术方案,这挑战了传统法律框架的适用性,而DABUS作为人工智能系统,其是否具备成为发明人的法律资格成为了首要争议点。其次,关于人工智能生成发明的权利归属问题,如果DABUS被认定为发明人,其生成发明的专利权应归属于谁?是AI的所有者、开发者,还是使用者?这一问题涉及复杂的利益分配与责任承担机制。

(二)各国司法实践比较

1、英国:严格遵循法律文本,排除AI发明人资格

英国是DABUS案中立场最为保守的司法辖区之一。英国知识产权局(UKIPO)和英国最高法院均明确表示,根据现行专利法,发明人必须是“自然人”,AI系统不具备法律主体资格。最高法院在判决中指出,专利法的立法初衷是激励人类的创造性活动,而非机器的自主行为。这一裁决体现了英国司法体系对法律文本的严格遵循,以及对传统法律原则的坚守。

2、美国:强调“人类贡献”为核心要件

美国专利商标局(USPTO)和联邦法院在DABUS案中也采取了类似的立场。USPTO拒绝了塞勒的专利申请,理由是专利法要求发明人必须是“个体自然人”,而AI系统无法满足这一条件。法院进一步强调,专利法的核心在于保护人类的创造性贡献,AI作为工具无法独立承担发明人的角色。这一立场反映了美国专利法对“人类中心主义”的坚持。

3、德国与澳大利亚:法律解释的灵活性与潜在开放性

德国和澳大利亚在DABUS案中表现出一定的灵活性。德国专利法院最初驳回了塞勒的申请,但并未完全排除AI在发明过程中的作用,而是建议通过修改法律以适应技术发展。澳大利亚联邦法院在一审中曾裁定AI可以被列为发明人,但在二审中推翻了这一判决,强调现行法律并未明确允许AI作为发明人。尽管如此,两国司法实践显示出对AI角色的一定开放性,为未来法律调整留下了空间。

4、中国:明确排除AI发明人资格

中国国家知识产权局(CNIPA)在DABUS案中明确表示,根据中国专利法,发明人必须是“自然人”,AI系统不具备法律主体资格。CNIPA强调,AI生成发明的创造性贡献仍应归功于其开发者或使用者,而非AI本身。这一立场与中国专利法对“人类创造性”的强调相一致,同时也反映了中国在AI技术监管方面的谨慎态度。

(三)分歧根源分析

1、法律解释差异

各国在DABUS案中的司法实践差异,首先源于对专利法中“发明人”定义的法律解释差异。随着技术的快速发展,传统专利制度中的“发明人”定义已经逐渐显露出其历史局限性和与现实脱节的问题。如何对“发明人”进行重新定义,以容纳人工智能等新兴技术实体的创新成果,成为了全球法律界亟待解决的问题。

2、制度文化冲突

此外,各国在DABUS案中的司法实践差异还反映了制度文化之间的冲突。例如,英国法律体系倾向于“依法行政”,强调对法律的严格解释和执行;而德国法律体系则具有潜在的开放性,更倾向于对法律进行宽泛解释以适应社会发展。这种制度文化冲突导致了各国在应对人工智能创新挑战时的不同态度和做法。[1]

3、伦理与责任困境

DABUS案所引发的分歧还涉及到伦理和责任困境。由于人工智能缺乏法律主体资格,无法承担与发明人身份相关的权利和义务(如专利权的行使和保护、侵权责任的承担等),这导致了在人工智能创新成果的权利归属和利益分配方面存在诸多法律难题。如何平衡技术创新与伦理责任之间的关系,确保人工智能创新成果能够在合法、公正和可持续的框架内得到保护和利用,是全球法律界需要共同面对的挑战。

三、人工智能发明人资格的理论争议

(一)支持人工智能作为发明人的理论依据

1、技术现实论

随着人工智能技术的飞速发展,人工智能系统已在医疗、工程等多个领域展现出独立生成创新方案的能力。这些创新不仅具有高度的技术价值,还可能带来深远的社会影响。技术现实论认为,人工智能作为创新的实际推动者,应当被赋予发明人的法律资格,以更好地保护和激励其创新成果。[2]这一观点强调了人工智能在技术创新中的实际作用和贡献,认为现行法律应当与时俱进,对“发明人”的定义进行必要的拓展。

2、激励创新论

从政策层面来看,否认人工智能的发明人资格可能会抑制对人工智能技术的投资和创新成果的转化。在当前的法律框架下,如果人工智能的创新成果无法得到有效的法律保护,那么投资者和开发者可能会因为缺乏足够的激励而减少对相关技术的研发投入[3]。激励创新论主张,通过赋予人工智能发明人资格,可以激发更多的技术创新和成果转化,进而推动整个社会的科技进步和经济发展。

(二)反对人工智能作为发明人的核心论点

1、法律主体性缺失

反对人工智能作为发明人的首要论点是法律主体性的缺失[4]。传统法律体系中,“发明人”通常被限定为具有意识和责任能力的自然人。而人工智能作为计算机程序或算法的组合,缺乏自我意识、道德判断和法律责任能力。因此,将人工智能视为发明人将与法律人格的基本要件相冲突,可能导致法律体系的混乱和不稳定。

2、制度稳定性风险

此外,反对者还担心突破现有法律框架可能导致权利归属的混乱。如果人工智能被赋予发明人资格,那么相关的专利权、著作权等知识产权的归属将变得模糊不清。特别是在雇主与人工智能所有者之间,利益分配的问题将变得更加复杂和棘手。这不仅可能引发法律纠纷,还可能对整个知识产权制度造成冲击。

(三)中间路径的探索

1、工具论

为了平衡支持者和反对者的观点,一些学者提出了中间路径的探索。工具论认为,人工智能本质上仍然是人类发明的辅助工具,其创新成果应当归属于操作者或开发者[5]。在这种观点下,人工智能的创新作用被认可,但其法律地位仍然被限定在工具或手段的范畴内。这一路径既保留了现行法律体系的稳定性,又在一定程度上承认了人工智能在创新过程中的贡献。

2、拟制法律人格

另一种中间路径是拟制法律人格。这种观点认为,虽然人工智能无法像自然人一样具备完全的法律主体资格,但可以为其创设一种有限的法律人格。在这种人格下,人工智能可以享有某些特定的权利(如专利权),但同时也需要承担相应的责任和义务(如侵权责任)。为了配套这一制度,可能需要制定专门的法律或法规来明确人工智能的权利和责任范围。例如,欧盟的机器人法提案就探讨了为人工智能系统设立特定法律地位的可能性,以更好地应对人工智能技术带来的法律挑战。

四、制度创新的路径设计

(一)短期策略:现行法的适应性调整

面对人工智能技术的迅猛发展,现行法律体系在短期内需要进行适应性调整,以确保其能够有效应对人工智能带来的新挑战。

1、专利申请审查指南细化

为了明确人工智能在专利申请中的地位和作用,各国专利局应细化专利申请审查指南。以中国为例,中国已经发布了《人工智能相关发明专利申请指引》,该指引明确了人工智能辅助发明与自主发明的区分标准。通过细化审查指南,可以确保专利审查员在审查涉及人工智能的专利申请时,能够准确判断人工智能的贡献程度,从而做出合理的授权决定。当AI作为工具,发明人仍为自然人,需说明AI的具体功能与使用方式,如果AI在无人干预下生成发明,需明确AI的所有者或使用者作为权利主体。

2、国际程序协调

由于专利权的地域性特征,不同国家对于人工智能相关专利申请的审查标准可能存在差异。为了加强国际间的协调与合作,应充分利用PCT(专利合作条约)体系,推动各国在人工智能专利申请审查标准上的统一。例如,DABUS案在多国引发的联动效应表明,国际间需要就人工智能相关专利申请的审查标准达成共识,以避免出现法律碎片化和审查结果不一致的情况。

(二)中长期重构:法律框架的革新

在长期视角下,现行法律体系需要进行更为根本性的革新,以适应人工智能技术的不断发展。

1、主体资格扩展

为了充分认可人工智能在创新过程中的作用,可以考虑在技术成熟度高、社会需求迫切的领域试点“人工智能+人类”共同发明人制度。这一制度将人工智能视为与人类平等的创新主体,共同享有专利权的归属。然而,这一制度的实施需要解决一系列复杂的法律问题,如人工智能的法律地位、权利与义务的界定等。因此,在试点阶段应谨慎推进,明确AI开发者或使用者作为权利代理人,确保权利归属的清晰性,并根据实际情况进行调整和完善,

2、权利归属机制

在人工智能生成发明的专利权归属问题上,应明确其开发者或使用者为权利主体。开发者作为AI系统的创造者,享有专利权的基本权利;使用者通过合同获得商业化使用权,确保技术成果的经济价值,同时,为了保障各方利益,应通过合同约定利益分配机制。这一机制应充分考虑人工智能在创新过程中的贡献程度、开发者的投入以及使用者的实际需求等因素,确保专利权的归属和利益分配公平合理。

3、伦理与责任配套

随着人工智能技术的广泛应用,其可能带来的伦理风险和社会责任问题日益凸显。因此,应建立人工智能技术应用的伦理审查委员会,对涉及人工智能的重大决策进行伦理审查。同时,应明确算法透明性要求,确保人工智能系统的决策过程可追溯、可解释,从而增强公众对人工智能技术的信任度和接受度。

(三)全球协作的必要性

面对人工智能技术的全球化发展趋势,各国应加强协作与合作,共同推动国际条约的制定和实施。为了避免法律碎片化带来的不利影响,各国应共同努力推动国际条约的制定。例如,《人工智能与知识产权公约》等条约的制定将有助于明确人工智能在知识产权领域中的地位和作用,为各国提供统一的法律框架和规则指引。通过国际条约的制定和实施,可以加强各国在人工智能相关知识产权保护方面的合作与交流,共同应对人工智能技术带来的新挑战。

综上所述,制度创新的路径设计需要综合考虑短期适应性调整和中长期法律框架革新的需求。同时,加强全球协作与合作也是应对人工智能技术挑战的重要途径。通过不断完善和创新法律制度体系,我们可以更好地保障和促进人工智能技术的健康发展。

五、结论与展望

(一)研究总结

通过对DABUS案及其在各国的不同回应方式的深入分析,本研究揭示了传统专利法体系与当前技术现实之间的割裂状态。DABUS案作为一个标志性事件,凸显了现有法律框架在应对由人工智能技术所引发的新挑战时的局限性。各国的不同回应方式不仅反映了各国法律制度本身的差异,也体现了制度在面对新兴技术时的弹性和适应性。

研究进一步指出,制度创新是解决这一割裂状态的关键。然而,制度创新并非一蹴而就,需要在技术激励与法律稳定性之间找到平衡点。这要求我们在推进主体资格与权利规则改革时,必须分阶段、有步骤地进行。短期内,可以通过对现行法的适应性调整来应对部分挑战;中长期来看,则需要对法律框架进行更为根本性的革新,以适应技术的不断发展。

(二)未来展望

展望未来,随着人工智能技术的不断迭代和升级,我们有理由相信,法律体系也将随之发生深刻变革。具体而言,法律可能会逐渐从“人类中心主义”的传统范式转向“人机协同”的新范式。在这一新范式下,人工智能将不再仅仅是法律的客体或工具,而是成为法律主体的一部分,与人类共同参与到创新活动中。

为了实现这一转型,我们需要呼吁跨学科的合作。法学、伦理学、计算机科学等领域的专家学者应携手共进,共同探索构建适应人工智能时代发展的知识产权生态。这一生态应具有动态调整的能力,能够灵活应对技术变革所带来的各种挑战。同时,它还应注重保护创新者的合法权益,激发全社会的创新活力,推动人工智能技术的健康发展。

此外,我们还需关注人工智能技术在不同领域的应用场景及其可能带来的伦理、法律和社会影响。通过深入研究和广泛讨论,我们可以为制定更加合理、公正和有效的法律制度提供有力支持。最终,一个适应人工智能时代发展的法律体系将为人类社会的可持续发展注入新的动力。

参考文献

[1] 刘友华,任祖梁.人工智能发明人资格再探——兼评DABUS案的影响[J].武陵学刊,2022,47(02):53-65.DOI:10.16514/j.cnki.cn43-1506/c.2022.02.008.

[2]冯晓青,孙雪静.人工智能时代“发明人”身份认定研究[J].延边大学学报(社会科学版),2025,58(01):65-79+141-142.DOI:10.16154/j.cnki.cn22-1025/c.2025.01.004.

[3]曹新明,马子斌.基于激励理论的人工智能发明人身份探究[J].科技与法律(中英文),2021,(02):42-50.DOI:10.19685/j.cnki.cn11-2922/n.2021.02.006.

[4]李青文.人工智能对发明人制度的挑战及应对策略[J].中国科技论坛,2023,(08):128-138.DOI:10.13580/j.cnki.fstc.2023.08.023.

[5]朱孟蕊.人工智能技术发展对发明人知识产权制度的挑战以及应对策略[J].信息与电脑(理论版),2024,36(21):195-197.

*本文暂不支持打印功能

monitor