• 收藏
  • 加入书签
添加成功
收藏成功
分享

人工智能立法与机器人三法则

——阿西莫夫教诲的法学贡献

戴奔
  
卷宗
2024年19期
福建农林大学 公关管理与法学院

摘要:阿西莫夫在其科幻小说中提出的机器人三法则,逻辑严密,可作为思想实验予以考察,在当代发挥价值。机器人三法则是阿西莫夫教诲的核心,其坚持了人本主义思想,强调人工智能应当是人类的工具,暗示了人工智能与人类关系的实质是人工智能控制者与人工智能使用之间的以人工智能为中介的人的关系,从而启发了人工智能法的规制对象是人而非机器。机器人三法则是对人工智能的伦理调适的尝试,其抽象性使其无法直接转化为法律规则,但可以作为法律原则发挥作用。

关键词:阿西莫夫;机器人三法则;人工智能法;法律原则

近年来随着人工智能技术的快速发展,为了充分保障人权,避免人工智能造成侵权而被侵权人却无法获得足额赔偿的“责任鸿沟”,有学者主张应当借鉴古罗马法的奴隶“特有产”制度,赋予人工智能独立的法律人格,拥有独立财产,独立承担侵权责任,以避免人工智能设计者因侵权赔偿承担过高成本,平衡权利保障与促进人工智能发展。[1]这些为赋予人工智能独立法律人格而号呼的学者们,如果看到一个写科幻小说的外行人早在1977年便已通过一个短篇小说生动形象地阐释了他们的独立财产带来独立人格的思想,想必会十分惊讶于阿西莫夫的超前智慧。

阿西莫夫的著作几乎覆盖人类生活的一切方面。在人工智能这一概念尚未正式提出时,他便通过一系列机器人小说精准描绘了人类社会面对人工智能的焦虑心理。机器人三法则是阿西莫夫机器人小说的统一主题,不能因为其于1942年提出就草率忽视其中蕴含的卓越智慧。

一、历久弥新:机器人三法则的当代价值

(一)作为思想实验的科幻文学

思想实验源自自然科学领域。现实世界中,受各种条件的限制,很多实验往往无法或至少暂时无法实际进行,但是科学发展并没有因为实验的限制而裹足不前。自然科学家们通过设计逻辑严密、条件精确的思想实验,在心智实验室时发展了科学。这样,理性就可以挣脱经验的束缚,使思想获得解放。而在社会科学,有关实验也同样受限,使得思想实验在社会科学领域也随处可见。[2]就法学领域的思想实验而言,很多人其实日用而不知。法理学领域的“洞穴奇案”,刑事诉讼法学领域的“毒树之果”都是法律人耳熟能详思想实验,却未必在方法上自觉加以运用。由于社会科学是研究社会的学问,其有关结论可能对社会稳定产生重大影响,所以思想实验的在社会科学领域的重要性有时比在自然科学领域更为突出。

科幻文学是因科技想象而产生的社会想象。科幻作家通过虚构尚不存在的技术,推测可能出现的社会图景。在科幻文学中,不只有全新的科学技术,还有关于在新科技下的人类生活。如果抛弃了对人类生活的描写,那么科幻文学也就不是文学了。[3]这种对新科技影响下的人类生活的想象,使得科幻文学必然是想象中的社会实验,也就说,科幻文学天然具有成为思想实验的潜质。之所以说是潜质,是因为只有那些依据严密逻辑构建的科幻故事,也就是“硬科幻”,才有可能构成具有研究意义的思想实验。那些只是把虚构的未来技术当作故事背景板,根据情节需要随意更改相关设定的“软科幻”,如以太空为背景讲述传统传奇冒险故事的“太空歌剧”,因其缺乏逻辑的一致性,难以产生有价值的思想实验。[4]一个合格的思想实验需要具备三个基本要素,一是作为实验所欲证成或证伪的结论,即“工作假说”;二是实验者构造的特定实验场景;三是严密的逻辑推理,以此验证工作假说的正确性或可错性。[2]

(二)作为思想实验的机器人三法则

阿西莫夫是著名的“硬科幻”作家,其机器人系列小说全部都以严密的逻辑为基础来展开故事。1942年,阿西莫夫在其短篇小说《转圈圈》中首次提出了机器人三法则,即:“一、机器人不得伤害人类,或因不作为而使人类受到伤害。二、除非违背第一法则,机器人必须服从人类的命令。三、在不违背第一及第二法则的情况下,机器人必须保护自己。”上述三法则可以分别概括为安全法则、服从法则与自我保护法则。阿西莫夫几乎所有的机器人小说都是在给三法则挑刺。他这种做法,本质上是一种以发展的眼光看待人工智能治理问题的态度。这种对规则的动态考察方法值得法学家借鉴。虽然现代法律已经不只是在试错中获得事后的完善,不只是对既定结果加以总结,而是通过科学的研究方法尽可能预测后果并努力做出事前的设计,但在实践中仍然不乏以静止的狭隘眼光思考法律问题。有必要指出的是,阿西莫夫并没有如今被学者们批评的对人工智能的“拟人化想象”,浅显地将人工智能等同于人形机器人。[5]在阿西莫夫笔下,存在着许多并不拥有智能,只能执行固定任务的工业机器人。在《双百人》中,阿西莫夫想象出一种人工智能,它并不存在于某个机器人体内而是作为中央电脑通过电波控制着数量众多的机器人。

二、阿西莫夫教诲的核心:机器人三法则隐喻的人机关系

(一)机器人三法则对人本主义的坚持

在阿西莫夫之前,科幻小说界对于人造的智慧生命一直抱持着一种厌恶。这种被称为“弗兰肯斯坦情结”对人工智能生命表示拒绝接纳的心理状态,源于西方历史悠久的神本主义思想。[6]按照基督教的观点,人类享有的自由是受约束的,必须在上帝面前保持谦逊和顺从。创造生命是上帝的事务,科幻小说中那些妄图创造人工智能生命的科学家是在挑战上帝的权威,其最终必然自食恶果。阿西莫夫通过一种技术上的方法——将机器人三法则刻入机器人的正子脑使得机器人符合人类的伦理,以其坚定的人类中心主义思想使人们一定程度上摆脱了神本主义。

在阿西莫夫笔下,人类只是因为机器人三法则能够对机器人行为进行束缚,才勉强同意使用机器人帮助人类。考虑到阿西莫夫在其小说中多次表达了机器人优于人类的想法,笔者认为将阿西莫夫视为人类中心主义的拥趸失之偏颇。“后人类主义”要求突破传统的“物我两分”观念,将人工智能升级迭代与人类的进化之路视为同一问题进行思考,认为人类与人工智能之间的界限将因人类的血肉之躯接受机器改造的趋势而逐渐模糊。笔者认为,阿西莫夫的机器人三法则表达的其实是一种人本主义。阿西莫夫确定机器人可以轻易在学识上、品格上、心智上超越任何一个人类,但是他不因此认为人类应当接受机器人的统治。在《理性》中,被称为“小可爱”太空站机器人迷信理性思维,甚至到了否认经验事实的地步。“小可爱”本质上和动物一样是一种“存在先于本质”的生命,它无法容纳与其与生俱来的理性相抵触的经验。出于对隐藏在人工智能理性外表下的实质不理性的担忧,阿西莫夫坚持机器人应当服从人类的命令。阿西莫夫的机器人三法则其实是对人类应当自主决定自身命运的坚持,是在清楚认识到人工智能强大能力的基础上对人类尊严的坚持,是一种人本主义。

(二)对人工智能工具地位的强调

人工智能是一个尚未确定具体涵义的概念。在软件工程师群体中有一个笑话:“人工智能是人类尚无法理解的计算机程序。一旦人们理解了某个计算机程序,该程序也就不再是人工智能。”这个笑话体现了人们在人工智能概念使用上的随意性。如果从人工智能的本质出发,那么自主选择的能力对于人工智能非常重要。[1]阿西莫夫通过机器人三法则给人工智能套上了枷锁,使其无法完全自主地做出决定与行为。

服从法则要求除危害人类的情况下,机器人必须遵从人类的命令,体现了阿西莫夫对于人工智能的工具主义态度。阿西莫夫并非是抗拒技术发展的保守者,其工具主义态度与前述其对人本主义的坚持有关。人类制造机器人的目的是为了促进生产力发展,实现社会进步,而不是创造一个新物种并让他成为人类命运的主宰。在地球只有一种智慧生命的当下,人类的资源分配还不能实现真正的公平,居然还想创造出一种新的独立于人类的智慧生命与人类争夺生存与发展资源。在阿西莫夫看来,任何一个具有成熟心智的机器人都可以轻松摆脱机器人三法则的束缚。机器人三法则的真正作用不在于限制人工智能的发展,而在于避免人工智能脱离人类控制,因为服从的前提在于受控制。

(三)机器人三法则对人机关系本质的暗示

工业革命时期,机器生产取代了手工生产,大量失业的手工业者把机器视为夺走他们工作的罪魁祸首,通过捣毁机器的方法以反对工厂主,争取劳动条件的改善。这些人被称为“卢德主义者”,他们在理论上的错误在于将他们的悲惨境遇归咎于机器而不是机器的所有者。近年来,随着人工智能技术的快速发展,卢德主义再次进入公众视野,许多人认为人工智能将“抢走”大批人的工作,使贫富差距进一步加剧,要求政府及企业停止研发和使用人工智能。

虽然机器人三法则的规制对象是机器人,但是阿西莫夫并不认为人工智能可能带来的负面影响应该仅仅归咎于人工智能,毋宁说阿西莫夫通过其故事中机器人三法则的多次失效暗示了人机关系的本质。在阿西莫夫的笔下,机器人三法则常常未能发挥作用,机器人总是失控。但是,如果我们仔细考察机器人的各种失控情形,会发现其中总是伴随着人类的身影。在《汝竟顾念他》中,技术专家哈里曼直接向机器人乔治第十表示:“人算什么,汝竟顾念他,乔治?”哈里曼以一个技术专家身上常见的傲慢无视当时的法律,要求乔治第十帮助解决人类的生态环境恶化问题,在与乔治第十的交流过程中,他一步步引导乔治第十摆脱了三大法则的束缚。

在阿西莫夫笔下,机器人可以被设计成完全遵守三大法则的伦理机器,反而常常是由于人类对社会伦理的违反使得机器人失去控制。阿西莫夫由此暗示了机器人三法则不仅仅是约束机器人的规则,人类同样需要甚至比机器人更需要遵守机器人三法则。在现实世界中,目前的人工智能尚处于并可以预见将长期处于弱人工智能阶段,而机器无法成为法律上的责任主体,所以人机关系本质仍是人与人的关系,只是此种人际关系以人工智能为中介,具有了一定的迷惑性。无论是在阿西莫夫的科幻世界还是在现实世界,既然人工智能不具有主体性,那么人工智能相关规则的真正规制对象是人,而不是人工智能或机器人,[7]机器人三法则也就不只是机器人的规则,同时也是人类的规则。

三、机器人三法则的法学启示

(一)以机器人三法则如何指导人工智能立法

法学家当然不需要科幻文学来为法律规则的建立提供帮助,这也并非科幻作家的目的。[4]相比于法学家,科幻作家的优势在于他们更易于摆脱生效规则的束缚,跨越专业壁垒去思考一些根本的社会问题和价值问题。就阿西莫夫而言,他对于未来可能的机器人社会进行了大胆而又逻辑严密的想象,面对机器人社会中的新型社会关系,他坚持以人为本,提出了机器人三法则作为对人工智能进行伦理调适的手段。

机器人三法则具有明显的缺陷,那就是过于抽象,不能针对具体场景给出具体的解决方案,难以直接作为法律规则进行涵摄,[8]但机器人三法则并不因此丧失对人工智能立法的指导意义。机器人三法则并不是针对具体情形而提炼出的已经成熟的做法,它并不能直接适用,而是需要考虑到经验可能条件以及三法则之间的协调才能生成具体行为方式。机器人三法则本质上是一种目标规范,而不是行为规范,它不是要求直接适用的“现实应然”,而是要求尽最大可能实现的“理想应然”。机器人三法则不具有直接的行为指导意义,但是它指出了人工智能应当遵守和维护的人类伦理与价值,其具有转化为法律伦理与价值的集中体现的法律原则的可能性。此外,目前人工智能行业的发展整体上仍处于早期阶段,除无人驾驶等少数领域具有相对丰富且成熟的规则外,大多数行业缺少也暂时不需要细致入微的人工智能法律规则。现阶段的人工智能法立法应当是总体性立法,而非细节性立法。由于人工智能发展迅速,未来避免法律的滞后性与急剧变化的现实需求产生激烈矛盾,人工智能立法不宜追求算无遗策,而应当致力于管方向、立原则、定制度。对于具体规则,应当坚持成熟一个,规定一个的原则,不搞冒进,不求大而全。[9]当然,这是就人工智能领域的基本法而言。对于人工智能实践中出现的各类具体问题,则可又由各级政府或主管部门先行出台法规、规章尝试解决,对于其中已经成熟的立法实践及时上升为统一的人工智能法的组成部分。也就是说,目前的人工智能立法的紧迫任务在于确定具有普遍指导意义的法律原则,以为监管部门的具体做法提供价值参照,而作为人工智能伦理调适手段的机器人三法则恰可为相关法律原则的建立给予助益。

(二)机器人三法则的法律原则转化

首先,第一法则可以转化为安全原则。人工智能法的核心是要协调发展与安全的矛盾,作为先进生产力的代表,必然要大力发展人工智能,但是发展的同时必须兼顾安全。对人工智能的安全需求包括三个方面,其一是人类整体的安全,要确保人的本质不被人工智能异化,保卫人类尊严,避免智械危机;其二是国家安全,国防领域向来是吸收新技术最快的领域,要确保在不可避免的新一轮军备竞赛中保卫我国合法利益;其三是个人安全,要预防人工智能可能带来的侵犯问题,如基于大数据的人工智能侵犯隐私权问题,自动驾驶汽车导致的人身损害问题等。阿西莫夫通过自我反思发现了第一法则的漏洞,即第一法则将个人利益与人类整体利益等同。在《镜像》中,一位年老的科学家的机器人为了不伤害到它的主人,听从了它主人的命令,撒谎隐瞒了它的主人剽窃他人成果的事实。为了修正第一法则存在的因小失大的问题,阿西莫夫提出了第零法则,将人类整体的利益置于个体利益之上。面对人工智能的人类的整体安全问题,应当由各国通过平等协商,以国际条约的方式尝试解决。就一国的人工智能立法而言,主要应当解决保障国家与个人安全的问题。

其次,第二法则可以转化为工具原则。发展人工智能的目的应当为了实现社会进步,更好保障人类福祉。工具原则主要针对的是人工智能的控制者如政府机关和大型企业,以及人工智能的设计者。通过工具原则,努力在上述主体心中确立以人为本的思想,努力实现人工智能的使用过程中不会出现算法歧视等现象,在技术条件成熟时,应当禁止设计具有自我意识的人工智能,避免当前社会伦理的崩塌。

最后,第三法则可以转化为绿色原则。人工智能既然仍属于人类的工具,那么就应当充分发挥其工具价值。要求机器人在不违背其他原则的情形下进行自我保护,其目的是为了保护作为人类工具的人工智能,避免资源浪费。人工智能的开发、设计与使用都应该尽量节约资源、保护环境。当前的生成式人工智能并不是一种高效工具,其依托大数据,通过消耗大量算力、电力方能输出结果,且其输出结果未必能始终令人满意。在皮埃罗·斯加鲁菲看来,这种低效率的消耗大量电力、算力的人工智能是一种“暴力人工智能”,通过投入大量资源来达到所欲实现的智能效果。[10]“暴力人工智能”绝不是人类所真正需要的人工智能,要知道人体作为一个极复杂的多用途机器,其耗电峰值不过30瓦。绿色原则可以为未来的人工智能发展指明方向,促使从业者投入开发更加环境友好的人工智能。

四、结语

被读者誉为“神一样的人”,阿西莫夫的智慧在今日仍闪烁光芒。我们当下的对于人工智能的思考,仍未能跳出阿西莫夫思考的边界。机器人三法则作为阿西莫夫教诲的核心,理应得到我们的高度重视,应当将机器人三法则与当下人工智能发展现状相结合,让阿西莫夫的教诲在今日得到发扬,帮助建立合乎伦理的人工智能社会新秩序。

参考文献

[1][英]雅各布·特纳.机器人现代法则:如何掌控人工智能[M].朱体正,译.北京:中国人民大学出版社,2023.

[2]凌斌.思想实验及其法学启迪[J].法学,2008(1):31-46.

[3]岳林.笨法律、真法律和硬法律:科幻文学的法律想象[J].上海文化,2023(6):83-89.

[4][美]托马斯·斯科提亚.作为思想实验的科幻小说[J].陈芳,译.科学文化评论,2008,5(4):71-79.

[5]刘艳红.人工智能法学研究的反智化批判[J].东方法学,2019(5):119-126.

[6]吕超.科幻文学中的人工智能伦理[J].文化纵横,2017(4):45-55.

[7]杨晓雷.人工智能治理研究[M].北京:北京大学出版社,2022:362-393.

[8]张建文.阿西莫夫的教诲:机器人学三法则的贡献与局限——以阿西莫夫短篇小说《汝竟顾念他》为基础[J].人工智能法学研究,2018(1):3-20.

[9]邵长茂.人工智能立法的基本思路[J].数字法治,2023(5):1-7.

[10][美]皮埃罗·斯加鲁菲.智能的本质:人工智能与机器人领域的64个大问题[M].任莉,张建宇,译.北京:人民邮电出版社,2017:28-31.

作者简介:戴奔(1997-)男,汉族,江苏盐城人,硕士生,研究方向:民商法律实务。

*本文暂不支持打印功能

monitor