- 收藏
- 加入书签
历史观视域下强人工智能时代的伦理困境探究
摘要:随着第四次科技革命的到来,机器人向智能化发展。在未来,强人工智能在发展的同时还面临着诸多伦理困境,诸如,强人工智能的发展伦理困境;强人工智能的责任伦理困境与道德主体地位问题等。面对强人工智能时代的伦理困境,其解决路径有:一、开展中国传统“以道驭术”的伦理思想教育;二、确立强人工智能“以人为本”的伦理原则。希望通过这些伦理治理进路发展出一个更加完善的强人工智能时代,为人机共存的美好前景做好铺垫。
关键词:强人工智能;伦理困境;伦理治理
一、人工智能的历史发展趋势
1956年夏天,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(Artificial Intelligence,简称AI)”这一概念,标志着人工智能学科的诞生。
迄今为止,人类关于人工智能的研究还处于“弱人工智能时代”。“所谓弱人工智能,是指那些无法用人的思想推理、处理问题的智能机器,它们不具有像人一样的思考方式,只是在机械地、重复地执行命令,并不拥有独立自主的学习意识,不过是看上去智能罢了。[1]”而一切和人工智能相关的产品都被称为“人工智能+”(AI+),比如人工智能+化学、人工智能+医疗、人工智能+物流、人工智能+教育等。
未来人工智能还会发展到“通用人工智能”(AGI)阶段。通用人工智能就是指,“可完成认知任务,并且完成得至少和人类一样好的能力。[2]”换而言之,就是和人类一样有知觉、有自我意识,可以像人一样进行独立思考、分析、推理和解决问题的人工智能。而强人工智能(Strong AI)与通用人工智能的能力并无不同,所以二者经常混用。强人工智能可以被分为两大类:“类人的人工智能和非类人的人工智能。类人的人工智能,即机器的思考方式和思维水平同人是一样的;而非类人的人工智能,即机器产生了与人类大有出入的感知和认知水平,运用和人不一样的推理方法解决问题。”[1]
与此同时,人类社会的伦理规范、伦理思想并不能完全适应人工智能的快速发展,甚至还有些滞后。强人工智能时代的伦理困境在21世纪已经初见端倪了,为避免人工智能的伦理困境发展成为不可避免的后果,必须要早做预防。
二、强人工智能时代的伦理困境
(一)强人工智能的发展伦理困境
1.崇拜人工智能导致人的存在异化
随着科学技术的发展,人工智能已经逐渐融入人们的生产生活,但是随之而来的就是人类自身的异化。
首先是人的自然属性的异化。自然属性中又分为人的肉体性异化和精神性异化。在强人工智能时代,“类人机器人”将会普遍出现在人们的生活中,甚至人机结合也不会只出现在科幻电影中,人类机器化和机器人类化既冲击了人类的主体性地位,又使人们对自己的存在产生了质疑,即“我”到底是人还是机器?从而陷入“我是谁?”的窠臼中。
其次是人的社会属性异化。人的社会性就在于人是依靠社会关系存在的,但是如果强人工智能代替了人类大部分的社会关系,那么人与人之间的联系将会弱化,那时人们之间的联系与沟通就会是虚拟的,方便人类的同时也“将人际交往带入了虚拟沉迷、丧失自我、躲避责任、远离现实等异化窠臼中。”
但是,本来人工智能的发展和应用是为了解放人类,是为了实现人类自由而全面的发展的。如果反过来,人们崇拜人工智能,被人工智能所奴役,对人类自身产生威胁,那么强人工智能不仅达不到全人类解放的目的,反而会造成全人类的禁锢。
2.人类自身的片面性发展
人工智能是“转化为人的意志驾驭自然界的器官”[3],如果过度依赖机器,则有可能成为“单向度的人”[4],即人类的片面性发展。这并不是危言耸听,人工智能通过大数据的分析和推理确实能够快速准确地做出最有利人类全体的决定。马尔库塞认为,“技术的异化通过使人依附于机器而实现单向度社会的构建,使得社会成为一种‘没有反对派’的社会,也使得生活在这个社会中的人成为批判停顿的单向度人,人们失去了否定、批判和超越的能力而忠心耿耿地臣服于‘技术的进步’”[5]。
如果人类失去了批判性思维,那就只是一个行尸走肉,这是对人类自身威胁最大的一点,当每一个人的个性都成为同一个个性;每一个人的观点都成为同一个观点,表面看起来一派和谐,社会意见达到了高度的统一,实际在人工智能面前,每个人都丧失了独立思考的能力,被同化成为了一个被人工智能掌管的“机器人”。“人的鲜活的生命力变成了抽象的、空洞的符号,人们虽然自由但再无个性,如同被资本宰制一样被人工智能钳制着。[6]”
与上文中人工智能的“威胁论”不同,另一部分人却对人工智能的发展充满了信心。
3.发展人工智能技术的不确定性
目前的程序师、设计人员等研究人工智能技术的相关人员更多关注的是突破人工智能的技术难题,很少甚至完全不关注人工智能有可能带来的伦理问题。除了如今的弱人工智能时代的机器人确实无法威胁人类以外,研究人工智能不同领域的科技人员还是带有一种技术乐观主义,认为人工智能尚处于自身知识的控制之下,并不会反过来“谋害主人”,在笔者看来弱人工智能确实无法从根本上威胁人类,但是仍然要防止强人工智能时代人类利用智能机器人自相残杀,乃至发动全球战争。强人工智能的应用还是需要人们谨慎对待。
每一次科技的进步,其发明本意都是善的。但随着科技的进步,我们就会发现,越是强大的技术,容错率就越低,即使只发生一次事故,就有可能造成巨大的破坏,足以抹杀所有的裨益。所以,与其亡羊补牢,不如防患于未然,强人工智能的伦理问题在设计之初就应该得到全面而详尽的考虑,以免成为伤害人类自身的一个武器。
(二)强人工智能的责任伦理困境与道德主体地位问题
人工智能的道德主体地位问题并不是只有在未来才会出现,反而是一直以来学术界讨论的重点内容。人工智能是否需要承担道德责任,这一问题究其根本就是人工智能是否拥有道德主体地位的问题或者说道德意识的问题。
人工智能是否会和人一样拥有一颗“七窍玲珑心”,拥有一颗和人类良心一样的“机心”,是人工智能获得道德主体地位的第一步。但是关于道德是什么?善是什么?如何才是善的?这一系列问题,人类社会还处于众说纷纭的阶段,并不能达到世界统一的标准,就拿正义的标准来看,关于什么是正义的讨论至今还没有统一的标准,是使用功利主义者边沁和密尔“最大多数人的最大幸福”的正义原则为标准,还是使用罗尔斯《正义论》的两个正义原则的“合乎最少受惠者的最大利益”原则为标准,并没有得到明确的认定,有时候还需要按照情况而随时变换正义原则。
在弱人工智能时代,人工智能的道德主体地位当然不能被认同,因为这些机器人都没有发展到独立思考的地步,更加不会拥有“机心”,生物本质主义者们也认为:“意识是生物有机体的属性;由硅和铜制成的电线和晶片不会有主观感受,也不会有自我意识。[7]”硅基生物,只能是冷冰冰的机器,不能和碳基生物一样有血有肉,拥有“恻隐之心”。人工智能的判断永远是出于程序设定,而作出相应的行为反应,就算未来的智能机器人可以完全模拟人类的种种表情、感受,但是诸如疼痛、欢愉、幸福等感受,人工智能永远不可能真正感同身受。连最基本的肉体感受力都没有,“机心”从何而生?又何谈道德主体地位?
与此相反的是,技术乐观主义者认为,随着科技的进步和时间的推移,人工智能机器人能够通过模拟人类的生物大脑,通过自下而上的学习,逐渐“养成”人类的肉体感受力,并产生出“机心”;或者通过自上而下的办法——计算机工程师输入人类的感情程序而产生“机心”。
另一种认同人工智能道德主体地位的观点认为,按照通用人工智能(即强人工智能)的定义来看,人工智能是有道德意识的,如果否定了人工智能的道德主体地位,就是否定了这一定义,这是相互矛盾的。直接从定义上认可了人工智能的道德主体地位。
无论是否认同人工智能的道德主体地位,每种理论都各有自己的逻辑自通性。无论人工智能机器人能否获得“机心”,都是一个未知数,但可以明确的一点是,强人工智能时代的最好的结果是构建人机合作、人机共存或者说人机交互的智能化社会。相对来说,人机交互的社会可能不是一个最好的社会,但却是对人类伤害最小的社会。
三、强人工智能时代伦理困境的伦理治理
面对强人工智能时代可能发生的种种伦理困境,纵观古今,我们或许可以从中得到解决这些伦理问题的一些启发。
(一)开展中国传统“以道驭术”的伦理思想教育
先秦时期,儒家、道家、以及墨家就提出了“以道驭术”的科技伦理思想。所谓“以道驭术”,“就是技术行为和技术应用要受到伦理道德规范的驾驭和制约。[8]”如果没有伦理道德的约束,科技的发展只会为了功利目的而不择手段,这一伦理规范思想在强人工智能的发展中同样适用。
先秦各家“以道驭术”的主要伦理思想各有特色。首先,儒家的伦理思想讲究现实性,提倡经世致用。尤其是儒家主张“三事”,所谓“三事”,指的是“正德、利用、厚生”,“‘三事’,要求技术发展目标既对国计民生有利,又有道德教化功能。”[9]第二,道家的“以道驭术”观念中主张技术活动各要素之间的和谐,包括技术应用中人际关系的和谐、技术活动与社会的和谐、技术活动与自然的和谐。第三,墨家的“以道驭术”思想则主要关注于工匠个人的道德修养。“注重以技术道德规范约束群体或个体工匠的技术活动,要求门徒学习大禹治水吃苦耐劳、栉风沐雨的精神,毫无功名利禄之心,勤生薄死,以赴天下之急。[10]”
总体上看,先秦时期的“以道驭术”,是观念和行动的有机结合,但“思想家的伦理道德观念并不能直接变成普通民众特别是工匠的道德意识和行为,这里要经历一个不断教化熏陶的过程。[11]”在人工智能伦理学中就可以借鉴这一方法,对德行优良的人工智能科研工作者要加以赞誉,而对在研究人工智能活动中的歪风邪气要加以鞭笞。
(二)确立强人工智能“以人为本”的伦理原则
无论将来的人工智能有多么先进,机器人和人类多么相像,首先要明确一点:人只能是目的,而不能是手段。一切人类创造的产品,不论是否拥有和人类一样的“肉体感受力”,都不能忘记“以人为本”这一基本原则。不论是国际组织还是各国政府、企业,各类主体发布的人工智能伦理原则都不能离开这一基本原则。
早在1942年,阿西莫夫(Isaac Asimov)在《我,机器人》中就给出了三条机器人定律:“第一条,机器人不得伤害人类个体,不能目睹人类受到伤害而不干预;第二条,机器人必须服从人类的命令,命令与第一条冲突除外;第三条,机器人在不违反第一条、第二条原则的情况下,要保护自身安全。[12]”以阿西莫夫的机器人定律为基础,各类主体提出了大同小异的人工智能伦理原则。
2019年4月,欧盟人工智能高级专家组发布《可信任的人工智能伦理指南》提出了“尊重人类自主、防止伤害、公正与可解释性”四大伦理原则;2022年,中共中央办公厅国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了科技伦理原则:增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明[13]。
总之,人工智能的伦理原则都不能离开“以人为本”这一基本原则,但是要把握好尺度,避免从以人为本的良好出发点走向人类中心主义的错误路线。
四、结语
第四次科技革命的到来使科技快速发展的同时,让人们忽略了科技伦理的同步跟进,历史的经验告诉我们,科技越是发达,一旦出错,对人类的伤害就越加不可挽回。面对强人工智能时代的伦理困境,诸如强人工智能的责任伦理困境与道德主体地位问题不得不提前采取措施,为人机共存的发展前景打下基础。
参考文献:
[1]刘子玥.关于弱人工智能与强人工智能的思考[J].电子元器件与信息技术,2021,5(07):7-8.
[2][美]迈克斯·泰格马克(Max Tegmark),汪婕舒译.生命3.0:人工智能时代 人类的进化与重生[M].杭州:浙江教育出版社,2018(06):51.
[3]马克思,恩格斯.马克思恩格斯全集:第三十一卷[M].北京:人民出版社,1990:102.
[4]赫伯特.马尔库塞.单向度的人:发达工业社会意识形态研究[M].刘继,译.上海:上海译文出版社,2016.
[5]吴永源.人工智能与单向度的人[J].高等理科教育,2020,(02):13-15.
[6]娄延强.人工智能的伦理困境与正解[J].道德与文明,2022(01):131-139.
[7]詹姆斯·道斯,张伟,李冰清.推理性人权:人工智能与人类未来[J].中国政法大学学报,2022(01):289-304.
[8]中国科技伦理史纲[M].王前等著,北京:人民出版社,2006:7.
[9]孙宏安,中国古代科学教育史略[M].沈阳:辽宁教育出版社,1996:291-292.
[10]汝莉、李生荣,中国科技教育史[M].长沙:湖南教育出版社:1992:88-89,285.
[11]王前.“以道驭术”——我国先秦时期的技术伦理及其现代意义[J].自然辩证法通讯,2008(01):8-14+110.
[12]阿西莫夫.银河帝国8.我,机器人[M].叶李华译,南京:江苏文艺出版社,2012:2.
[13]中共中央办公厅 国务院办公厅印发《关于加强科技伦理治理的意见》[J].中华人民共和国国务院公报,2022(10):5-8.
作者简介:张舒婷(1998.04 -);女;汉族; 河南南阳人;硕士在读;河北师范大学;马克思主义学院;研究方向:应用伦理学。
赵安琪(1998.12 -);女;汉族; 河北廊坊人,硕士在读;河北师范大学;马克思主义学院;研究方向:应用伦理学。
京公网安备 11011302003690号