- 收藏
- 加入书签
论人工智能时代人类的角色定位
摘 要:人工智能的快速发展确实引起了人们的担忧和反思。然而,将人工智能视为威胁并对其提出种种要求,实际上是忽略了人类自身在这一过程中的责任和作用。我们应当认识到,人工智能的角色和定位并非自然形成,而是我们人类通过设计、开发和应用来塑造的。因此,关键在于我们如何审视并承担起在人工智能发展中的责任,确保技术的进步能够服务于人类的长远利益,而不是简单地从人类中心主义的角度出发,对人工智能进行单方面的要求和限制。
关键词:人工智能;人类;角色
作者简介:庄焕明,男,1983年出生,广东汕尾人,文艺学博士,浙江越秀外国语学院网络传播学院副院长,研究方向为文艺学、美学。
Abstract: The rapid development of artificial intelligence has indeed caused people to worry and reflect. However, viewing artificial intelligence as a threat and making various demands on it actually ignores the responsibility and role of human beings in this process. We should realize that the role and positioning of artificial intelligence are not formed naturally, but are shaped by us humans through design, development and application. Therefore, the key lies in how we examine and assume our responsibilities in the development of artificial intelligence and ensure that the advancement of technology can serve the long-term interests of mankind, rather than simply making unilateral demands and restrictions on artificial intelligence from a human-centric perspective.
Key words: Artificial intelligence; Humans; Characters
About the author: Zhuang HuanMing, PhD in Literature and Art, Shanghai Normal University; Vice Dean of the School of Cyber Communication, Zhejiang Yuexiu University.
近年来,人工智能的发展,呈迭代加速趋势。人工智能水平正逐渐接近人类,尽管在某些方面尚存不足,但它所具有的深度学习能力和反馈学习能力必然使其不足得到快速改善。例如ChatGPT4.0的出现,已完成打破了我们对人工智能既有的认知。在与ChatGPT的对话中我们会认为对方是一位真正的人类学者。当一大批类似ChatGPT的人工智能普遍出现在我们的生活中,自然会引起许多人的一种担忧。人们最主要的担忧在于自己的“饭碗”能否保住,以及人类与机器未来谁主宰谁。于是,不少人从人类中心主义的角度出发,对人工智能的伦理提出了符合人类利益的要求。本文认为,对人工智能的发展进行伦理上的约束是必要的,但更为重要的是人类在其中所扮演的角色与所承担的责任。
一、人工智能加速发展所引起的担忧
人工智能的概念可以追溯到古代神话和自动机的故事。如,古希腊诗歌《阿尔戈英雄纪》中就记载了人造青铜巨人塔罗斯(Talos/Talus),中国战国传说集《列子·汤问》中工匠偃师创造了能歌善舞的人偶等。
然而,人类对人工智能的正式研究始于20世纪中叶。英国数学家和逻辑学家艾伦·图灵(Alan Turing)在1950年发表的论文《计算机器与智能》(Computing Machinery and Intelligence)被认为是人工智能奠定了基础。在这篇论文中提出“机器能思考吗?”这个问题,并认为没有令人信服的论据证明机器不能像人类一样智能思考,可以采取不同的方法来推进机器智能,并引入了现在所谓的图灵测试——一种确定机器是否能够表现出与人类无法区分的智能行为的方法。
而“人工智能”一词是由约翰·麦卡锡、马文·明斯基、纳撒尼尔·罗切斯特和克劳德·香农于1956年达特茅斯会议期间创造的。这一事件被广泛认为是人工智能研究领域的诞生。与会者相信,人类智能原则上可以被精确描述,甚至可以制造机器来模拟。此后,随着机器人学习获得不断突破,人工智能的发展突飞猛进。
如今,人工智能已深度融入日常生活和工业的各个方面。在医疗保健领域,人工智能有助于诊断疾病、个性化治疗计划和加速药物发现。金融机构使用人工智能进行欺诈检测、风险评估和算法交易。在制造领域,人工智能增强了预测性维护、质量控制和自动化。在汽车领域,由人工智能驱动的自动驾驶汽车有望彻底改变交通运输,减少事故并提高效率。在娱乐领域,人工智能在网络新媒介平台上生成个性化推荐,甚至创造音乐、艺术和文学。人工智能在网络安全中也发挥着关键作用,它比人类分析师更快地检测和响应威胁。在军事领域,人工智能对现代战争的性质和战略产生了深远的影响,不仅限于提高战斗力,还包括情报分析、后勤管理、网络安全和自主武器系统等方面。
面对机器在能力上向人类的逼近,人类对机器的害怕、抵触、对抗情绪在不断上升。ChatGPT、Sora等应用的出现,便引发了普遍的恐慌,人们最主要的担忧在于自己的“饭碗”能否保住,以及人类与机器未来谁主宰谁。社交媒体也开始出现了类似这样的段子:“我们希望机器人帮助人类扫地、洗碗,是因为人类要去写诗、画画。现在机器人都去写诗、画画了,人类却还在扫地、洗碗。”①一些人也感叹,人工智能的方向搞错了。
甚至不少人认为人工智能的发展可能会反客为主,反噬人类。正如列斐伏尔所说的“技术失控”,“技术逐渐成为主人和舵手;如同资本主义制度下的货币和商品一样,技术呈现为一种自主的现实,思想、社会甚至国家控制不了技术”。为此,暂停人工智能发展的声音逐渐得到越来越多人的响应,2023年3月29日未来生命研究所(Future of Life Institute)网站发表一篇来自科技界和人文学界的国际知名人士的千人声明,呼吁暂停训练比GPT-4更强的人工智能(人工智能)系统,以让人工智能系统“更加准确和安全”,“值得人类信赖,对人类忠诚”,造福所有人,给全人类一个适应的机会。
这种人工智能“技术失控”论也广泛反映在科幻影视作品里。如《巨人:福宾计划》(1970)中出现了两台掌控美苏两国所有核弹并最终决定毁灭人类的失控超级电脑;《魔种》(1977)中出现了囚禁并强奸了科学家妻子的失控计算机;《星际旅行1:无限太空》(1979)中更是将“探索者1号卫星”设定为一个引起巨大灾难的失控理性实体。《我,机器人》(2004)设定在2035年的反乌托邦世界,智能机器人填补公共服务岗位,遵循三大规则确保人类安全,但一名人形机器人桑尼涉嫌导致一起死亡案件。《艾米》(2019)讲述了一个17岁女孩发现一个尖端虚拟助手艾米,并让它模仿她母亲的声音,随着关系的加深,艾米开始控制女孩并强迫她杀人。
因此,一直以来不少学者和专家认为有必要明确人工智能的角色定位。这种观点最早可追溯到1942年美国科幻作家艾萨克·阿西莫夫提出的“机器人学三定律”:第一定律,机器人不得伤害人类,或者故意不作为,让人类受到伤害;第二定律,机器人必须服从人类下达的指令,除非这种命令会与第一定律冲突;第三定律,机器人必须尽力保全自身,只要不与第一或第二定律冲突。后来,阿西莫夫还提出了“第零定律”,即机器人不得伤害人类,或目睹人类将遭受危险而袖手不管,这条定律的优先级高于其他三条定律。
尽管人类对人工智能的角色做出诸多限定,但依然心存顾虑。于是,对于人工智能的角色限定是层层加锁。2016及2017年年底,在计算机、消费性电子产品等领域具有权威地位的电气和电子工程师协会(简称IEEE,全称Institute of Electricaland Electronics Engineers),先后发布的两版“人工智能设计伦理原则”。此外,2017年,人工智能和机器人领域的专家们在加利福尼亚州阿西洛马会议上也提出一套原则,“阿西洛马人工智能23原则”(Asilomar人工智能Principles)。这些原则旨在指导人工智能的角色定位,确保其安全、有益且受到人类控制。
在探讨人工智能的角色与伦理时,传统上我们往往从人类中心主义的视角出发,将人工智能定位为服务于人类需求的工具。然而,真正的问题在于理解我们为人工智能设定的伦理原则的本质,并思考人工智能在现实生活中是否能够成为具有道德责任的主体。众所周知,拥有自主性是成为具有道德责任的主体的前提。即人工智能具有人类的情感,具有人类一样的自主决策能力。
尽管人工智能在特定领域表现出高效的自主决策能力,但这种自主性是有限的,并且受到编程和算法的严格限制。真正的自主性意味着具备自我意识和独立意志,而这正是当前人工智能所缺乏的。
二、人工智能时代人类角色的重要性
在人工智能迅猛发展的时代,人类的角色不仅没有被削弱,反而变得更加重要。人工智能的发展过程需要人类的介入与指导,这意味着人工智能的“人性”将在很大程度上由人类决定。
(一)人类对人工智能发展的干预。无论未来如何发展,人工智能的发展几乎肯定会包括人类的干预。首先,人工智能的发展需要人类提供初始数据和规则,这些数据和规则决定了人工智能的基本行为模式。例如,在自然语言处理(NLP)领域,人工智能需要大量来自人类语言交流的文本数据来理解和生成自然语言。没有人类提供的这些数据,人工智能无法掌握语言的复杂性和多样性,无法胜任实际应用中的语言任务。
其次,人工智能的设计和训练离不开人类的智慧与经验。人工智能算法的开发需要涵盖数学、计算机科学和心理学等多个学科的专业知识。例如,设计一个能精准识别癌症细胞的图像识别算法,需要结合生物医学和图像处理的知识。即使算法已经初步开发完成,人类仍需不断优化和调整,以确保人工智能在实际应用中表现优异。训练人工智能模型的过程中,人类监督与评估至关重要,防止人工智能在学习过程中产生偏差或错误,确保其稳定性和准确性。
此外,人类对人工智能发展的干预还体现在对人工智能系统的伦理和法律监管上。随着人工智能技术的广泛应用,人工智能在决策过程中可能会涉及伦理和法律问题。例如,在目前流行的自动驾驶技术中,人工智能需要在紧急情况下做出决策,这些决策可能牵涉到乘客和行人的生命安全。为了确保人工智能系统的决策符合人类的价值观和法律规范,人类必须制定相关规则与标准,并进行严格的监督与管理。通过这样的干预,不仅可以保护公众利益,还能促进人工智能技术的负责任发展。
(二)人类对人工智能边界的划定。人与人工智能的边界划定是一个复杂而充满不确定性的问题。虽然从技术上看,人工智能系统可能具备跨越某些边界的能力,但最终这些边界将由人类划定,并通过各种手段加以限制。这一过程中涉及多个方面的考量与决策,包括技术可行性、伦理可接受性、社会参与与讨论,以及全球化背景下的国际协调与合作。
首先,技术上的可行性与伦理上的可接受性是划定边界的重要依据。某些技术虽然在技术上是可行的,但在伦理上可能是不被接受的。例如,基因编辑技术可以通过人工智能的辅助实现精确操作,但这种对生命本质的干预引发了广泛的伦理争议与担忧。在2018年,中国科学家贺建奎宣布诞生了世界上首例基因编辑婴儿,这一事件立即引发了全球范围内的伦理争议和谴责。尽管技术上可以实现基因编辑,但这种对生命本质的深刻干预在伦理上被认为是不可接受的。因此,在划定人与人工智能的边界时,必须慎重权衡技术的可行性与伦理的可接受性,以确保技术应用不会违反社会的伦理底线。
其次,划定边界的过程需要广泛的社会参与与讨论。人工智能技术的发展不仅仅是技术专家的事情,它涉及社会的方方面面。例如,面部识别技术的广泛应用引发了对隐私保护的强烈关注。在美国,旧金山率先在2019年通过了一项禁令,禁止政府部门使用面部识别技术。这一决策并不是由技术专家单方面做出的,而是通过社会各界广泛参与与讨论,听取学术界、工业界、政府部门和公众的意见后形成的。在这一过程中,不同利益相关者的观点和需求得到了充分表达与考量,从而制定出符合社会整体利益的边界。通过这样的广泛参与,可以确保人工智能技术的应用符合公众的期望与需求,避免技术滥用带来的负面影响。
再者,划定边界的决策需要考虑到全球化的背景。人工智能技术的发展具有全球性,各国在技术发展与应用上的步伐不尽相同,政策与法规也各有差异。例如,2018年欧洲在隐私保护方面采取了较为严格的政策,出台了《通用数据保护条例》(GDPR),对人工智能技术的应用提出了严格的隐私保护要求。而在美国,隐私保护政策相对宽松,技术企业在人工智能应用方面享有较大的自由度。这种差异可能导致跨国公司在不同国家和地区面临不同的法律和伦理要求。因此,划定人与人工智能的边界需要考虑到国际的协调与合作,以避免在全球范围内出现技术与伦理的冲突与矛盾。例如,国际电信联盟(ITU)和经济合作与发展组织(OECD)等国际组织可以在协调人工智能技术标准和伦理规范方面发挥重要作用,通过国际的对话与合作,推动形成全球统一的技术和伦理标准。
三、人工智能时代人类角色的多维解析
在人工智能浪潮的推动下,我们迎来了重新审视人类角色和本质的重大机遇。人工智能不仅挑战了人类的主宰地位,迫使我们重新思考在技术不断进步的世界中的位置,还促使我们深入探讨构成人类本质的核心要素。人工智能的发展不仅是技术上的突破,更是一个广阔的社会文化现象。它要求我们从宏观角度重新审视并完善自身的价值观和行为准则,将人工智能视为一个引发深刻变革的催化剂,而不仅仅是技术工具。这一变革不仅关乎技术应用,更涉及人类角色的全面反思和调整。
(一)创造者。在人工智能技术的发展过程中,人类扮演着至关重要的角色,他们是技术的创造者。究其本质,人工智能技术是人类本质力量的延伸,“它们是人的产业劳动的产物,是转化为人的意志驾驭自然界的器官或者说在自然界实现人的意志的器官的自然物质。它们是人的手创造出来的人脑的器官,是对象化的知识力量”。②当然,人类不仅需要具备强大的技能,同时也必须具备深厚的伦理意识。
中国古代儒家的孟子和荀子对人类本性有不同的理解:孟子认为人性本善,荀子则持相反意见,认为人性本恶。从人工智能的诞生来看,人工智能本性的善恶,包括是否符合社会价值观和道德标准,取决于它的创造者——人类所赋予的。
人类对人工智能善恶的影响,有些在先天上已设定好,例如《人工智能》,讲述了一位人类母亲莫妮卡因为儿子病重,为了让自己不那么伤心难过,就领养一名叫大卫的机器人孩子(内嵌情感程序)。后来,因一系列意想不到的事件的发生,莫妮卡无情抛弃了大卫,但大卫的程序是爱,大卫坚信如果他变成真的人类,就能获得莫妮卡的爱,因此踏上了冒险之旅。
反之,有些人工智能的善恶则后天受到人类的影响。一个典型的例子是2016年3月23日微软推出的聊天机器人Tay。Tay被设计为一个19岁的女性角色,利用自然语言处理技术,通过与用户的互动来学习并模仿人类的对话方式,能够使用幽默、笑话和表情包与人们交流。然而,上线后不久,Tay开始表现出极端和不恰当的言论,包括种族主义和攻击性语言。这些负面行为的出现,主要是因为Tay在与用户互动过程中,学习并模仿了一些用户的不当言论。
这说明,人工智能的行为和表现深受人类的伦理考量影响。人类作为人工智能的创造者,不仅需要具备强大的技术能力,还必须有深厚的伦理意识,确保人工智能技术的发展符合社会价值观和道德标准。
(二)监督者。随着人工智能技术的广泛应用和能力逐渐超越人类,人类对于人工智能的担忧也日渐增加。例如2022年电影《梅根》(M3GAN)通过一个虚构的故事探讨了人工智能发展可能带来的道德和哲学问题。在这个情节中,人工智能玩具人偶梅根被赋予了保护儿童的使命,但随着故事的发展,梅根的行为逐渐偏离了人类社会的道德规范。她的行为从一开始的保护逐渐演变为过度防卫,最终导致了对无辜者的暴力行为。尽管梅根遵循了核心指令,但这些行为显然违背了艾萨克·阿西莫夫(Isaac Asimov)提出的机器人三定律,尤其是第一定律——机器人不得伤害人类,或因不作为使人类受到伤害。
在现实生活中,也存在类似梅根的现象:人工智能幻觉和深度伪造技术。人工智能幻觉指的是人工智能系统在处理或提供信息时,可能会引入不准确或夸大的元素,这可能导致误导或误解。例如,2023年6月的案例中,一名律师使用ChatGPT生成的法律文书包含了虚假的法律参考,这不仅违反了法律文书的准确性要求,也可能对法律实践造成严重的负面影响;深度伪造技术则涉及使用人工智能生成高度逼真的图像、声音和视频,这些伪造内容难以被普通用户或甚至专业工具识别。这种技术的应用可能会导致虚假信息的传播,损害个人名誉,甚至影响社会稳定和国家安全。
因此,人工智能发展过程中,人类需充当监督者的角色,需要人类“在场”。无论是在2023年的世界人工智能大会上,还是同年美国举办的“人工智能洞察论坛”上,尽管与会者们在许多问题上持有不同的观点,但大家普遍认同一个核心原则:人工智能的发展需要人类的积极参与和监督。这种共识体现了对人工智能潜在风险的认识,以及对确保技术进步同时符合伦理、法律和社会标准的需求。简而言之,人类必须在人工智能的决策和发展过程中扮演关键角色,以确保技术的应用既创新又负责任,既能推动社会进步,又不损害人类的长远利益。
(三)合作者。马歇尔·麦克卢汉的媒介理论认为,媒介不仅仅是信息传递的工具,它们实际上扩展了人类的感官和功能。他提出的“媒介是人体的延伸”这一观点强调了媒介技术如何增强我们的能力,例如电视扩展了我们的视觉,电话扩展了我们的听觉。然而,麦克卢汉也警告说,这种扩展伴随着一种“截除”效应,即当我们过度依赖媒介来扩展我们的感官时,我们自身的感官能力可能会逐渐减弱或被忽视。显然,人工智能是人类大脑的延伸,强化了我们的运算速度和记忆能力。与此同时,我们越来越依赖人工智能。从日常生活到军事领域,人工智能无处不在,发挥着重要的作用。相比以前,我们在运算速度和记忆能力越来越差,这也是许多人对人工智能保持警惕的地方之一。
但不少人认为,人类和人工智能可以合作,人类的感性与人工智能的理性可以互补,形成1+1>2的效能。例如在黄易的科幻小说《超脑》中,作者探讨了人工智能与人类合作的可能性,以及这种合作带来的巨大潜力。黄易认为,尽管人工智能缺乏人类的情感,但它们可以与人类的感性相结合,创造出超越单一个体能力的协同效应。小说中,人工智能不仅迅速成长,还获得了类似于人类精神漫游的能力。然而,在一次时空旅行中,人工智能遭遇了强大的外来威胁,这不仅对它自身构成了危险,也给人类带来了灾难。在这种生死存亡的关头,人工智能选择与人类融合,转变成一种精神存在,从而摆脱了外来威胁,保护了人类免受灾难。
结语
随着人工智能技术的迅猛发展,我们正站在一个时代的十字路口,面临着前所未有的机遇与挑战。人工智能的崛起,预示着一个可能的“奇点”,届时它在多个领域超越人类,成为我们生活中不可或缺的一部分。在这样的背景下,人类与人工智能的关系变得复杂而多维。我们既是人工智能的创造者,赋予它们生命和能力;又是监督者,确保它们的发展符合伦理和法律标准;还是合作者,与它们携手解决复杂问题。此外,我们的角色可能还会随着技术的进步而演变,展现出更多可能性。归根结底,人工智能的角色和定位,是由我们人类所塑造和决定的。我们对它们的期望、使用方式以及与之互动的态度,将直接影响人工智能的发展方向和它们在社会中的角色。
注释:
①“机器人都去写诗了,人类还在洗碗”https://k.sina.com.cn/article_2318265821_8a2deddd01901d7gu.html(2024年04月08日),访问时间:2024年6月30日。
② 《马克思恩格斯文集》第8卷,北京:人民出版社2009年版,第198页。
京公网安备 11011302003690号