
- 收藏
- 加入书签
我国构建生成式人工智能的政府监管体系研究
摘要:源于生成式人工智能的复杂性、技术失控的可能性以及其被恶意利用的可能性,可能会对国家数据安全、金融安全等多重领域构成严重威胁,建立一个综合性的框架,涵盖技术开发、应用、监管和社会参与等多个方面,以确保生成式人工智能技术的合法可信赖及可持续发展。
关键词:生成式人工智能 政府监管 监管体系
国家互联网信息办公室首先于2023年4月11日发布《生成式人工智能服务管理办法(征求意见稿)》,紧接着七部门联合在7月15日发布《生成式人工智能服务管理暂行办法》,我国进入生成式人工智能政府监管的新阶段。面对生成式人工智能爆炸发展所带来的国家安全、公共安全、数据泄露、法律侵权等实践风险,亟需系统构建生成式人工智能的监管模式。对于这一新兴领域进行深入研究,可以丰富学术界对生成式人工智能的政府监管的理论研究,在实践上为政策制定者提供重要的参考依据,以确保生成式人工智能技术的发展和应用符合国家安全、公共利益和社会价值,促进其产业在监管下健康有序发展。
一、生成式人工智能国内外监管趋势
欧盟在2018年4月发布欧洲人工智能战略,在2023年6月,欧洲议会批准人工智能法案,将Chat GPT进一步归类至高风险技术,指出应尽快制定针对GDP的伦理规范法律法规,在批准其进入市场之前,应用研发机构外部的伦理审查委员会进行,确保用户的自主性、公平对待和隐私。欧盟在人工智能应用领域始终强调人文主义,主张人工智能应当符合人类伦理,不应当背于人类道德和价值观。那么与一般人工智能相比,欧盟对于以Chat GPT为代表的大语言模型的伦理监管更加地谨慎,主要对于其基本伦理秩序的维护和在Chat GPT的应用过程当中,公民基本权利的保护予以特别的关注。
2022年10月,美国白宫科技政策办公室发布人工智能权力法案蓝图,提出安全、公平、隐私保护、及时通知和选择退出等5项基本原则。在Chat GPT发布以后,美国更加关注大语言模型可能引发的重要的一些伦理问题,2023年1月公布了人工智能风险管理框架,指导相关机构组织降低在开发和部署人工智能系统过程当中的安全风险,避免产生偏见、歧视等负面后果,提高人工智能可信度,保护公民的自由权利;2023年2月,美国总统拜登也签署了一项行政命令,要求联邦政府设计和使用人工智能时,要避免受到偏见和算法歧视的威胁;2023年6月,美国政府对国家人工智能战略征求意见,部分内容聚焦保护人权,促进公平公正等方面。总体来看,在Chat GPT问世以后,美国虽然鼓励重点发展生成式人工智能等大语言模型人工智能,但也对大语言模型带来的伦理问题高度关注,从其密集出台的相关政策文件可以看出端倪,多份文件都提出了确保人工智能的合理性、可信赖性,以及对公民的个人信息、隐私、公平自由等合法权益的保障,体现了美国在应对大语言模型人工智能发展问题当中的人本主义立场,并在联邦政策和法律的框架当中有所表达。
英国针对生成式人工智能主张多方参与的监管框架,包括政府机构、行业、学术界和社会公众。这种协作旨在促进技术创新和发展的同时,充分考虑社会影响和伦理问题。英国注重预防原则,强调在新技术应用早期阶段就进行监管,以避免潜在问题的出现。另外,英国政府于2021年发布了《人工智能产业战略》,该战略提出了人工智能发展的愿景、优先领域和指导原则,其中包括对生成式人工智能的关注。英国在生成式人工智能领域的监管制度主要关注数据隐私和安全、算法公平性和透明性、可解释性和稳健性等方面。相关法规包括《数据保护法案》《人工智能和数据伦理指南》等。这些法规和指南要求生成式人工智能系统的开发和使用必须符合一定的道德和法律标准。
在国内,我国出台了《生成式人工智能服务管理暂行办法》,生成式人工智能的监管理念、政策和制度主要是以促进创新和规范发展为主导,同时注重对生成式人工智能实行包容审慎和分类分级监管。同时,中国也重视人工智能的安全和可控性,强调发展与安全并重。在政策方面,中国已经有了一系列与人工智能相关的政策,包括“新一代人工智能发展规划”、“促进新一代人工智能产业发展三年行动计划”等。总的来说,国内外对生成式人工智能的监管理念、政策和制度存在一定差异。国内更注重创新和规范发展,而国外则更加注重分类分级监管和伦理法律问题。
二、生成式人工智能带来的风险挑战
(一)国家安全风险
生成式人工智能的不断发展和广泛应用在科技和经济领域带来了显著优势,但源于生成式人工智能的复杂性、技术失控的可能性以及其被恶意利用的可能性,可能会对国家数据安全、金融安全等多重领域构成严重威胁。
首先,生成式人工智能的复杂性增加了技术失控和数据泄露的安全风险。由于生成式人工智能系统的深度神经网络结构,其操作和决策过程变得高度复杂,难以完全理解和预测。这种复杂性可能导致技术失控的风险,即系统产生意外结果或行为,可能对国家安全产生负面影响。此外,生成式人工智能需要大量数据进行训练,如果这些数据未受到适当的保护,可能导致数据泄露,进而泄露国家重要信息或技术。其次,生成式人工智能如果被他国用于恶意目的,可能对国家安全构成严重威胁。例如,恶意国家或非国家行为体可能使用生成式人工智能来制造虚假信息、恶意网络攻击、社会工程学攻击等,以达到政治、经济或军事方面的目标。这种滥用可能对国家政府、企业、金融系统和基础设施造成巨大危害,损害国家安全和稳定。
(二)公共安全风险
源于生成式模型的强大文本生成能力,催生了生成式人工智能可能带来的虚假新闻和信息操纵风险,其内在机制使其易于产生具有欺骗性质的文本,进而可能对社会政治稳定和公共利益与公共安全造成深远的影响。
生成式人工智能的文本生成能力,如基于Transformer模型的GPT系列,具备模仿人类写作风格的能力,这种文本生成的逼真性意味着虚假信息生成变得更加难以辨识。恶意行为者可以利用这一技术,以自动化方式制造虚假新闻、不实言论或误导性信息,然后迅速扩散至社交媒体和新闻平台,引发公众恐慌、社会不安。生成式人工智能还可以自动生成多样性的信息,适应不同的语境和受众。这意味着虚假信息可以根据受众的特定背景和信仰进行个性化定制,以更有效地操纵受众的情感,这种信息的高度个性化可能导致信息“过滤泡沫”效应,加剧社交媒体上的信息孤岛化,削弱了人们对多元化观点的接触,从而加大了信息操纵的效果。此外,生成式人工智能可以模仿多个声音和角度,制造伪装成不同来源的信息。这增加了识别虚假信息源的难度,使其更具迷惑性和欺骗性。信息操纵者可以模拟多个不同的“声音”,以混淆和误导监管机构和新闻媒体,增加其成功的机会。
(三)其他社会隐忧
生成式人工智能可能带来数据泄露风险,其涵盖了不当网络数据抓取、数据收集处理的不透明性,以及个人隐私权被侵犯等多个方面。首先,生成式模型通常需要大量的数据进行训练,以学习和模仿人类的语言和写作、绘画风格,然而,获取这些数据可能涉及不当的网络数据抓取行为,例如,未经许可地从互联网上收集和使用个人或敏感信息。其次,生成式人工智能的内部运作机制通常是复杂的深度神经网络,这些网络的决策和生成过程可能难以解释和理解。这使得数据的收集、处理和使用过程不透明,难以监督和审查,如果不谨慎管理数据的访问和使用权限,可能导致数据的滥用和泄露。最后,生成式模型有能力分析和生成包括个人数据在内的敏感信息。如果这些信息被不当使用或泄露,将对个人隐私权造成严重侵害。这其中还具体包括由于修改、屏蔽和删除个人信息的救济机制不完善,以及从人工智能数据库和机器学习模型中共同删除数据的诉求机制缺失等因素,所导致的个人隐私权被侵犯风险。
除此之外,生成式人工智能可能影响人们的意见形成、决策行为和社会互动方式,导致信息过载和社会动荡,人类的辨识能力和认知能力会不会因为生成式人工智能的广泛应用而出现反塑危机?而且生成式人工智能的发展可能威胁到某些创造性领域,如文学、艺术等,引发对人类创造力的担忧。在一些领域,自动化生成的内容可能会取代人工创作,可能导致某些职业的减少,引发更深层次的失业问题。
三、生成式人工智能治理元规则
为确保生成式人工智能技术的可持续和负责任发展,从现有人工智能治理制度中提炼出生成式人工智能治理元规则,可以作为指导原则,应用于生成式人工智能的开发、应用和监管中。
(一)合法合规原则
1.以人为本。技术的发展和应用应该始终以人类的利益和价值为出发点,确保技术为人类带来积极影响,将人类的需求、价值观和福祉置于首位。
2.目的正当。技术的开发使用应该合法合规,并符合社会道德、伦理准则和社会价值观。
3.社会效益。在开发、应用生成式人工智能技术时,不仅要追求商业利益,还要考虑整体的社会效益,在管理生成式人工智能时,确保不影响其健康有序发展。
4.公平公正(反对歧视):确保算法的决策和生成过程不产生歧视、偏见或不平等的结果,以保障技术应用对所有用户的平等和公正。
(二)技术安全原则
1.算法安全。安全性应该贯穿技术的整个生命周期,防止技术被滥用、攻击从而导致意外后果,保护用户、系统和社会免受不良影响。
2.算法透明。算法的运行方式和决策逻辑应该是清晰、可理解和可解释的。
3.算法可信。算法的决策过程和数据流可以被审查和验证,其技术的合规性能进行评估,确保生成式人工智能技术能够在合法、道德、可控的框架内运作。
4.算法可责。应确保算法的决策和生成过程是可追溯、可解释和可追责的,确保技术开发者和提供者对其后果负有适当的责任。
5.有效监督。技术运行监控、数据使用审核、生成内容审核、用户反馈和投诉处理、问责与复查。
(三)信息安全原则
1.保护隐私。在研发应用生成式人工智能技术时,必须采取措施保护用户和相关个体的隐私权利,防止他们的个人信息被滥用、泄露。
2.数据安全。在研发优化中使用合法来源、经许可的数据,并采取措施确保数据的机密性、完整性和可用性,防止数据泄露、篡改、丢失或未经授权的访问。
3.风险管理。进行信息安全风险评估,采取适当的措施来降低数据、隐私泄露风险,包括安全策略、教育培训和应急响应计划。
四、生成式人工智能治理思路
(一)基本观点
1.建立创新与监管平衡机制。政府监管应在保护公众利益的同时,保持对生成式人工智能技术创新的支持。监管政策和实践应考虑到技术的动态性,在合理范围内保持技术的灵活性并鼓励创新实践,同时防止滥用和潜在风险的发生。政府与科技界、学术界和社会各方应建立紧密的合作关系,共同制定监管框架和指导方针。
2.构建监管能力动态提升机制。政府监管部门应加强生成式人工智能的监管能力和专业知识。通过项目研究和人才培训,使监管部门人员动态学习和更新,关于人工智能技术、算法、应用和监管领域的专业知识,以便有效监控和评估生成式人工智能系统的运行和影响。
3.探索科技协同监管机制。通过专门的人工智能安全管理系统来管理生成式人工智能,在不同人工智能之间形成相互监督模式,从而实现有效和精准监管,弥补人类在人工智能监管方面难以克服的认知局限,使监管更为专业科学化。
(二)具体举措
建立一个综合性的框架,涵盖技术开发、应用、监管和社会参与等多个方面,以确保生成式人工智能技术的合法可信赖及可持续发展。
第一,坚持伦理先行。生成式人工智能技术已经引发根本性的伦理关切,应建立完善的、合乎人类利益与道德标准的法律规范,并将其贯穿于公法与私法实践中。
第二,保障数据质量。生成式人工智能的成功,得益于算法优、算力强和上千亿参数的模型、数以千亿计的训练语料数据,数据作为训练和优化AI模型的核心元素,具有不可替代的作用。建议国家层面加速数据要素市场的基础性制度建立,促进数据开放共享和数据要素在全国范围内合理流动,并着力建立多模态公共数据集,打造高质量中文语料数据库,为我国的生成式人工智能技术发展提供丰富的“原料”,确保数据的最大价值实现,并且在统一的制度框架下最大化保障数据的安全和合规性。
第三,开创赋能型监管。重视监管对于生成式人工智能发展的赋能作用,克服静态的、命令式的、仅关注结果的监管模式的局限性,以监管作为枢纽,坚持全面监管和分领域重点监管相结合,发挥科技监管优势以形成相互监督模式,促进合作共治、促进合规、促进科技向善。
第四,促进法律规制与数字技术融合发展。生成式人工智能对于数字技术具有高度的依赖性,数字技术发展直接影响着生成式人工智能发展,立法要保持对数字技术不断发展的兼容性,并且要把数字技术的成果融入到立法规制当中去,利用数字技术实现立法规制内容。
第五,促进协同(多元)共治。在治理模式上,坚持软硬法协同共治,优化包括不同部门、不同主体,也包括国际多元主体参与的协同共治模式。确立政府和社会多方联动的监管模式,明确要求企业进行内部的基本制度建设和技术措施建设,定期检查漏洞并及时修复;鼓励团体标准先行,并进一步制定国家标准和行业标准,通过制定技术标准和技术规范对个人信息处理、数据的可信性,数据安全、数据产品、数据服务、算法模型等加以规制。
参考文献:
[1]张欣. 生成式人工智能的算法治理挑战与治理型监管[J]. 现代法学,2023,45(03):108-123.
[2]商建刚. 生成式人工智能风险治理元规则研究[J]. 东方法学:1-14.
[3]汪波,牛朝文. 从ChatGPT到GovGPT:生成式人工智能驱动的政务服务生态系统构建[J]. 电子政务:1-14.
作者简介:苟圣杰,四川成都人,四川省社会科学院硕士研究生。阳卓伶,重庆万州人,四川省社会科学院硕士研究生。本文是四川省社会科学院重大课题《四川促进共同富裕的立法保障实证研究》中“生成式人工智能对共同富裕的机遇和挑战”部分的阶段性成果。