• 收藏
  • 加入书签
添加成功
收藏成功
分享

人工智能领域数据安全风险态势分析与综合治理

李砚哲 滕飞扬 潘鹤元
  
大通媒体号
2025年95期
中国电信股份有限公司广西分公司 广西壮族自治区530029

摘要:人工智能技术与相关产品已在各行各业进行广泛应用,随着其应用的推广,人工智能特性造成的数据安全风险也越来越明显,受到各界人员的关注。人工智能领域数据的特点包括海量、多样、高价值等,其遇到数据安全事件后会遭遇严重损失,因此维护数据安全十分重要。本文通过分析人工智能领域数据安全风险的主要态势,进一步分析了人工智能领域数据安全风险的综合治理手段,相关研究内容旨在提高人工智能数据安全风险防护水平,希望可以为实际工作提供参考。

关键词:安全风险;数据处理;人工智能

引言

人工智能技术无疑是当下发展速度较快的先进技术之一,其在各领域中的应用越来越广泛,而随着该项技术的深入应用,其数据安全问题也凸显出来,文章主要介绍了人工智能领域数据安全风险的控制手段。

1. 人工智能领域数据信息特点

人工智能领域数据信息主要具有海量性、多样性、时效性以及价值性等特点。如海量性表现在产生大量数据信息,如人工智能模型训练的数据极为庞大,以图像数据为例,有时会收集数百万甚至上亿张,在这些数据分析后,其生产的数据量也呈现指数级增长趋势,形成数据相关集合,存放在人工智能系统当中;多样性则是指人工智能处理数据信息类型较为多样,如包含文本数据、音频数据、图像数据以及视频数据等,也可划分为结构化、非结构化以及半结构化数据,各种类型数据信息的处理方式不同、应用方向也存在差异;时效性是指人工智能数据信息应用场景通常对时效有着一定要求,比如智能预测股票的交易趋势时,要实时结合市场行情来分析数据并输出结果,否则会导致数据信息失去参考的意义;价值性指的是人工智能数据信息蕴含较大价值,再深入挖掘分析后,可以用在预测、智能决策等工作中[1]。

2. 人工智能领域数据安全风险的态势分析

人工智能领域的数据安全风险发展态势,可以从下述几个阶段来分析

①数据采集阶段,主要存在非法采集、过度采集以及注入恶意数据等风险,非法采集是指利用不符合法规要求的爬虫技术,在未经授权的状态下采集人工智能领域数据信息,侵犯其他主体权益,如部分企业会通过该手段获取竞争对手商业数据,过度采集则是指数据信息的采集量远超实际需求,甚至侵犯到用户的隐私权益,如部分软件在获取用户权限信息时索要了与功能不相联系的权限信息,如访问通讯录,注入恶意数据是指将篡改、失真数据注入企业原有数据模型中,造成模型无法顺利识别特定信息,出现错误。

②数据存储阶段,可能会遇到系统漏洞、加密不严、权限管理不当等风险,如系统漏洞是指存储数据的相关软件、硬件设备本身存在漏洞,无法抵御外部安全隐患,一些数据库过于老旧其系统也容易出现多种漏洞,加密不严则是指数据存储的介质加密不到位,有被盗风险,部分企业为了节省技术成本,未严格运用先进加密算法,导致存储的重要数据被人窃取,损害企业利益[2]。

③数据标注阶段,该阶段的数据安全风险表现为标注错误、标注数据泄露以及标注时遭受干扰,如人员可能因疏忽或技能水平偏低出现数据信息标注措施情况,对模型训练产生负面影响,导致其无法准确识别数据,部分标注数据可能存在敏感信息,因此一旦发生泄漏就会造成严重的后果,如医疗图像在实施标注时可能泄漏患者个人的健康隐私信息。标注过程可能会被攻击者干扰,导致标注结果出现错误,数据信息的标注质量也会下降。

④数据输出阶段,存在输出结果被恶意篡改、输出敏感信息以及输出数据被滥用等多样化风险,如人工智能系统输出的数据可能会被入侵黑客篡改,使用户受到误导,如金融交易预测的智能化系统中,其预测结果可能被人恶意篡改,导致投资者的决策失误。人工智能系统数据输出也可能在无意中将敏感信息泄露,比如医院医疗诊断系统自动出具诊断报告时输出了其他敏感信息。输出数据被用于各种途径,尤其是非法目的也是常见风险,像是人工智能生成技术的图像可能被用于诈骗。

3. 人工智能领域数据安全风险的综合治理手段

3.1 加强技术性防护

面对人工智能领域愈发复杂变化的数据安全风险,从综合治理角度出发,首先要加强技术性防护,可以运用多项关键技术,搭建起全方位防护人工智能数据安全的体系。

①数据加密技术,为提高数据信息的保密水平,经常会采用数据加密处理方法抵御安全隐患,如进行数据采集时可以借助同态加密技术,既可以保证原始数据信息不遭遇泄露情况,也能实现新采集数据的加密,从源头上把控数据安全特性,如医疗机构采集医疗数据信息时,针对患者隐私数据通常会进行同态加密,避免出现隐私信息泄露问题,但也能使机构内部对这类数据进行分析、处理。数据存储过程中,可以应用 AES 加密算法,其也能与全同态加密算法结合运用,能够保证数据在计算时维持加密状态,避免存储时出现安全隐患。对于数据传输的加密处理,可以基于 TLS/SSL 协议,确保整个传输流程的安全,谨防出现数据信息被恶意篡改或窃取问题,比如银行交易的数据信息借助网络进行传输时,会基于 TLS 协议实现加密,最终确保安全传输到客户端[3]。

②访问控制技术,该项技术对于数据信息的非法访问有着强力管控作用,其是以访问对象的角色定位为基础搭建控制模型,即 RBAC 模型,比如结合企业具体岗位与职责相关要求,为每个岗位人员分配访问数据的对应权限,像是某金融企业通过访问控制技术的应用,规定数据管理岗位的人员只拥有管理权限,而数据分析师可以对业务部分脱敏交易数据进行访问并计算分析,但二者都不能对敏感的客户隐私信息进行查看,保障数据安全。访问控制实施的情况下,也可引入结合属性的控制要素,比如依据环境属性(包括访问的地点、设备状态以及具体时间等)、用户基本数据(包括人员安全级别、具体部门以及工作年限等)对访问权限进行动态化、灵活化挑战,像是某企业规定只有指定员工在公司内部局域网作用下,使用通过认证的安全设备,才能对敏感数据信息进行访问,使访问的控制细粒度更高。

③数据脱敏处理技术,可以对数据信息的主体隐私实现保护,但也不会阻碍正常使用数据。该技术应用可分为静态脱敏、动态脱敏两个方向。静态脱敏一般在存储数据以前实施稳定处理,如针对银行卡号数据、身份证号数据直接进行变形处理、替换处理以及局部屏蔽处理,就能完成脱敏。动态脱敏则是运用在数据查询环节、使用环节,结合用户具体需求、权限情况实时处理敏感性数据信息。比如某企业员工操作查询客户基本信息时,智能化系统会自动屏蔽客户的身份证号、联系电话等敏感数据,再进行公开展示,而若是获得授权的数据管理者,系统也会在确认身份后展示完整数据,如此可适当保护客户的隐私安全。

④安全审计技术,在人工智能领域的数据安全风险治理中,该技术的作用是进行事后风险追溯,也能结合之前的风险发生规律来预警未来风险,比如可构建审计数据安全的专业化系统,实时监测数据访问、删除以及修正等诸多操作,该系统平台支持自动记录信息,如操作的人员信息、具体时间以及功能内容,再结合机器学习算法来分析操作行为特征,若遇到异常操作的情况能尽快识别。比如发现某个客户端频繁删除敏感数据并在短时间内删除数据较多,系统会发出告警信息,通知安全管理人员监控并处理,安全审计也会得到日志,日后在数据安全的追责与调查方面作为依据,以便企业查明具体缘由,总结相关经验,持续强化数据安全管理[4]。

3.2 重视建设法律法规体系

目前人工智能技术的应用场景越来越多,许多生活和工作场景甚至离不开该项技术,因此,人工智能领域的数据安全问题也渐渐变多,重视其法律法规体系的建设更为重要,法律法规是数据安全最为基础的防线,虽然此前已有许多数据信息的安全法规要求,但切实针对人工智能技术层面的内容颇少,且有待进一步细化,因此,搭建相关法律法规体系可以从两个方面加以完善。

一方面,对现有法律法规条款进行完善,比如欧盟组织的通用数据相关保护条例中规定了数据控制主体与处理主体的责任与义务,也明晰了访问权、知情权以及删除权的分配,对此,国内法律法规可适当借鉴,对数据的采集、使用、存储、分享以及销毁等环节的法律要求细化处理。比如采集数据过程中,应明确征得被采集主体的同意,否则认定为非法窃取数据信息,同意的方式、具体范围以及撤回机制也要清晰,方便日后查看,分享数据信息时也要求双方就数据安全签订好协议,明确双方主体的责任,不可出现过度共享情况或二次转售情况,对于非法获得数据、恶意篡改以及故意泄露等造成数据安全隐患的行为,也要加大惩处力度,使违法成本变得更高,比如美国对于消费者隐私的防护十分看重,对于违规的主体都会高额罚款,使法律法规具有较强威慑力,在一定程度上减少了违法行为,维护数据安全。

另一方面,围绕人工智能技术应用特点制定专项法律法规,人工智能在各领域中运用的逻辑颇为独特,风险也与一般信息技术不同,当前法律法规体系尚未完全覆盖其数据安全隐患的管控问题,因而鼓励制定专项法规内容,维护人工智能系统运行全生命周期内的数据安全,控制各项风险隐患,规范技术的应用。例如,人工智能系统开发时,可以要求开发者先自查数据安全设计是否存在漏洞,尤其是采集数据、标注处理以及训练等过程都要确保安全,在部署该系统时,也要求企业提前做好安全评估,确保系统可以保护数据信息,验证通过后方能使用,在系统应用操作期间,明确个数据主体对人工智能数据处理的权利,比如自动驾驶领域对人工智能技术的应用极为广泛,其专项法律法规中可提及企业要严格保护车辆行驶过程中采集到的用户行为数据、道路数据,以最小必要性为原则使用数据信息,对于数据安全事件的发生搭建起及时响应、报告机制,维护用户与企业方主体的基本权益。

3.3 提升企业安全管理水平

人工智能领域数据的管理、处理主体大多为企业,因此,提升企业数据安全风险的管理水平也很有必要,对此可以从人员培训、制度构建、落实风险评估以及完善应急响应机制等几个维度入手。

首先,开展企业员工数据安全意识与技能的培训,助力企业数据安全水平的提升,在数据安全管理操作中,员工是必不可少的参与主体,其操作与意识都影响到数据安全风险的防控效果。有条件的企业需要定期安排专业培训活动,培训中注意采用知识讲解、案例分析以及视频播放学习等手段,让所有员工都能了解新时期人工智能领域数据安全的重要性,意识到数据信息泄露可能给企业造成难以弥补的严重损失,可以介绍三星电子企业员工违反规定使用ChatGPT 造成机密信息数据泄露的实例,让员工对自我数据处理操作的行为深刻反省,规避日后的不当操作风险,数据安全技能的培训更是重中之重,尤其是各岗位的操作技能需求不一,可针对岗位特点加以培训,像是进行数据标注的人员可以培训其规范标注、隐私保护相关技能,而技术开发岗位人员则培训漏洞修复技能、安全编码技能等,全面提高员工数据安全操作的水准。还要搭建起数据安全操作的考核机制,将考核结果与员工绩效薪资关联起来,也能激励企业员工主动参与技能培训[5]。

其次,构建完善的数据安全管理制度,相关企业可以先全面梳理自身数据资源,主要确定包含的数据种类、敏感程度以及具体存储位置,再基于数据安全维护原则分级、分类。比如可以将数据划分为内部数据、公开数据、核心数据以及敏感数据等几类,再依据重要程度划分级别,一般公开<内部<敏感<核心,不同级别的数据制定针对性保护策略,比如公开数据保护时可以适当将访问权限防控,但也要开展一定的监控,谨防出现数据安全风险,而核心数据的保护措施最为严格,需严格限制访问,使用先进的加密算法。与此同时,制定更加细化的数据访问与审批工作流程,在访问敏感数据时都要进行严格审批,审批主体的权限、职责需进一步明确,不可随意泄露数据,审批中发现数据安全隐患也要按照流程处理,确保可以快速处置。

再次,落实数据安全风险评估,企业不能一味被动防范相关风险,需进行主动出击,比如定期整理运营产生的数据信息并开展风险额全面评估工作,评估中主要采用定量法、定性法等,准确识别数据中潜藏的威胁,避免造成负面影响,定性法的手段包括问卷调查、专家访谈等,从技术层面、人员层面以及管理流程层面了解企业数据安全防护情况,定量法则是可搭建数据风险的评估模型,量化分析数据信息泄露可能带来的声誉损失、经济损失,如某企业评估数据存储模块发现其 SQL 注入方面存在隐患,该系统中存储许多客户隐私信息,极为敏感,若因外部攻击而泄露,就可能导致企业声誉受到严重损害,经济损失也难以弥补,结合评估的风险等级来选择适宜应对手段,比如强化其访问控制、修复系统自身漏洞,从而规避风险情况。

最后,完善数据安全应急响应机制,企业运用人工智能技术升级改革后有时可能无法避免出现数据安全事件,对此要尽快响应、处理,需明确响应的基本流程和各阶段要求。如安全事件刚发生时,要尽快进行监测,借由数据安全审计系统判断数据安全事件的源头、迹象,确定事件切实发生后也会立刻启动应急预案,按照提前明晰的流程来实施处置,比如将数据隐患部分与系统其他部分隔离,避免安全事件的影响扩大,安排专业技术人员分析事件,确定其具体性质、影响范围等,第一时间通知有关管理部门,如数据处理主体部门、监管部门等,在数据安全事件完成处理后还要复盘并总结经验,使企业不断强化数据安全事件的应对能力。

3.4 实施行业自律和协作

人工智能领域的数据安全治理,也不能少了行业自律,行业内整合各方资源支持自律,共同保护数据信息的安全,可以在很大程度上弥补企业管理、法律法规方面的薄弱点。例如,可以发挥出行业协会的带头作用,其支持组织行业内企业代表、专家人员,对人工智能下的数据安全基本特点、防护系统进行深入研究,制定具有可行性、针对性以及科学性特征的数据安全自律规范要求。比如人工智能教育的领域,其针对学生学习数据的采集要告知学生与家长具体的用途、保存时间等,还要取得书面同意文件,否则有侵犯他人信息权益的风险,数据使用时也不得出现与教育无关的商业获利情况,行业协会组织还可举办研讨会,重视引导各行业企业做到遵守数据安全自律规范要求,可以让专业人士解读自律规范的内涵,列举实例,使企业充分理解。为强化监督检查,行业协会也可搭建起外部的数据安全监督机制,对于有违规行为的企业根据情况提出警告、通报批评或拉入行业黑名单。协作方面则是指企业之间加强相互协作,以加强对数据安全风险的抵御能力,比如可以共享数据安全漏洞修复和防范手段,以免其他企业遭受相同攻击,还可以定期交流,了解数据安全方面的最新威胁信息,提前防御。

结论:综上所述,人工智能领域的数据安全风险态势较为严峻,数据采集、存储、标注以及输出和销毁等几个阶段都面临着不同的安全风险。由本文分析可知,人工智能领域数据安全风险的综合治理手段包括:加强技术性防护、重视建设法律法规体系、提升企业安全管理水平、实施行业自律和协作等。

参考文献

[1] 张瀚文 . 生成式人工智能监管视角下数据安全治理研究 [J]. 河北经贸大学学报 ( 综合版 ),2025,25(01):49- 54.

[2] 杨蕾 , 刘孟奇 . 我国人工智能的安全风险挑战与治理路径研究 [J]. 北京警察学院学报 ,2024,(06):16- 22.

[3] 徐伟 , 何野 . 生成式人工智能数据安全风险的治理体系及优化路径——基于 38 份政策文本的扎根分析 [J]. 电子政务 ,2024,(10):42- 58.

[4] 沈逸 , 高瑜 . 大国竞争背景下的人工智能安全治理与战略稳定 [J]. 国际展望 ,2024,16(03):33- 50+154- 155.

[5] 段广远 , 刘伟丽 . 生成式人工智能领域中的数据安全风险及刑法保护 [J]. 中共郑州市委党校学报 ,2024,(01):62- 67.

[6] 工信部:研究制定车联网、人工智能等重要领域数据安全标准[J]. 日用电器,2021,(11):7.李砚哲 , 男 ,1979.4, 汉 , 广西柳州市 , 硕士 , 高级工程师

中国电信广西公司省级专家 , 网络和信息安全运营、网络安全技术、数据通信技术、供应链安全

*本文暂不支持打印功能

monitor