中财投资网(www.161588.com)2026/4/23 15:59:02讯:
人工智能(AI)技术在重塑全球产业格局的同时,也引发了从底层技术到全球应用层面的多维安全风险。本文以2025年至今与AI安全相关的国家政策、国际治理实践及智库报告为研究对象,梳理全球AI安全风险图谱,提出技术与规则双轮驱动的治理趋势,为全球AI安全治理提供参考。
全球AI安全风险图谱
当前,AI安全风险已从单纯的技术层面,延伸至个人、产业、国家、国际各个层面。技术层面的风险是底层安全风险,AI技术不仅提升了“钓鱼”诈骗、身份冒用、漏洞挖掘、恶意软件攻击等传统网络安全威胁的危害性与隐蔽性,还催生了数据投毒、提示注入、敏感信息窃取等一系列新型安全风险;个人层面风险体现在深度伪造滥用引发的隐私侵害,生成式AI技术导致未经同意的伪造内容制作与传播成为全球性社会问题;产业层面风险来源于AI对产业发展的威胁,生成式AI大幅降低了网络犯罪的技术门槛,并可能引发金融、能源等产业的系统性风险;国家层面风险聚焦主权安全,国家关键基础设施易沦为AI驱动型网络攻击的靶标,AI核心技术的外部依赖也会对国家主权安全形成潜在威胁;国际层面风险则包括“数字鸿沟”“AI军备竞赛”等隐患。
技术赋能:全球AI安全防控技术体系构建
全球主要国家和组织的AI安全技术布局
美国从硬件、基础设施和前沿技术层面巩固国家AI安全。在硬件层面,《赢得人工智能竞赛:美国人工智能行动计划》强调恢复本土半导体制造产业,保障AI算力硬件安全;在基础设施层面,美国提出建立“高安全数据中心技术标准”,确保敏感数据处理设施能够抵御高级网络攻击;在前沿技术层面,《特朗普总统的美国网络战略》主张尽快推广生成式和代理式人工智能用于网络防御。
欧盟加强算力基础设施与数据资源建设,以维护AI主权安全。欧盟《人工智能大陆行动计划》提出,建立至少19个AI工厂和5个专注前沿模型训练的AI超级工厂,推动未来5~7年内数据中心容量增长两倍,为AI安全夯实算力基础。欧盟还颁布《数据联盟战略》,推动专业数据实验室的设立,以高质量数据支撑AI系统安全运行。
与此同时,其他国家也积极开展AI安全技术探索。新加坡升级推出“全球AI保障沙盒”,将AI大模型的数据泄露、提示注入攻击等前沿风险纳入监管研究范畴,为AI安全测试提供可控环境;韩国个人信息保护委员会于2025年8月发布《生成式人工智能开发与应用个人数据处理指南》,明确规定生成式AI从开发到应用全生命周期中各个阶段应采取的基本安全措施;马来西亚目前正推动出台AI网络安全指南,旨在构建自主AI安全技术生态。
智库聚焦的AI安全前沿技术方向
兰德公司在《先进人工智能时代的网络安全致胜经济学》报告中强调,应积极构建适配网络安全需求的AI技术生态。具体而言,将研发部门输出的专用算法、训练框架等关键技术成果,通过标准化接口、开源工具等形式向应用层开放;建设异构计算资源池、可信数据平台及低代码开发环境等规模化、易接入的应用基础设施,以此大幅降低技术使用门槛,赋能更多领域网络安全防护场景。
Gartner《2026年网络安全六大趋势的预测》与谷歌《2026AI智能体趋势报告》提出,AI智能体具备“推理—行动—观察—调整”闭环能力,可推动安全运营从传统的“被动响应”向“主动防御”升级,增强网络防御能力,但同时也会增加身份注册与管理、凭证自动化管理、基于策略的授权机制等安全风险。
美国安全与新兴技术中心在《预测人工智能对网络攻防平衡的影响》报告中指出:一方面,攻击者可以利用AI技术对传统攻击溯源信号(如代码编写风格、语言特征等)进行隐匿,大幅提升攻击溯源的难度;另一方面,防御一方也可借助AI对攻击者的网络行为模式、基础设施特征等多维度信息开展深度分析,以强化自身的攻击溯源能力。
规则界定:全球AI安全规则体系构建与实践
国家和组织层面AI安全规则体系建立
美国从“战略、立法、行政令”角度多管齐下完善AI安全规则体系。《特朗普总统的美国网络战略》《赢得人工智能竞赛:美国人工智能行动计划》提出将AI安全纳入国家网络安全战略体系;出台美国联邦层面首个针对人工智能的监管法案——《删除法案》,明确深度伪造内容的发布标准、平台义务与违法处罚;发布关于加强国家网络安全的行政令,要求将AI软件漏洞管理纳入机构间协调机制。
欧盟以《人工智能法案》为核心,发布配套指南和行动计划。作为《人工智能法案》的实施细则,欧盟相继发布了《人工智能系统定义指南》《高风险人工智能系统严重事件报告配套指南》,意图建立AI系统早期风险预警机制;出台《通用人工智能实践准则》,要求通用AI模型提供商建立严格的风险评估机制;《人工智能大陆行动计划》从算力基础设施、数据资源、人才培养、监管优化等方面制定配套规则,构建AI技术全生命周期合规体系。
其他国家聚焦具体安全风险制定精准防控政策。英国政府将使用深度伪造技术制作并传播色情内容的行为认定为刑事犯罪;马来西亚将出台新版网络犯罪法案,将AI诈骗、深度伪造、虚假信息传播等新兴威胁纳入管控范围;韩国政府发布《生成式人工智能开发与应用个人数据处理指南》,针对生成式AI应用中的个人信息保护问题,明确各开发阶段的法律标准和安全保障要求。
国际层面AI安全的规则协同实践
全球性规则协同以联合国为核心,突出“包容性治理”。2025年,联合国大会通过决议设立AI独立国际科学小组,将开发安全、可靠且值得信赖的人工智能系统列为工作重点之一;联合国人工智能向善峰会联合主席发表声明,提出AI治理在安全标准和算力治理领域的发展愿景,引领全球AI安全治理方向。
区域性规则协同各有侧重。《亚太经合组织人工智能倡议(2026—2030)》提出加强AI应用中的信任与安全,各经济体应制定相关政策保护企业和个人免受数字威胁;《金砖国家领导人关于人工智能全球治理的宣言》将数字主权和发展权作为核心要素,明确各国均有权制定契合自身的安全监管框架;全球61家数据保护监管机构联合发布《关于人工智能生成图像与隐私保护的联合声明》,关注AI生成图像的隐私安全风险,明确开发运营机构的法律义务。
国际峰会聚焦细分领域AI安全风险。2025年巴黎人工智能行动峰会首次将AI的能源消耗问题纳入国际规则讨论,明确可持续发展的规则导向;第47届全球隐私大会签署《构建可信数据治理框架以推动创新型隐私保护人工智能发展联合声明》,倡导将数据保护原则嵌入人工智能设计环节,构建可信治理框架;2026年印度人工智能影响力峰会倡导建立贯穿人工智能全生命周期的政策监管框架,推动建设可信AI共享平台。
双轮协同:全球AI安全治理趋势
在国家层面,技术布局与规则制定协同推进,力争实现“技术定标、规则兜底”。将“安全设计”理念纳入技术研发的规则体系,明确AI技术研发、应用的安全标准与底线要求,将成熟的AI安全检测等技术纳入行业标准与法律条款,进行规则固化。例如,美国将AI软件漏洞管理纳入机构间协调机制,既推动了漏洞检测技术的研发,又用规则明确了技术应用的要求。
在国际层面,技术共享与规则对话协同发展,力争实现“技术普惠、规则共商”。通过全球AI治理对话机制共商通用AI安全规则,聚焦深度伪造、数据隐私保护、AI失控防范等共性问题,探索形成国际规则共识。针对各类风险,推动技术靶向防控与规则精准监管相结合,实现“一风险一防控方案”。对于个体风险,通过深度伪造识别技术实现靶向防控;对于技术风险,通过漏洞发现、数据保护等技术实现防控,同时通过技术标准和行业规则明确研发与应用要求。
以技术赋能防控,以规则界定边界,技术与规则双轮驱动是全球AI安全治理发展趋势。产业各方应推动AI技术在安全的前提下实现创新发展,最终构建起安全、可信、包容的人工智能发展生态。