报告首发|《从共识到行动:构建包容普惠的全球人工智能治理体系》
2025年7月27日,世界人工智能大会“人工智能的全球发展与治理:共赢与共建之路”论坛上,清华大学文科资深教授、人工智能国际治理研究院院长薛澜发布了《从共识到行动:构建包容普惠的全球人工智能治理体系》研究报告。
报告指出,当前多元主体在国际交往互动中正逐步形成“以人为本”的价值观,围绕发展、安全和公平三大维度开展人工智能治理实践的基本共识,但是国际共识的实施仍面临诸多挑战,存在共识脆弱性、约束力不足及实施差距较大等问题。报告系统回顾了过去一年全球人工智能治理的最新进展,强调国际社会正从理论探索向务实行动转变。面向未来,报告建议人工智能治理应秉持“以人为中心”的价值导向,构建更加灵活高效的敏捷治理框架,建立大国间合作的“安全区”和更具包容性的国际协作网络,推进全球人工智能治理能力建设,确保人工智能发展成果惠及全人类,实现技术创新服务于人类福祉。
关注公众号后台发送“报告”,
即可下载并阅读报告pdf版
多元主体在国际交往互动中正逐步形成“以人为本”, 围绕发展、安全和公平三大维度开展人工智能治理实践的基本共识。 一是“以人为本”的价值导向。各方普遍认同,人工智能发展应当促进人类福祉,不损害人类基本权利和尊严。二是统筹发展、安全和公平。AI 技术创新发展的同时,必须有效防范和管控技术风险,并确保AI发展成果的公平分享。三是国际合作是推动AI全球治理的必由之路。当前国际社会取得的共识仍建立在“最低共同标准”之上,共识之维护与实现面临关键挑战。一是共识的脆弱性。各国政府间存在战略分歧,现有共识容易受到地缘政治因素和大国竞争的 冲击。二是共识的弱约束力。当前大多数治理文件属于软法范畴,缺乏强制执行机制和有效的 监督评估体系,难以对国家行为体、科技企业等形成有力约束。三是共识的实施差距较大。各国在经济发展水平、技术能力、治理能力等方面存在显著差异,全球性共识难以得到均衡有效的实施。国际行为体推动人工智能发展的最新行动。全球主要力量加大发展投入,AI 基础设施建设成为重点。联合国层面,2025 年 7 月国际电信联盟(ITU)主办的第25届“人工智能造福人类”全球峰会发布联合主席声明,提出包括务实治理、包容协作、安全标准等十大愿景。国家行为体层面,中国持续推进“人工智能+”行动,重点加强数据供给和基础设施建设;美国启动 5000 亿 美元的"星际之门计划",旨在构建全球最大 AI 基础设施网络;欧盟发布《人工智能大陆行动计 划》 ,通过政策松绑和算力建设加速发展,力图缩小与中美差距。国际行为体推动人工智能公平的最新行动。国际社会日益关注 AI 发展的公平性问题。联合国层面,第78届联合国大会通过中国主提的《加强人工智能能力建设国际合作决议》, 旨在帮助发展中国家弥合数字鸿沟。中国随后发布《人工智能能力建设普惠计划》,围绕基础设施、人才培养等领域提出五大愿景与十大行动。联合国高级别人工智能咨询机构指出118个全球南方国 家未参与AI治理倡议,呼吁建立更具包容性的机制。2025 年2月巴黎AI行动峰会上,60个国家和国际组织签署声明,就缩小数字鸿沟、构建可信 AI 生态系统等六大优先事项达成共识。国际行为体推动人工智能安全的最新行动。AI安全治理呈现多层次协作格局。科学界层面,中美欧顶尖 AI 专家联合发布《威尼斯声明》,提出AI 安全协议应作为“全球公共产品”。来自30个国家的约100位专家发布《国际人工智能安全报告》,强调跨国合作确保AI治理全球兼 容。行业层面,17家中国领军企业签署《人工智能安全承诺》, 承诺设置安全团队并开展模型测试。监管层面,欧盟《通用人工智能行为准则》最终版于2025年7月发布,旨在为包括ChatGPT、 Gemini在内的主流AI模型提供透明度、版权和安全保障指导。发展、公平和安全维度均取得积极进展。 总的来说,全球人工智能治理正在从理论探索向着务实行动转变,从自愿、软性倡议向着规范与制度建设方向深化。全球人工智能治理行动仍存在结构性缺陷,同“包容普惠”的核心目标存在显著的实践落差。在发展维度,发展不均衡问题凸显,技术垄断风险增加。主要国家行为体战略分化与技术竞争态势明显。在公平维度,治理代表性不足,执行与保障机制缺位。在安全维度,“安全公共品” 投入不足,全球风险共担机制缺失。制约治理共识向务实有效行动转化存在结构性障碍。其一,技术迭代发展同治理体系演进间的速率失配问题是根本障碍。其二,地缘政治逻辑同技术治理逻辑间的内在冲突加剧是核心障碍。 其三,治理能力的结构性不对称和现实短板是现实障碍。坚守“以人为中心”的价值观,倡导“共护人类安全、共享发展红利”的共识理念。人工智能治理不应成为技术竞争或地缘博弈的手段或工具,而是尊重各国发展需求、阶段差异的前提下,以治理促发展,真正使技术进步服务于消除贫困、改善健康等人类福祉。构建更具灵活高效的敏捷治理框架。第一,推动传统与新兴相结合、常态与应急相结合的治理模式。将人工智能治理议题按照紧迫性和复杂性进行分类。第二,完善软硬法协同的规则体系。在关键安全领域优先制定具有约束力的国际最低标准(硬法),而在技术快速迭代领域则探索监管沙盒、技术标准、最佳实践等软法工具,允许技术发展试错迭代,形成动态平衡的治理生 态。建立合作的“安全区”与更具包容性的国际协作网络。第一,主要大国间应协同设立人工智能 治理合作的“安全区”。确保即使在地缘政治紧张时期,各国仍能就共同关切的安全问题保持 沟通协作。也探索针对特定议题的小切口治理合作,聚焦共同利益来弱化竞争对立。第二,推动形成“多元参与、分层治理”的国际协同网络。形成主权国家、国际组织、科技企业、科学 界与公民社会的治理合力,避免治理议程被少数大国或科技巨头垄断。系统推进全球人工智能治理能力建设。将支持发展中国家能力建设作为国际社会行动的优先任 务和长期战略,利用开源生态、专项基金等形式,推动发展中国家的AI基础设施、模型能力与 应用服务建设。同时,推动建立全球人工智能治理知识共享平台,汇集最佳实践案例、政策工具箱等资源,降低各国开展人工智能治理的门槛和成本。
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
声明:本文内容及配图由入驻作者撰写或合作网站授权转载。文章观点仅代表作者本人,不代表科技区角网立场。仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
点击这里
扫码添加微信