点击蓝字

关注我们


前言




在全球人工智能(AI)技术加速迭代与治理议题日趋复杂的背景下,近期在上海举办的世界人工智能大会(WAIC)释放出重要政策信号。大会不仅汇聚了杰弗里·辛顿(Geoffrey Hinton)、埃里克·施密特(Eric Schmidt)等重量级国际人物,更关键的是,中国方面释放了关于倡议成立“世界人工智能合作组织”的战略构想。本报告旨在深度剖这一倡议的战略内涵、其对现有全球AI治理格局的潜在影响,并结合当前国际主流合作机制与美国的AI全球战略,预判其未来发展路径与面临的挑战,为相关决策提供战略洞察与分析参考。


资讯配图




★ 目录 ★

Part.1

世界人工智能大会:从技术展台到全球治理的策源地

Part.2


现有人工智能国际合作格局与中国力量



Part.3

全球人工智能治理机构的实践尝试

Part.4


全球人工智能合作治理机构的必要构成与多种可能模式


Part.5

全球人工智能合作治理的困难与挑战

Part.6


全球人工智能合作治理未来规划与前景




一、世界人工智能大会:从技术展台到全球治理的策源地



2025年世界人工智能大会(WAIC)于7月26日在上海世博中心正式拉开帷幕,本届大会以“智能时代同球共济”为主,由外交部、国家发展改革委、科技部、工业和信息化部等十余个国家部委与上海市政府共同主办,吸引了来自30余个国家和地区的1200余位嘉宾参会,其中包括12位图灵奖、诺贝尔奖得主和80余位中外院士,创下历届大会国际参与度新高。参会者共同探讨人工智能技术前沿、产业趋势及全球治理新范式。大会不仅展示了最新技术成果,更提出了具有全球影响力的治理倡议,为全球人工智能合作治理注入了鲜明的中国智慧,其中有两方面突出变化值得关注。


首先,是重量级国际人物的深度参与所释放的复杂信号。作为“人工智能教父”之一,杰弗里·辛顿在公开表达对AI风险的“吹哨人”角色后访问中国并参与大会,其本身就具有高度的象征意义。这表明,在AI安全与伦理这一全球共同关切的议题上,超越地缘政治分歧的专业对话不仅是可能的,而且是必要的。前谷歌CEO埃里克·施密特作为美国人工智能国家安全委员会(NSCAI)前主席,其来华交流更暗示了中美在AI领域的竞争与合作并非铁板一块,双方在非官方、半官方层面的沟通渠道与意愿依然存在。这些互动为中国提出更具包容性的全球合作倡议营造了非常温馨的氛围,也向国际社会传递出中国愿意就AI风险与治理进行开放式对话的姿态。

其次,也是更为实质性的进展,是国正式提出构建全球性人工智能合作组织的战略构想。这一倡议将大会的定位从一个临时性的交流平台,提升为一个旨在孵化常设性国际治理机制的“策源地”。此举标志着中国在AI领域的全球战略,正从“参与者”和“贡献者”,向“塑造者”和“引领者”的角色演进。这不仅意味着将在既有框架下参与讨论,而是尽力搭建一个新的、由中国和其他国家共同广泛参与和深度影响的合作平台,以承载其对全球AI治理的理念与方案。这一转变,深刻反映了中国对于掌握未来十年AI发展与治理主动权的战略决心。

大会期间,中国国务院总理李强提出了“全球人工智能合作组织”倡议,主张建立以联合国为对话平台、汇聚政府、企业、学术界和国际组织的全球协调机制,以应对当前治理碎片化、技术壁垒化趋势,确保人工智能技术不会被少数国家或企业垄断,使其更好地服务于可持续发展和全球公共利益。为落实该倡议,大会发布了《人工智能全球治理行动计划》,明确提出在开放共享的原则下,搭建国际科技合作平台,加强监管政策协调,促进技术成果转化,深度挖掘“人工智能+”开放应用场景,从而提升全球AI创新发展水平

在技术层面,中国科学院联合团队在大会上正式发布了“磐石·科学基础大模型”。该模型以专业科学知识和多模态科学数据为训练基础,实现了科学文献萃取融合、科学知识表征推理和科学工具编排规划等核心能力,标志着中国在服务科学研究、推动交叉学科创新方面迈出了关键一步。

在全球治理议题上,大会发布的《从共识到行动:构建包容普惠的全球人工智能治理体系》报告,呼吁技术领先国家承担更大政治意愿,推动制定统一的安全标准与伦理规范,支持全球南方国家获得技术能力建设与人才培养机会,防止技术鸿沟加剧全球不平等。中国提出在上海设立全球AI合作组织总部,并邀请各方共同参与行动计划,体现了中国推动开放创新、技术共享的决心与魄力。

大会还发布了《中国智·惠世界(2025)》国际合作案例集,梳理了AI技术在亚洲、非洲、南美、欧洲等地的20余个项目实践,包括大语言模型在灾区无障碍沟通、AI赋能跨境教育与文化传承、智能化养殖与矿山安全管理等,从技术应用层面向世界展示了包容共赢的中国方案,有效促进了全球各国在基础设施、教育、医疗等领域的深度合作。

综上,本届世界人工智能大会成果丰硕,并且突出人工智能在全球领域建构合作组织的战略构想。全球人工智能合作组织的提议不仅仅是创建一个新的国际机构,更是一份意向宣言。它表明了中国致力于推动全球合作和规范的雄心,这些规则和规范将用于管理人工智能这项即将重塑经济和社会的技术。世界人工智能合作组织的成功取决于它能否将其包容性言论转化为切实行动,并在多元化的国际合作伙伴群体中建立真正的信任。




二、现有人工智能国际合作格局与中国力量



中国倡议成立全球人工智能合作组织,并非是在一张白纸上作画,而是对现有复杂且碎片化的全球AI治理格局的一次主动“介入”与“重塑”。要理解其深远影响,必须先剖析当前国际AI合作的主要模式与既有机制。


当前,全球AI治理与合作主要呈现出以下几种模式:

“富国俱乐部”模式:以OECD与G7/GPAI为代表。经济合作与发展组织(OECD)凭借其成员国的高度同质化(发达市场经济体),率先发布了具有广泛影响力的《OECD人工智能原则》,并建立了AI政策监测平台(AI Policy Observatory),成为西方国家AI政策协调的核心。在此基础上成立的“全球人工智能合作伙伴关系”(GPAI),由法、加两国发起,G7国家主导,其初始成员将中国排除在外,其合作带有明显的“价值观联盟”色彩,侧重于推广“负责任的、以人为本的”AI发展模式。例如,GPAI在其年度报告和工作组项目中,反复强调民主、人权与法治,其产出的研究成果和政策建议,虽然具有专业性,但也内嵌了特定意识形态框架。GPAI倡议与经合组织的人工智能工作于2024年7月正式合并,以GPAI品牌运营。这一综合合作伙伴关系专注于负责任的人工智能开发,解决数据治理、算法透明度和生成人工智能的社会影响等关键问题。

多边普惠模式:以联合国教科文组织(UNESCO)和欧盟为代表。UNESCO于2021年通过了《人工智能伦理问题建议书》,这是联合国框架下首个关于AI伦理的全球性规范文件。其优势在于成员国的广泛性(193个成员国),体现了全球南方国家的声音和关切。其合作模式侧重于伦理原则的确立与能力建设的普及,但因缺乏强制约束力和具体的技术实施路径,其影响力更多体现在规范和理念层面。欧盟的强制执行力略胜一筹,以通过《欧盟人工智能法案》而独树一帜。这是一部采用横向、基于风险方法的综合性人工智能法律。该框架将人工智能系统分为四个风险等级——禁止、高风险、有限和最低风险,每个等级都有相应的监管要求。欧盟坚定地关注人权、伦理考量和透明度,强调个人权利并限制政府权力。该法案于2023年12月临时达成一致,并于2024年3月获得欧洲议会通过,旨在在确保人工智能安全、保护基本权利和促进创新之间寻求微妙的平衡。它也是《数字服务法案》(DSA)等其他欧盟立法的补充。但近日,欧盟委员会发布了实施新要求的指南,这些指南旨在帮助通用人工智能模型提供商履行其在《欧盟人工智能法案》下的透明度义务,更详细地解释了哪些模型和提供商将受到新法规的影响,以及他们需要记录哪些内容。欧盟的补充规则正在不断打破之前的预设规则,相关声誉备受考验。

多方利益攸关者模式:以“人工智能合作伙伴关系”(PAI)为代表。PAI由亚马逊、谷歌、Meta等科技巨头发起,联合了学术界、非营利组织和产业界,形成了一个独特的“自下而上”的治理网络。其合作模式灵活,聚焦于具体的技术挑战和最佳实践分享,如AI安全测试、可解释性工具开发等。数据显示,PAI已拥有超过100个成员单位,其发布的“负责任采购框架”等成果,正在实际影响企业的AI开发流程。然而,其商业公司主导的背景也使其在面对国家层面的宏观治理和监管问题时,影响力相对有限。

在此背景下,中国倡议的全球人工智能合作组织旨在提供一个与上述模式并行,但定位差异化的新选择。其潜在战略影响体现在:

填补代表性空白:相较于GPAI的“高门槛”,全球人工智能合作组织将采取更为开放和包容的成员吸纳策略,特别是面向“一带一路”沿线国家和广大的全球南方国家。这将有效回应全球南方国家在数字化转型中深度参与AI规则制定、共享AI发展红利的核心诉求,从而在全球治理中获得独特的合法性与道义支持。

议程设置的平衡:西方主导的机制更侧重于AI带来的隐私、偏见、人权等风险,而全球人工智能合作组织可能将议程重点更多地向“发展”与“共享”倾斜,强调AI作为全球普惠性技术在减贫、医疗、教育等领域的应用与合作。例如,中国可以将其在国内已经成熟的“AI+扶贫”、“AI+智慧城市”等应用案例,通过全球人工智能合作组织平台进行经验分享与技术转移,形成具体的、以发展为导向的国际合作项目。

中美博弈的新场域:面对美国通过《人工智能行动计划》(AI Action Plan)等政策文件,明确提出要与“拥有共同价值观的盟友”合作制定AI标准和规范,以应对所谓“专制国家”挑战的战略。中国成立全球人工智能合作组织,客观上构筑了一个可与美国主导的“小圈子”相抗衡的平台。这并非必然导致直接对抗,而是一种战略对冲,为那些不愿在中美之间“选边站”的国家提供了第三种选择,从而使全球AI治理格局从单极或双极主导,向更加多元和多极化的方向演变。




三、全球人工智能治理机构的实践尝试



尽管人工智能这项本质上超越国界的技术迫切需要全球合作,但现有的多边人工智能政策框架在实现融合和有效实施方面仍面临重大挑战。国际组织在提出旨在指导人工智能伦理和负责任开发与部署的基础原则和建议方面发挥了重要作用。虽然这些规范性文书已得到广泛采用,但其非约束性以及持续存在的实施挑战,极大地限制了它们在促进全球监管一致性方面的作用。


经合组织《人工智能原则》于2019年通过,并于2024年更新,是首个政府间人工智能标准。该原则倡导创新、值得信赖、尊重人权和民主价值观的人工智能,为政策制定者和人工智能参与者提供实用且灵活的指导。这些原则涵盖包容性增长、以人为本的价值观、透明度、稳健性、安全性、保障性和问责制等关键领域,这些原则有意不具有约束力,以便各国进行调整。

尽管做出了多边人工智能治理的政策努力,但国际社会似乎基本上“没有为这种规模的全球人工智能挑战做好准备”。现有的举措往往“各自为政、不具约束力”,目前还没有形成单一机构能够协调全球人工智能治理并拥有普遍的权威或执行机制。以及当前的全球人工智能治理规范与可执行实施之间也存在巨大差距。尽管各方在伦理原则上达成了广泛共识,但由于这些框架的自愿性质,将其转化为具有约束力、可执行的国家立法和一致的全球实践仍然困难重重。这种自愿遵守的原则往往使得各国在实践中更具独特的表现与发挥,从而造成原则上遵守,却没有真正严格遵守并执行这些政策。这种政策框架的方式虽然具有很广阔的包容性,但本质上难以强制采取统一行动,从而导致人工智能治理的碎片化局面长期存在。并且,缺乏强有力的执行机制意味着,政策框架很容易被国家利益(尤其是受经济和安全考虑驱动的利益)所凌驾。

全球人工智能伙伴关系(GPAI)作为非常具有前瞻性的人工智能合作组织,它的发展轨迹清晰展现了建立有效的人工智能多边治理机构所面临的固有困难。任何人工智能治理机构都面临着至少三个关键要素的重大挑战:恰当的组织结构、稳定的预算以及清晰明确完善的使命价值观。GPAI的实质性工作主要由两个核心创始国,加拿大和法国来进行监督和组织,这两个国家分别在蒙特利尔和巴黎设立了中心,这种部门设计无意中造成了关键缺陷,由于GPAI的中心在两国管辖之内,所以它缺乏一个明确的全球治理机制,让包括经合组织本身在内的其他参与人工智能问题的实体能够顺利参与进来。这种控制权的集中导致其他成员国缺乏治理的自主权。

资金不稳定进一步阻碍了GPAI的运营和治理。由于组织架构分散,各中心各自为政,外国政府几乎不可能直接资助其他国家的中心。虽然经合组织作为目前主要管理GPAI秘书处的国际组织能够直接给予支持,但最初并非所有成员国都充分认识到GPAI需要持续提供大量且有保障的资金(预计五年内每年需500万至700万美元)。这种资金不稳定导致人员频繁流动,阻碍了该倡议的初始发展蓬勃态势,到后期直接融入经合组织。

困扰GPAI的最根本问题在于其使命目标不明确以及理解差异化。虽然加入GPAI的专家们期望参与制定人工智能政策建议,但包括美国和一些欧洲大国在内的各国政府却坚定地坚持认为,人工智能政策制定和规范制定仍将由拥有正式授权的政府政策制定者负责。他们坚持认为,GPAI的职责是通过提供实用的技术工具来协助政策实施,将其重点从“政策转向实践”。专家期望与政府意图之间的这种错位导致了挫败感和“有效成果的匮乏”,最终挫伤了GPAI的成果与效力。


资讯配图

表1:全球人工智能伙伴关系最初运营架构(融入经合组织前)



资讯配图


表2:全球人工智能伙伴关系现今治理层运营架构(融入经合组织后)


资讯配图

表3:全球人工智能伙伴关系现今专家层运营架构(融入经合组织后)


此外,GPAI的经验凸显了人工智能全球治理中包容性与敏捷性之间的内在冲突。虽然将所有利益相关方纳入人工智能治理是至关重要的,但这会无意中减缓决策和行动的速度,使其难以跟上快速发展的人工智能技术的步伐。规模较小、更“志同道合”的组织,例如七国集团,虽然可以加快速度,但往往以牺牲普适性和代表性为代价,这进一步加剧了通往全球共同治理人工智能的复杂性。这种权衡往往导致各国倾向于规模较小、速度较快的联盟,从而加剧了碎片化的局面。




四、全球人工智能合作治理机构的必要构成与多种可能模式



全球人工智能治理并非单一实体的线性任务,而是一个由多元行动者构成的、错综复杂的生态系统。任何治理努力的有效性和合法性,都取决于对这个生态系统强有力且透明的整合。实现全球人工智能合作治理机构需要多种参与主体的融合,本文认为至少需要六个关键群体:国家政府与监管机构,国际组织和外事机构,工业与科技公司,民间社会与非政府组织,学术与研究机构,全球南方与代表性不足的国家。


国家政府与监管机构:他们是治理框架的最终决策者和合法性来源政治领袖负责从国家战略和全球安全的高度,确立AI治理的宏观目标与基本原则。他们通过签署国际条约、发布联合声明(如《布莱切利宣言》)、承诺投入国家资源,为全球合作提供最高级别的政治意愿和驱动力。缺乏他们的支持,任何治理倡议都将沦为空谈。

国际组织和外事机构(IOs):他们是治理框架的执行者和制度化桥梁这些部门的专业人士擅长将高阶的政治共识转化为具体、可操作的国际法条文、组织章程和行事规则。他们负责处理复杂的国际谈判,设计合规监督与争端解决机制,并确保新成立的治理机构能够融入现有国际体系,高效运作。他们的经验对于构建一个能够长期稳定运行的国际AI机构至关重要。联合国、经合组织(OECD)、全球人工智能伙伴关系(GPAI)等机构是关键的“桥梁建设者”,它们协调跨国对话,推动“软法”(softlaw)文书的形成,在碎片化的格局中促进最低限度的标准趋同与合作。

工业与科技公司:尤其是“大型科技公司”(Big Tech),它们不仅是技术的创新者和实施者,其巨大的资源、技术专长和单边决策能力也深刻地塑造着市场动态与事实标准,对政策议程具有强大的影响力。他们的参与确保了治理规则能够紧跟技术发展的步伐,避免政策与现实脱节。他们是定义风险、评估模型能力、设计安全协议不可或缺的力量。企业代表的参与则能确保治理措施在商业实践中具有可行性,并推动行业自律。

民间社会与非政府组织(NGOs:这些组织是公共利益的“守护者”,尤其在伦理、人权、隐私和透明度方面发声。他们的核心作用是放大被忽视群体的声音,确保治理结构能够回应少数群体、边缘化社区的关切,从而获得更广泛的合法性。

学术与研究机构:作为知识的生产者,它们为风险评估、技术标准制定和影响审查提供循证基础,是政策制定的重要智力支持。

全球南方与代表性不足的国家:这是一个至关重要但常被忽视的群体。对这些国家和公共利益团体的系统性忽视,会使现有的权力不对称和全球不平等永久化。它们的有效参与是实现公平、包容性治理的先决条件。
鉴于此复杂网络,单一、集中的全球治理模型已不现实。最具系统性弹性和适应性的制度设计是多中心、多层次的治理安排和动态的自适应框架。结合现实世界中的国际组织实践,全球AI合作治理可以初步探索并考虑以下四种互补而非互斥的模式:
模式一:政府间前沿人工智能委员会(Intergovernmental Commission on Frontier AI)—— 科学共识的引领者

此模式效仿政府间气候变化专门委员会(IPCC)和联合国环境规划署科学评估小组(SAP),旨在建立一个权威的、科学驱动的政府间机构。其核心任务并非制定具有约束力的政策,而是就前沿AI的风险(如失控风险、偏见、滥用等)进行科学评估,向各国政府提供中立、权威的科学共识报告和缓解策略建议,提升全球对AI风险的认知水平和政府的专业决策能力。IPCC的成功在于其将科学评估与政策制定过程进行“解耦”,赢得了全球范围的科学公信力。一个“AI领域的IPCC”将是全球治理的基石。它能够为后续的国际谈判提供一个共同的事实基础,有效弥合各国因技术理解差异造成的“认知鸿沟”。例如,该委员会可以定期发布《全球AI风险评估报告》,明确界定不同AI模型的“能力边界”与“安全阈值”,这将为国际社会讨论是否需要暂停某些高风险研究或部署提供科学依据。

模式二:高级人工智能治理组织(Advanced AI Governance Organization)—— 规范与标准的制定者

此模式参考国际民用航空组织(ICAO)或国际原子能机构(IAEA),是一个拥有更强制定和执行能力的政府间或多方利益相关者组织。该模式致力于将科学共识转化为具体的国际规范、标准和最佳实践,并监督其执行。正如ICAO为全球航空安全制定了统一的“游戏规则”,一个高级AI治理组织可以专注于为特定高风险AI应用领域(如自动驾驶、医疗诊断AI、金融交易AI)制定国际标准。例如,它可以设立一套针对前沿大模型的第三方审计与认证标准,要求模型开发者在发布前必须通过独立的安全评估。IAEA的核查经验也极具参考价值,该组织可以建立一套“AI安全保障监督”机制,对少数强大的AI模型进行开发过程的监督,确保其安全措施到位。

模式三:前沿人工智能合作体(Frontier AI Collaborative)—— 公平准入的促进者

此模式效仿全球疫苗免疫联盟(Gavi)或全球抗击艾滋病、结核病和疟疾基金(Global Fund),是一个国际公私合作伙伴关系(PPP)组织。其核心目标是“促进普惠”,即通过国际合作,确保发展中国家和欠发达地区能够公平地获取和受益于先进AI系统,同时为AI安全与治理研究提供全球化的计算资源。Gavi的模式证明了公私合作在解决全球健康不平等问题上的巨大成功。一个AI领域的合作体,可以将发达国家的政府资金、科技公司的技术模型、慈善基金会的捐助以及发展中国家的应用场景需求有效结合起来。例如,该合作体可以建立“全球AI算力银行”,为资源匮乏国家的科研人员提供进行AI安全研究所需的昂贵算力。同时,它可以资助将先进AI模型“适配”到解决全球贫困、粮食安全、气候变化等联合国可持续发展目标(SDG)的具体项目中,真正实现“AI for Good”。

模式四:人工智能安全项目(AI Safety Project)—— 前沿研究的合作平台

此模式以欧洲核子研究组织(CERN)或国际热核聚变实验堆计划(ITER)为蓝本,是一种专注于具体科学目标的公私合作研究平台。其使命是汇集全球顶尖的研究人员和工程师,共同攻克AI安全领域的重大技术难题。它将提供对先进AI模型和算力的访问权限,专用于安全对齐(Safety Alignment)研究,并促进学术界与产业界的深度协作。CERN的成功在于它集中了巨大的资源来解决物理学中最根本的问题。同样,AI安全研究,特别是与“超级智能对齐”相关的研究,可能需要远超任何单一公司或国家能承受的投入。一个类似CERN的AI安全项目,可以成为一个“中立”的科研特区,吸引全球最优秀的人才。在这里,来自不同国家甚至相互竞争公司的研究者可以放下戒备,共同开发和测试用于控制未来超智能的理论和技术,例如“可解释性”、“可控性”等核心技术难题。这对于防范AI的长期和灾难性风险至关重要。


资讯配图

表4:全球人工智能合作治理机构可考虑的组织运营架构




五、全球人工智能合作治理的困难与挑战


尽管构建全球AI治理框架的必要性已成共识,但前路充满荆棘。其核心挑战源于技术、政治和文化等多个维度的深层次矛盾。首先最为突出的困境与趋势便是目前全球人工智能治理非常明显的碎片化格局。


各国出于对AI主权、数据保护和经济竞争力的考量,形成了难以兼容的监管制度(如欧盟的《AI法案》、美国的市场驱动模式、中国的安全为先方法)。这种“马赛克”甚至“拼凑”式的格局,极大地增加了跨国合规成本,扼杀了创新,并阻碍了有意义的全球合作。碎片化的治理格局往往由少数发达经济体主导,发展中国家的参与和发言权有限。这不仅破坏了全球框架的合法性,也使得全球不平等问题进一步恶化。这种无序状态带来了严重的突发风险,包括因准入壁垒减少市场竞争、因合规成本扼杀初创企业创新、因标准不一导致风险监督不一致,以及因缺乏中央协调而削弱全球领导力。

碎片化背后,是几种强大的反馈循环机制在不断放大现有优势、加剧全球不平等:

技术反馈循环: AI发展具有“自我加速”的特性。拥有数据、算力和人才优势的国家及公司,能更快地开发出更先进的AI,从而获得更多数据、吸引更多人才,形成正反馈。这使得技术领先者(多为发达国家的大型科技公司)的优势呈滚雪球式增长,与后发者的技术鸿沟不断拉大。

伦理反馈循环 带有偏见的AI算法,一旦被广泛应用,会不断重现并强化现实世界中已有的社会偏见。在全球合作中,如果缺乏统一且强制的道德准则,一个由“富国”数据训练出的、带有其文化偏见的模型,被输出到其他地区,可能在全球范围内固化歧视性做法。同时,技术能力与问责机制间的差距,使得强大的AI开发者能够逃避其技术对弱势群体造成负面影响的责任,形成“问责真空”,进一步巩固权力不对称。

社会经济反馈循环: AI对劳动力市场的冲击在不同国家间是不均衡的。发达国家或许有能力将劳动力转移至新岗位,而发展中国家可能面临更严重的失业且缺乏再培训的基础设施。更重要的是,AI治理议程本身也受到权力集中的影响,少数大型科技公司和发达国家的经济利益(如知识产权保护)往往被优先考虑,而减贫、公平分配等更广泛的全球公共利益则被置于次要位置。
其他关于全球人工智能合作治理的多因素困难与挑战分析如下:

地缘政治竞争与信任赤字:这是非常根本的障碍。以中美为代表的大国将AI视为赢得未来战略优势的关键。这种“零和博弈”心态导致各国在AI治理合作上充满猜忌。各国担忧共享核心技术会削弱自身竞争力,更担心治理框架被对手用来限制自身发展。建立有效的监督与核查机制,需要极高的透明度,但这与各国在尖端技术领域的保密需求直接冲突,形成了难以调和的“安全困境”。

价值观与监管哲学的分歧:全球主要行为体在AI治理的哲学上存在显著差异。美国倾向于采用市场驱动、鼓励创新的“软治理”模式;欧盟则以《人工智能法案》(AI Act)为代表,强调基于风险和基本权利的“硬法规”路径;而中国则侧重于国家主导、结合社会治理需求的模式。这些根植于不同政治文化传统的差异,使得就“负责任的AI”的具体定义、数据隐私的边界、算法偏见的权衡等关键问题达成全球统一标准异常困难。

技术发展与治理进程的“步调失配”:AI技术正以指数级速度演进,而国际法和外交谈判则是以线性速度进行的缓慢过程。当一个国际条约经过漫长的谈判最终得以签署和批准时,其旨在监管的技术可能已经迭代了数代,甚至出现了全新的范式。这种“步调问题”(Pacing Problem)使得传统治理模式难以有效应对AI的快速发展,治理措施可能在出台之时就已经过时。

治理范围与定义的模糊性:“前沿AI”、“通用人工智能(AGI)”、“意识”等核心概念在科学界尚无统一定义。如何界定一个模型的能力达到了需要接受国际监管的“危险”阈值?这个阈值本身就是动态变化的。在缺乏清晰科学界定的情况下,划定国际治理的范围和对象就成了一个极具争议的政治问题,容易导致无休止的争论而无法采取实际行动。

全球南方国家的代表性与能力建设困境:当前的全球AI治理讨论主要由少数技术发达的“全球北方”国家主导。广大发展中国家(全球南方)在技术、资金、人才和话语权上均处于弱势地位。如果全球治理框架不能充分反映它们的关切,不能有效帮助它们弥合“全球数字鸿沟”,那么这个框架将缺乏真正的全球合法性,并可能被视为一种新的“技术殖民主义”,难以得到广泛遵守。

风险认知的模糊性与多维性:国际社会对于AI风险的认知尚未完全统一。一些国家和行动者更关注眼前的风险,如偏见、歧视和失业;另一些则更担忧长期的、灾难性的风险,如失去控制和对人类生存的威胁。这种对风险优先级排序的分歧,直接影响了治理议程的设定和资源的分配,难以形成统一的行动焦点。



六、全球人工智能合作治理未来规划与前景


从一个战略构想走向一个具有全球公信力和影响力的国际组织,全球人工智能合作组织的未来道路充满复杂性。全球对AI协调治理的普遍渴求,当前AI技术“奇点”临近的集体焦虑,为超越地缘政治的合作提供了窗口期。中国作为全球最大的AI应用市场和重要的技术贡献者,其深度参与是任何有效的全球治理方案都无法绕开的一环。若能成功将全球人工智能合作组织打造成一个技术务实、政治包容、成果共享的平台,其前景可期。面对重重挑战,全球AI治理的未来并非一片黯淡。一个务实且具有前瞻性的路径,应当是放弃寻求“一蹴而就”的单一解决方案,转而采取一种多层次、多主体、逐步演进的“混合治理”策略。


推动“多层混合治理”架构:未来的全球AI治理不太可能是一个单一的、庞大的“世界AI组织”,而更可能是一个由前述四种模式及其他机制构成的“网络化治理生态”。可以设想:一个IPCC模式的科学委员会负责提供权威风险评估;一个ICAO模式的组织专注于为自动驾驶等特定高风险领域制定标准;一个Gavi模式的合作体致力于AI普惠与能力建设;一个CERN模式的研究项目攻关核心安全难题。这些机构各司其职,通过灵活的合作协议相互连接,形成一个具有弹性和适应性的治理网络。

以“二轨外交”和专家共识为先导:在官方的“一轨外交”因政治分歧而停滞时,应大力推动由科学家、技术专家和民间机构参与的“二轨”或“一点五轨”对话。历史证明(如帕格沃什科学和世界事务会议在冷战期间的作用),科学家群体更容易就技术风险达成共识。鼓励全球顶尖AI专家建立常态化的交流机制,就AI安全、伦理等问题发布联合声明或技术路线图,可以为政治决策者创造一个更坚实的共识基础。

从具体和“窄域”问题入手,逐步扩大共识与其一开始就尝试解决“AGI失控”这种宏大而遥远的问题,不如从更具体、更紧迫的“窄域”问题切入,以建立信任、积累成功经验。例如,国际社会可以优先就“禁止全自主致命性武器系统(LAWS)”的使用达成共识,或者为AI在跨境医疗诊断中的应用制定数据共享和责任认定的国际标准。这些“早期收获”将为解决更复杂的问题铺平道路。

强化联合国系统的中心协调作用与能力建设:联合国作为最具合法性和包容性的全球平台,应在AI治理中扮演中心协调角色。联合国秘书长古特雷斯成立的“人工智能高级别咨询机构”正是朝此方向迈出的重要一步。未来应考虑设立一个常设的“联合国人工智能办公室”,赋予其协调各专门机构(如UNESCO、ITU、WHO)AI相关议程的职能,并为其配备足够的技术专家和资源,以有效支持全球南方国家的能力建设,确保AI治理普惠性。

2025世界人工智能大会(WAIC 2025)巩固了其双重功能平台的地位:既是前沿人工智能创新的活力展示平台,也是全球人工智能治理高层对话的重要论坛。中国在本次大会上正式启动的“世界人工智能合作组织”倡议,代表着塑造国际人工智能规范的重大战略举措。该倡议强调多边主义、包容性以及人工智能作为全球公共产品的理念,与美国更具竞争性、以主导地位为导向的做法形成鲜明对比。这种分歧凸显了全球人工智能治理架构中正在形成的两极格局,对这一关键领域未来的国际合作具有深远影响。

尽管目前呼吁建立世界人工智能合作组织的意向非常明显,但各国依然需要谨慎对待,积极行动,打破各职能主体合作中的困难与限制,从而逐个克服先前具有实验性的人工智能合作组织的缺陷与不足,稳步构建世界人工智能合作机制。全球人工智能治理的挑战,本质上是如何在一个权力不对称、利益多元且技术飞速演进的世界里,构建合作与信任的挑战。它要求我们超越简单的技术修复或单一的制度设计,采取一种系统性的视角未来的道路不在于寻找一个完美的全球解决方案,而在于驾驭现有的复杂性——承认并缓解结构性不平等,确保所有利益相关方的声音都能被听到,并灵活运用多中心、多层次的治理工具箱。唯有如此,全球人工智能合作的承诺才不会偏离其变革潜力,才能真正以相互问责和公共利益为基础,稳健地航向未来。

综上所述,中国在世界人工智能大会上提出成立世界人工智能合作组织的倡议,是其在全球科技竞争和国际治理重塑过程中的一次重大战略布局。它精准地抓住了当前全球AI治理体系的短板与发展中国家的诉求,展现了中国提供国际公共产品、参与全球治理体系变革的雄心。未来,这一倡议的成功与否,将不仅取决于中国的战略决心与资源投入,更考验其在全球舞台上运筹帷幄、构建信任、求同存异的外交智慧与治理能力。



主理人丨刘典
编辑|徐浩森(浙江大学)

排版丨李森(北京工商大学)

审核丨梁正 鲁俊群




2025WAIC合集



资讯配图
资讯配图

资讯配图
资讯配图
资讯配图
资讯配图



关 于 我 们




清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG