当人工智能以“跨域渗透”“指数迭代”的特性重塑全球产业、社会与文化格局时,传统以主权国家为边界、以事后监管为核心的治理体系,正面临“规则滞后于技术、协同弱于分歧、风险与创新失衡”的三重考验。这一全球性困境的破题关键,在于能否构建一种以人类价值观为基石、让技术可靠服务于文明进步的“人机协同”新范式。中国基于自身在AI治理领域的实践探索,正以“平衡思维”与“务实行动”,为这一全球命题贡献来自东方的智慧与可借鉴的路径。
一、AI时代全球治理的现实挑战:从规则真空到协同失灵
人工智能的技术特性正系统性解构传统治理逻辑,暴露出亟待全球共同破解的短板,这些挑战既关乎技术发展边界,更涉及人类文明存续的核心议题:
(一)规则制定滞后于技术创新,监管空白引发风险外溢
AI技术迭代周期已缩短至数月——从生成式AI实现多模态交互到大模型参数规模突破万亿,技术边界持续拓展,部分创新企业通过快速突破将大模型研发门槛降低70%,更凸显传统规则“跟不上技术节奏”的现实矛盾。但全球治理仍多停留在“框架性共识”阶段,2024年联合国《全球人工智能治理框架》虽确立“以人为本”“风险预防”等原则,却未明确算法透明度、跨境数据流动、自主决策系统责任界定的具体标准。这种“规则真空”催生两类风险:一是部分主体借“创新之名”规避监管,如某国际医疗科技公司未经授权使用30万份跨境患者基因数据训练AI模型,引发数据主权争议与集体诉讼;二是不同经济体出台碎片化规则,欧盟《人工智能法案》与美国《AI风险管理框架》在风险分级、合规要求上存在显著差异,增加跨国企业合规成本,甚至加剧“技术藩篱”风险。
(二)治理主体单一化,难以覆盖多元利益诉求
传统全球治理多以政府间协商为主,未能充分纳入技术研发与使用的前沿力量。AI技术深度牵涉企业、科研机构、公民社会等多元主体,且不同群体诉求差异显著:发达国家追求“技术领先优势保护”,发展中国家更关注“技术普惠与能力建设”;科技企业强调“创新空间保障”,公众则聚焦“隐私保护与就业安全”。若仅依靠政府谈判,易忽视基层需求与市场实践——例如,部分国际治理倡议未充分考虑发展中国家“AI基础设施薄弱”的现实,导致规则落地困难;又如对生成式AI内容审核的讨论,缺乏创作者、平台方与公众的多元参与,规则的实际可行性因而存疑。
(三)风险防控与创新激励失衡,治理陷入“非此即彼”困境
全球治理长期面临“防风险”与“促创新”的两难:过度强调风险防控,可能抑制中小企业创新活力——如对AI医疗产品设置过高准入门槛,导致发展中国家难以获得低成本诊断技术;片面追求创新速度,又可能引发系统性风险——如自动驾驶技术未建立统一安全标准便大规模商用,已在多国出现交通事故责任认定纠纷。这种“非此即彼”的思维,本质是未能找到技术发展与社会承受力的动态平衡点,也缺乏对AI“双刃剑”特性的系统性认知,最终可能延缓全球技术进步与民生改善进程。
二、中国的AI治理实践:从制度探索到生态构建
在应对这些全球性挑战的探索中,中国结合自身国情,通过“顶层设计+基层试点+生态协同”的路径,形成兼具安全性与灵活性的治理模式,为全球治理提供可落地的实践样本:
(一)构建“多层次、全链条”治理制度体系,实现“规则先行”
中国坚持“立法、标准、政策”协同推进,形成覆盖AI研发、应用、管理全流程的制度框架。在国家层面,出台《生成式人工智能服务管理暂行办法》,明确“备案制管理”“内容安全审核”“数据合规使用”等要求,既避免“一刀切”监管抑制创新,又为技术应用划定清晰边界;在标准层面,近三年推动制定超过50项人工智能相关国家标准,涵盖算法安全、数据治理、产品评测等领域,其中《人工智能伦理风险评估指南》将“公平性、透明性、可控性”纳入核心指标,成为全球领先的系统性伦理评估标准之一;在政策层面,针对医疗、教育等重点领域出台专项规范,如《人工智能在医学影像诊断中的应用规范》,既保障技术在民生领域的安全应用,又为行业创新提供明确指引。
(二)创新“沙盒监管”模式,破解“风险与创新平衡”难题
为兼顾治理刚性与创新灵活性,中国在粤港澳大湾区、上海、北京等地试点AI“监管沙盒”,通过“可控环境测试+动态评估调整”为新技术新业态提供“试错空间”。以广州南沙新区的AI医疗沙盒为例,企业可在指定医院范围内测试AI辅助诊断系统,监管部门实时跟踪技术应用效果,根据患者反馈、医生评价动态优化合规要求——某AI肺结节诊断企业通过沙盒测试,既验证了技术安全性(误判风险控制在8%以内),又完善了数据授权流程,最终实现快速落地。这种“边试点、边完善、边推广”的敏捷治理模式,既避免技术无序扩张带来的风险,又缩短创新产品从研发到商用的周期。
(三)推动“政企社研”协同治理,兼顾多元利益诉求
中国打破“政府单一治理”模式,构建多元主体参与的协同机制。在决策层面,成立“国家人工智能治理专家委员会”,吸纳院士、企业代表、公益组织负责人共同参与规则制定——如制定《AI教育应用规范》时,充分听取教师、家长与教育科技企业意见,避免“技术替代教师”的导向偏差;在实践层面,推动行业协会发布《生成式AI服务自律倡议》,要求企业承诺“不生成虚假信息、不侵犯知识产权”,已有200余家企业参与,形成行业自我约束的良好氛围;在能力建设层面,通过“AI桥计划”等合作项目,帮助发展中国家培养本土技术人才,如在农业领域输出适配当地土壤、气候数据的AI模型,同步培养数百名本土技术人员,实现“技术共享+能力共建”,从根源上避免治理规则的“水土不服”。
三、中国建议:构建“包容、协同、敏捷”的全球AI治理框架
基于自身实践与中华优秀传统文化智慧,中国愿为构建全球AI治理框架贡献以下思路,推动治理从“共识”走向“行动”,让技术真正惠及全人类:
(一)建立“分级分类”全球规则体系,尊重发展差异
全球AI治理不应追求“一刀切”的统一标准,而应根据各国技术发展阶段、产业基础与社会需求,构建“基础规则+特色补充”的弹性体系。在“基础规则”层面,推动各国达成“最低安全标准”共识,如AI系统的可追溯性(算法决策过程可解释)、数据使用的“知情同意”原则、高风险AI应用(如自主武器系统)的禁限规定,确保技术发展不突破人类文明底线;在“特色补充”层面,允许各国根据自身国情制定细化规则,如发展中国家可适当放宽AI中小企业准入门槛,发达国家则应承担更多“技术转移”责任,通过“规则弹性”兼顾全球效率与局部公平。
(二)打造“多元共治”国际协作机制,凝聚治理合力
推动建立“政府主导、企业参与、科研支撑、公众监督”的全球AI治理平台,改变当前“碎片化协商”格局。一是设立“全球AI治理协调中心”,由联合国牵头,吸纳各国政府、国际组织、头部企业、学术机构代表,定期开展规则对接、风险预警与争议调解,针对跨境AI数据纠纷提供中立的第三方评估服务;二是构建“行业自律联盟”,鼓励全球AI企业共同制定《负责任创新承诺书》,将伦理要求嵌入技术研发全流程,推动企业从“被动合规”转向“主动担责”;三是建立“公众参与渠道”,通过线上平台收集全球民众对AI治理的意见,确保规则制定不脱离社会需求,避免“精英主导”的治理偏差。
(三)推行“敏捷适配”治理工具,跟上技术迭代
全球治理需摆脱“事后监管”的被动模式,采用更灵活的工具应对技术快速演进。一是推广“监管沙盒”的国际合作,鼓励各国建立沙盒互认机制,如粤港澳大湾区与欧盟的AI沙盒实现测试结果互认,减少企业跨国合规成本;二是构建“AI治理动态评估体系”,由全球专家团队定期评估技术风险与规则有效性,每半年更新一次“高风险AI应用清单”,确保治理措施与技术发展同步;三是建立“全球AI风险预警网络”,整合各国数据资源,实时监测AI技术应用中的潜在风险(如算法歧视、数据泄露),通过“早期预警+快速响应”降低风险外溢影响。
(四)强化“普惠共享”能力建设,缩小数字鸿沟
全球AI治理的最终目标是让技术惠及全人类,而非加剧发展不平衡。一是推动发达国家与发展中国家建立“AI伙伴关系”,通过技术开源、联合研发、人才培训等方式,帮助发展中国家提升AI基础设施水平,如在农业领域合作建设“AI示范基地”,输出适配当地气候的作物病虫害识别模型;二是设立“全球AI普惠基金”,由发达国家、国际组织与头部企业共同出资,支持发展中国家AI民生项目(如AI基层医疗、智能教育),确保技术红利流向最需要的领域;三是建立“AI技术共享平台”,整合全球优质AI算法、数据集与工具,向发展中国家免费或低价开放,降低技术应用门槛,避免“数字殖民”风险。
迈向人机协同的智能文明
人工智能对全球治理的重塑,既是挑战,更是构建更公平、更高效国际秩序的机遇。中国的治理实践表明,只有坚持“包容而非排他、协同而非对抗、敏捷而非僵化”的理念,才能让AI技术真正成为推动人类文明进步的动力。第九届世界创新大会(WIC2025)将以“人工智能与世界文明”为主题,汇聚全球创新领袖,深入探讨人机协同的治理新路径,期待各国以务实行动推动全球共识转化为具体成果,共同构建AI时代的人类命运共同体。
(本文作者谢建超系世界创新大会创始人兼组委会秘书长)
打开微信,点击底部的“发现”,使用
“扫一扫”即可将网页分享至朋友圈。
点击右上角分享按钮