来源:环球时报
围绕人工智能(AI)企业“模型蒸馏”的争议近日迅速升温,OpenAI、Anthropic与Alphabet等美国头部企业罕见采取协调行动,引发国际舆论关注。AI“蒸馏”,通俗来讲就是让一个AI模型,通过与另一个模型的交互去学习其“做题思路”,从而获得更多本领。
此事发生在美国商务部宣布推进AI出口计划、构建“全栈AI对外输出体系”后不久。不少人注意到,上述企业的首席执行官都是美国AI“安全与保障”顾问委员会的重要成员。这起事件折射出当前全球AI竞争格局中的一个趋势:技术问题正在被部分国家系统性地纳入国家安全框架,并以此为名维护自身产业利益。
从表面看,“模型蒸馏”争议涉及的是技术路径与知识产权的边界问题。“蒸馏”作为一种常见的机器学习方法,本意是通过算法优化来降低算力成本、提升应用普及度。当前,模型蒸馏的法律边界尚未明确,美国企业之间也存在互相蒸馏的情况。但在当前地缘政治背景下,这一技术被赋予了“安全含义”,甚至被某些企业上升到“国家安全”的高度。这些企业声称经蒸馏得到的模型可能被用于网络攻击、散布虚假信息,以及军事目的与大规模监控。
这一变化反映的是美国人工智能治理逻辑的深层转向。近年来,美国在人工智能领域逐步将“安全”(safety)与“安全化”(security)结合,从关注算法风险、伦理问题,转向更强调国家安全、战略竞争与技术控制。在这一过程中,政府与企业之间的关系也发生了显著变化。通过设立顾问委员会、强化出口管制、推动标准制定等方式,美国政府通过制度安排,将头部企业嵌入国家安全治理体系之中,使得企业既是市场竞争主体,也在一定程度上承担起“治理者”的角色。
这也使得诸如OpenAI、Anthropic与Alphabet等美国公司得以借“安全”与“责任”之名,将官方赋予的权利转化为竞争工具。具体而言,这些公司可以通过封闭管理模型权重、限制高端能力接口以及干预其他公司复制其技术路径等方式,有意提高潜在竞争者进入前沿领域的门槛。这在事实上塑造了一种以头部企业为核心的技术秩序,限制其他新兴技术公司的发展空间。
第一,人工智能的发展模式,正从早期的“开放共享”转向“分层管理”。简单来说,就是核心技术被严格保护,中间层技术有限开放,高端技术则受到严格管控。虽然这种以安全为导向的分层机制有助于降低系统性风险,但同时也实实在在地延缓甚至压制了竞争对手追赶的能力。
第二,全球南方国家在AI领域实现技术追赶的机会可能正在变小。对许多发展中国家而言,想要获得先进的人工智能能力,往往要依赖外部技术体系。在这样的趋势下,接入某一技术生态,可能意味着要接受其规则和标准。这种结构性限制,或进一步拉大全球技术鸿沟。
第三,人工智能治理本身也在发生变化。过去,国际社会更多从伦理、安全、透明度等角度讨论AI问题。但如今,技术能力本身已经成为重要筹码,治理议题也不可避免地带上地缘政治的色彩。这种变化,一方面让国际合作变得更难,另一方面也让AI在军事、关键基础设施等领域的接入变得更加紧迫。
应当看到,美国此次围绕“蒸馏问题”的争议并非孤立事件,而是当前人工智能竞争逻辑转变的一个缩影。外部环境变化正在让技术引进的空间变得越来越小,也在倒逼中国加快完善自主创新体系,尽快实现尖端领域的技术突破。从长远来看,只有构建起覆盖数据、算力、模型与应用的完整生态,才能筑牢自主创新的根基。
对国际社会来说,真正的关键问题,不只是“如何治理风险”,更是如何面对安全逻辑日益嵌入竞争策略的现实,防止安全逻辑被进一步工具化,成为排他性竞争手段。回看这次美国AI企业“蒸馏争议”,如果安全议题成为技术竞争的工具,那么全球AI技术发展也很可能走向新一轮的技术霸权。构建公平、合理、包容、共享的全球AI治理体系,不仅关乎技术发展方向,也将深刻影响未来全球治理格局的走向。(作者是清华大学人工智能国际治理研究院副院长)