核心要点
- 审计黑箱:OpenAI与五角大楼的协议在“机密网络”中执行,其实际应用完全脱离外部监督,使书面伦理承诺面临巨大执行风险。
- 行业路线分裂:Anthropic的公开拒绝与OpenAI的“合作框架”标志着生成式AI巨头在军事应用上首次出现根本性的战略与伦理分歧。
- 地缘政治杠杆:此次合同事件揭示了美国政府正利用其市场与监管权力,塑造符合其战略利益的AI供应链,将商业公司纳入大国竞争轨道。
- 公众情绪对冲:Claude应用在消费市场的火爆与OpenAI“退订指南”的热搜,反映了用户对AI军事化的复杂心态与用脚投票的可能。
- 长期范式转变:这不仅是单笔合同,更是AI从“通用工具”向“战略资产”身份转变的关键节点,将深远影响全球AI治理与创新生态。
一纸无法被审视的契约:当AI伦理进入“机密”暗室
2026年2月末,人工智能领域迎来了一个可能被历史铭记的分水岭时刻。在竞争对手Anthropic因坚守原则而遭遇联邦政府封杀的数小时后,OpenAI首席执行官萨姆·阿尔特曼通过社交媒体宣布,公司已与美国国防部达成一项具有里程碑意义的协议,将其先进的大语言模型部署于军方的机密网络之中。这份协议的核心,并非技术细节,而是一个充满悖论的承诺:一套写入合同的“安全红线”,与一个因其“机密”属性而注定无法被外界审计的执行环境。
协议中明确规定了三条限制性条款:禁止用于大规模国内监控、禁止为完全自主的武器系统提供无人监督的致命决策支持、禁止实施高风险的自动化社会信用评分。阿尔特曼强调,这些原则已获得国防部的认同,并符合现行法律与政策。从表面看,这似乎是科技公司为前沿技术套上的伦理缰绳。然而,真正的症结隐藏在“机密网络”这四个字背后。一旦模型在五角大楼的保密系统中运行,其具体任务、数据流向、决策影响将完全脱离公众视野、独立研究机构甚至OpenAI自身非涉密员工的监督范围。
OpenAI表示将派遣持有安全许可的工程师进行驻场支持,但合同的具体执行细则本身也被列为国家机密。这种安排打破了国防工业领域的传统惯例。正如战略与国际研究中心的高级研究员杰里·麦金所指出的,国防承包商通常仅负责交付产品,而无法对产品的最终用途施加具有约束力的限制。OpenAI试图在合同中嵌入伦理护栏的做法“极不寻常”。这实质上将“红线”能否守住的最终决定权,移交给了军方的自我约束。在缺乏透明度和独立核查机制的情况下,书面承诺的道德力量被极大地削弱了。
历史脉络:从“不作恶”到“不可审”的硅谷悖论
回顾科技公司与政府合作的历史,从斯诺登事件揭露的“棱镜计划”到近年来围绕面部识别技术的争议,透明度与公众信任始终是核心矛盾。早期硅谷信奉“不作恶”的信条,但当技术能力指数级增长并触及国家安全的核心时,简单的信条让位于复杂的现实政治。OpenAI此次的协议,标志着AI公司正式迈入了“国家安全-商业机密”的双重黑箱之中。这不仅是商业合同,更是一种新型的“技术主权”让渡。公司保留了对其技术栈的云端控制权,避免模型直接嵌入战斗机或无人机等边缘设备,但这更像是一种技术性的风险隔离,而非伦理性的根本保障。当模型在机密网络中处理的数据和生成的指令本身不可见时,其是否间接促成了被禁止的行为,将成为一个无法被证实也无法被证伪的问题。
两条道路:Anthropic的良心与OpenAI的“现实政治”
此次事件最富戏剧性的部分,在于OpenAI与Anthropic两家公司几乎在相同的时间线上,面对相同的政府要求,做出了截然相反的选择。时间线清晰得令人玩味:五角大楼向Anthropic发出最后通牒,要求其撤销对技术使用的限制条款;Anthropic基于其宪法式AI和长期安全研究的立场,明确予以拒绝。随后,联邦政府迅速将Anthropic列为供应链风险并实施封杀。几乎就在同一时刻,阿尔特曼宣布了OpenAI的协议。
两家公司公开宣称的“红线”内容惊人地一致——都反对大规模监控和全自主武器。区别在于行动的逻辑。Anthropic联合创始人兼CEO达里奥·阿莫代伊的声明直指核心:“我们无法昧着良心接受这些要求。”这是一种基于原则的、近乎绝对主义的立场,将公司自设的伦理边界置于巨大的商业与政治风险之上。而阿尔特曼的措辞则充满了“合作框架”、“双方认同的原则”等务实色彩,试图在参与中施加影响,在妥协中寻求边界。
这一分裂具有深远的行业影响。它标志着生成式AI领域的领导者在最敏感的应用方向上不再有统一阵线。Anthropic的立场可能吸引一批将AI安全与伦理置于首位的开发者、用户和投资者,形成一个“价值驱动”的生态位。而OpenAI的选择,则使其成为美国政府在此轮AI军事化整合中的“唯一指定供应商”,获得了无与伦比的战略地位和商业机会,但也背上了巨大的声誉与道德包袱。
分析视角一:地缘政治下的AI供应链重塑
此次事件不能仅视为商业竞争,必须放在中美科技竞争的大背景下审视。美国政府封杀一家本土AI明星公司,同时迅速与另一家达成协议,这一系列操作传递出明确信号:国家正在主动塑造和筛选其战略性AI供应链。其标准不仅是技术先进性,更是“可协作性”与“可管控性”。那些愿意在国家安全框架内灵活调整伦理条款的公司,将获得准入资格和资源倾斜;而那些坚持独立伦理框架的公司,则可能被排除在关键市场之外。这预示着未来全球AI产业可能沿着地缘政治断层线,形成技术标准、数据协议乃至伦理规范都截然不同的两大体系。
市场的回应:Claude登顶与“退订”热搜的民意双面镜
就在这场军方合同引发高层地震的同时,消费市场给出了另一番有趣的图景。Anthropic旗下的AI助手Claude在苹果App Store的免费应用排行榜中飙升至第二位,显示出巨大的公众吸引力。与此同时,“如何取消OpenAI订阅”的指南却在各大技术社区和社交平台成为热门话题。
这两股看似矛盾的趋势,实则共同映射了公众对AI军事化复杂而微妙的心态。Claude的流行,部分可解读为一种“用脚投票”——用户可能因认同Anthropic在原则问题上的强硬立场,而将其产品视为更值得信赖的替代选择。这是一种将消费行为与价值认同绑定的表现。另一方面,“退订指南”的热搜,则反映了部分现有用户对OpenAI选择的不满与担忧,他们可能害怕自己的订阅费用间接支持了不愿见到的技术应用方向,或单纯希望与卷入军事合同的公司保持距离。
这种现象揭示了AI公司面临的双重市场:一个是政府与企业的战略性采购市场,另一个是大众消费市场。这两个市场的价值观和评价标准可能存在冲突。一家公司在战略性市场获得成功,可能会在消费市场引发反弹,损害其品牌形象和用户信任。如何平衡这双重身份,将成为所有志在成为平台型AI巨头的公司必须解决的难题。
分析视角二:“可审计性”作为未来AI的核心基础设施
本次事件暴露了当前先进AI系统的一个致命弱点:缺乏在保密环境下仍能保证其行为符合预设伦理规范的可验证机制。未来的AI治理,绝不能停留在书写“原则”的层面,必须发展到可审计、可验证、可追溯的技术层面。这需要跨学科的努力:密码学能否实现“零知识证明”,让外部审计者在不知晓具体数据的情况下验证模型未越界?分布式账本技术能否用于记录关键决策链?硬件级的安全飞地能否提供可信执行环境?推动“可审计AI”技术的发展,可能比争论具体的伦理条款更为根本。否则,所有在非机密环境中讨论的伦理,一旦进入“暗室”,都有沦为摆设的风险。
未来的十字路口:从工具到战略资产的范式转移
OpenAI的五角大楼合同,最终超越了一笔生意的范畴。它是一个强烈的信号,宣告了生成式AI正在完成从“颠覆性工具”到“国家战略资产”的身份转变。当一项技术强大到足以影响情报分析、战略决策、网络防御乃至认知域作战时,它就不可能再仅仅属于实验室和商业市场。它必然被国家力量所吸纳、引导和控制。
对于整个AI行业而言,这意味着游戏规则的根本改变。初创公司和技术领袖们将不得不更早地思考其工作的地缘政治意涵。风险投资也需要重新评估“监管风险”和“主权风险”的权重。全球的AI治理对话将变得更加紧迫和复杂,因为核心技术的开发与应用正在加速与国家安全体系融合。
回望2026年初的这个春天,OpenAI与Anthropic的选择,或许为未来十年AI的发展路径埋下了伏笔。一条是深度融入现有权力结构,试图从内部施加影响的“参与之路”;另一条是保持批判性距离,甚至不惜牺牲短期利益以捍卫某种理想化原则的“坚守之路”。两者都充满风险,也都没有确切的答案。唯一可以确定的是,AI的潘多拉魔盒已然打开,而如何为其中的力量设定边界,将是人类集体智慧在下一个时代面临的最严峻考验。
<