五角大楼与 OpenAI、谷歌及英伟达签署机密 AI 协议

作者
  • avatar
    姓名
    Nino
    职业
    Senior Tech Editor

本周,国家安全与人工智能领域发生了重大的格局变动。美国国防部(DoD)宣布,已与包括 OpenAI、谷歌(Google)、微软(Microsoft)、亚马逊(Amazon)、英伟达(Nvidia)以及埃隆·马斯克的 xAI 在内的多家顶尖 AI 实验室及硬件供应商达成重大协议。值得注意的是,初创公司 Reflection 也在这份名单中占据了一席之地。然而,此前一直以“安全性”著称并曾与政府合作的 Anthropic,却因被认定存在“供应链风险”而被排除在外。

这一进展标志着国防部从试验性项目向在高度敏感的机密环境中“合法”且常态化使用大语言模型(LLM)的转变。对于通过 n1n.ai 关注行业动态的开发者和企业而言,信号非常明确:只要满足安全协议,消费级 AI 与任务关键型政府基础设施之间的界限正在迅速消失。

转向商业 AI 的战略决策

多年来,五角大楼一直试图构建定制化的 AI 解决方案,或依赖传统的国防承包商。然而,在 OpenAI 的 GPT-4o 和谷歌的 Gemini 等模型的推动下,私营部门的创新速度之快,迫使政府不得不改变策略。国防部现在优先考虑的是“商业现货”(COTS)AI,并对其进行加固以处理机密工作负载。

这些协议允许相关公司在“物理隔离”(Air-Gapped)的环境或满足影响等级 6(IL6)要求的安全云实例中部署模型。IL6 是针对非分类机密信息的最高安全等级,要求与公共互联网进行物理隔离。虽然大多数开发者通过像 n1n.ai 这样聚合的 API 访问这些模型,但五角大楼的版本涉及专用硬件集群和本地化数据处理,以确保敏感的军事情报永远不会泄露到通用训练池中。

为什么 Anthropic 被排除:供应链风险的深度解析

此次公告中最具争议的部分莫过于对 Anthropic 的排除。尽管 Anthropic 以其“宪法 AI”(Constitutional AI)理念闻名,并拥有与政府机构合作的背景,但五角大楼仍引用了“供应链风险”作为理由。虽然具体细节尚未公开,但行业分析师指出,这可能涉及复杂的投资背景和基础设施依赖关系。

在涉及国家利益的 AI 竞争中,“供应链风险”可能指代从服务器中使用的芯片来源,到托管模型的云服务商的所有权结构。这凸显了一个日益增长的趋势,即“主权 AI”(Sovereign AI)——完全在一个国家内部控制、托管和保护的 AI——正在成为政府合同的金标准。对于企业来说,这是一个提醒:必须实现 AI 技术栈的多样化。使用像 n1n.ai 这样的多模型聚合器,可以让企业保持敏捷,在某个供应商面临监管或安全障碍时迅速切换。

技术深挖:机密环境下的 AI 实现

在机密环境中实施 LLM 绝非调用一个 API 那么简单。它涉及多个层面的技术改造:

  1. 数据驻留与主权:所有数据必须驻留在政府拥有或经过许可的主权云(如 AWS GovCloud 或 Azure Government)中。
  2. 模型权重安全:对于来自 OpenAI 或 xAI 的模型,“权重”(神经网络的实际参数)必须得到严密保护,防止被外部势力窃取。
  3. 边缘推理:在某些情况下,五角大楼要求模型直接在现场使用英伟达硬件运行,不进行任何外网连接。

五角大楼协议中主要参与者的对比

供应商核心优势预计部署范围
OpenAI逻辑推理能力 (o1/o3 系列)战略与情报分析
谷歌多模态数据整合能力地理空间情报 (GEOINT)
英伟达硬件及计算架构本地 AI 超级计算
xAI快速迭代与 Grok 集成实时数据处理
Reflection针对开源权重的优化高速本地推理
n1n.ai多模型聚合与稳定性企业级开发与测试

开发者视角:以安全为核心进行构建

虽然大多数开发者并不是在为五角大楼开发应用,但这里设定的安全标准最终会渗透到企业级市场。如果你正在为律师事务所或医疗机构构建 RAG(检索增强生成)系统,你应该参考国防部正在采用的“零信任”原则。

例如,在使用 API 时,确保使用“无状态”调用,即供应商不会保留你的数据用于训练。以下是在 Python 环境中使用标准库构建安全请求的概念性示例:

import requests
import json

def secure_llm_call(prompt, api_key, model_endpoint):
    # 安全 API 调用的标准请求头
    headers = {
        "Authorization": f"Bearer {api_key}",
        "Content-Type": "application/json",
        "X-Security-Level": "High"
    }

    # 通过特定标志确保数据不被用于训练(如果支持)
    data = {
        "model": "gpt-4o-gov",
        "messages": [{"role": "user", "content": prompt}],
        "train_opt_out": True
    }

    response = requests.post(model_endpoint, headers=headers, data=json.dumps(data))
    return response.json()

专家建议 (Pro Tips)

  • 冗余是关键:Anthropic 的遭遇证明,即使是最“安全”的合作伙伴也可能被移出名单。始终在你的应用程序中集成备用模型。
  • 监控延迟:机密或“加固”后的实例通常由于额外的安全检查而具有更高的延迟。针对响应时间 > 500ms 的情况优化你的用户体验(UX)。
  • 评估开源权重模型:像 Reflection 这样的公司正在通过提供高性能、可审计且可本地托管的模型来赢得市场,这规避了闭源模型的一些“黑盒”风险。

结语:防御性 AI 的新纪元

五角大楼选择与 OpenAI、英伟达等公司合作,同时边缘化 Anthropic,这凸显了现代 AI 供应链的复杂性。现在,竞争不仅仅在于谁的模型最聪明,更在于谁的基础设施最稳健,谁的公司结构最透明。随着行业向这些“主权 AI”模型迈进,保持信息灵通并拥有多种工具的访问权限至关重要。

无论你是国防承包商还是初创公司开发者,在这个复杂的生态系统中导航都需要正确的合作伙伴。立即在 n1n.ai 获取免费 API 密钥,开始构建您的下一代 AI 应用程序。