
然而,更具标志性意义的并非单一模型的应用,而是大模型所代表的智能引擎如何与平台化的数据整合、无人集群的执行能力、以及天基感知的网络底座协同作用,共同编织出一张从情报到决策再到行动的体系化杀戮网络。与此同时,Anthropic因拒绝解除AI自主杀伤禁令而遭美国政府封杀,将智能战争背后的伦理冲突推向台前。当算法开始深度嵌入作战链路,人类是否还能守住“最终决定权”这一底线?本期《大模型进展专栏》“热点事件追踪”栏目将深入解读这场行动背后的技术演进、体系协同与伦理困境,揭示这场智能化战争背后的技术逻辑与深层意义。
下文将以人工智能技术为切入点,从智能引擎、体系协同、伦理边界三个维度,对公开报道所能支撑的技术逻辑进行梳理分析。首先聚焦大模型在情报分析与决策支撑中的作用边界,其次讨论跨平台数据体系如何支撑联合作战,最后审视AI辅助战争下的人类责任与伦理底线。本文基于权威媒体报道与公开资料展开分析,以期为我国在智能化战争形态研究、人机协同作战体系构建等方面提供有益参考与借鉴。
在智能化战争形态加速演进的今天,智能的精准度已成为决定战场胜负的核心关键,相较于无休止的盲目攻击,依托大模型赋能的科学决策与精准打击,才能在混沌战场中撕开突破口。在行动发起前数小时,特朗普总统以“激进左翼AI公司”及国家安全风险为由,在Truth Social上发帖并下令联邦机构全面封杀Anthropic公司。然而,在战机关键窗口期,美军做出了“抗命”决定,坚持启用Anthropic的AI模型Claude,用于情报推理与战斗场景模拟等环节。
这一“顶层政治表态”与“一线作战依赖”的撕裂,揭示了一个事实:大语言模型在现代战争中正从辅助工具进化为不可或缺的参谋大脑。
此次针对哈梅内伊的斩首行动,最大的难点在于目标线索稀薄、轨迹不确定性。情报端面对的是典型的“弱信号问题”,即海量数据里夹杂着大量噪声。传统分析更像拼图——把通信片段、后勤补给迹象、社会与经济异常波动等碎片化信息,逐步拼接成可解释的态势图景。但这种模式下,人类分析团队很容易撞上两道硬墙:一是认知负荷,长时间高强度筛查带来的疲劳与误判;二是跨源关联的上限,不同领域、不同模态线索之间的弱关联。
战场决策的核心,是在高度不确定、强对抗、快节奏的复杂环境中,实现从态势感知到精准判断、从分析研判到行动落地的跃升。Claude模型可能以两种方式赋能决策:
大模型在战场决策环节的核心作用是将海量、多源、异构的历史数据、实时数据与模拟数据,快速转化为可支撑指挥决策的当前态势、风险隐患、趋势演化,这正是决策智能的核心体现,让数据转化为决策价值。同时,依托历史战例与行动数据的归因分析,提炼可迁移规律,校正研判偏差,明确行动约束条件、脆弱假设与不可接受风险,为方案生成与预案切换提供依据。通过数据持续迭代融合,实现态势动态预测,提升决策的科学性与时效性。据美国《防务新闻》网站2月25日报道,美国军工巨头洛克希德·马丁公司宣布,已完成AI技术赋能F-35战机的相关测试。测试结果显示,AI技术不仅提升了F-35战机的态势感知精度,降低飞行员的决策延迟,更实现了大模型在战场预测评估中的动态迭代突破。工程师可通过自动化工具快速标记新出现的辐射源,在短短几分钟内完成AI大模型的重新训练,并将更新后的模型加载至下一次飞行任务中,实现战场态势预测的实时校准、动态优化,破解战场瞬息万变,决策滞后被动的难题。
在态势判断与风险边界基础上,大模型可在既定交战规则与指挥意图的约束下,快速生成多套可替代的行动方案,这是决策智能从研判到落地的关键一步。方案涵盖不同时间窗、不同兵力编组与电子战/网络对抗配置、行动路径等,既兼顾战术可行性,同时预留灵活调整空间。去年,北约在爱沙尼亚边境举行“刺猬25”联合军演时,一套名为“雅典娜”的AI军事指挥系统引发关注,该系统基于神经形态计算架构,采用生成式AI技术,在模拟攻击场景测试中,仅用5分钟就生成10套完整作战方案,响应速度和决策效率远超人类指挥团队。值得强调的是,这并非让大模型替代人类决策,无论是Claude大模型的应用,还是“雅典娜”系统的测试,核心都是通过大模型的高效运算能力,实现批量生产方案初稿,将人类参谋与指挥员聚焦于方案的筛选、优化与定案,形成大模型赋能+人类决策的人机协同决策模式,最大化发挥决策智能的价值,缩短研判到方案再到落地的周期,这也是智能化战争中决策智能的核心落地形态。
在此次事件之前,美军使用Claude参与针对于前委内瑞拉总统尼古拉斯·马杜罗抓捕行动。这类任务之所以会把模型复用到下一次高价值目标行动,说明模型技术经过双重考验:一是能在短时窗口里把多源材料压缩成可供决策的证据链,二是在充满欺骗与噪声的环境中,能把不确定性标注出来,让人类参谋快速复核与追问,而不是给出模糊性结论。
经过一次实战验证,美军再次选择Claude,说明不仅好用,更符合军事作战的工程形态。而在3月1日CNBC采访中,Dario Amodei揭示,Anthropic已经为美国军方定制专属Claude模型,该定制模型直接部署在物理隔离机密云,实现100%资源用于军方推理,同时还强调,投入到这些模型的计算量,每四个月翻一倍,这意味着美军将拥有更先进的作战“参谋大脑”。
当禁忌大脑完成海量情报的解读,将噪声与不确定性提炼为可用决策,胜负的关键便不再是掌握多少信息、做出何种判断,而是能否将决策即时转化为行动。战争的组织方式正在从平台对平台的拼性能,转向系统对系统的拼闭环:谁能更快完成发现、确认、分发、打击与评估,谁就能用节奏与规模吞没对手的反应时间。星盾×Palantir×蜂群无人系统的组合,正是这种变化的典型样本,它们分别承担连接、编排与效应器的角色,把分散节点串成一条可持续运转的链路,让作战能力不再依赖单点平台的神勇,而依赖整个协同网络的速度、韧性与软件迭代能力。
在伊朗最高领导人遭“斩首”引爆的这轮冲突里,胜负往往取决于作战链路能否持续运转、信息能否在关键窗口期高速回流。路透社援引美军高层对“史诗怒火”初始时间线的描述称,攻击前,美国网络司令部和美国太空司令部就开始破坏、削弱并致盲伊朗的视野及通信。在这种先切断连接、再实施打击的体系逻辑下,低轨卫星互联网承担的角色就非常清晰:它不是某个武器平台,而是把前沿无人机、侦察节点、地面分队与指挥中枢等接入同一张网络的通信骨架,让视频流、目标线索、态势更新与任务指令能够跨域高速流动,使发现-确认-分发-打击-评估的闭环具备连续性与可扩展性。
星盾是SpaceX面向政府与国防任务推出的专用能力线,强调更高等级的安全保障与任务化交付,用于支撑国家安全场景下的通信与数据中继。从工程形态看,它不只是在天基侧构建专用网络,也在战术端推动更“前线化”的接入,美军公开影像资料中曾出现Starshield UAT-222的终端/天线。该设备体积更小、功耗更低、组件更少,可由前沿人员在数分钟内完成部署,快速接入高带宽卫星链路。一旦这种可携行的卫星宽带落到战场,它的意义就不仅是通信不断线,更是让数据能被快速回流并进入作战分析与指挥工作流中。
现代战争的核心瓶颈在于发现目标后能否瞬间理解并联动行动。多域作战中,卫星侦察、电子侦收等海量异构数据,长期被不同军种、系统与权限边界割裂成“数据烟囱”,导致情报流转滞后、决策链路冗长。Palantir被称作“战争操作系统”,关键在于重构了战场数据的底层逻辑:将现实战场抽象为可计算、可调用的对象世界,通过统一语义层,把分散数据转化为标准化的实体与关联关系,彻底打破情报机构间的数据孤岛。其核心支撑是Ontology(本体论)技术能够在实战中将卫星图像、通信监听记录、开源社交媒体数据等杂乱信息,自动映射为“人员”“导弹发射架”等直观战场实体,让指挥官直面结构化的态势图景,大幅提升决策效率。
据披露,在本次行动中,Palantir的前线部署工程师(FDE)嵌入作战单元,在目标离开地堡的瞬间,实时调整卫星调度逻辑,确保三颗以上间谍卫星同步完成交叉验证,为打击行动提供了决定性的精准情报支撑,将传统指挥体系的数据、决策周期压缩至分钟级。
无人机蜂群是Palantir这套神经系统延伸出的核心效应器,通过规模化、协同化作战,将Palantir的决策意志精准落地,这一作战模式在俄乌冲突中已成熟。央视新闻在俄乌冲突四周年报道中指出,当前战场无人机攻防已进入白热化阶段,双方均大规模投入无人机蜂群实施体系化打击,其中乌克兰方面披露,80%的敌方目标由无人机摧毁,战场由此形成露天移动即暴露、暴露即被摧毁的致命杀伤区。
蜂群正在从遥控编队迈向软件定义的自治协同。在美以联军行动中,无人机群进入德黑兰领空后,可依托实时威胁感知数据自主调整编队阵型。当伊朗防空雷达锁定某架无人机时,整个蜂群通过Lattice软件系统实现威胁信息全域共享,并自动分离子机编队,同步开展电子诱导与反辐射打击。此外,无人机蜂群的牺牲式智能战术,更是对传统作战逻辑的根本性颠覆:一架搭载诱饵载荷的无人机,在AI自主决策算法的驱动下主动暴露航迹,诱使伊朗防空雷达开机,随后通过蜂群内联网络将雷达位置实时回传至平台,为后续打击梯队开辟安全突防通道。
体系化杀戮网核心竞争力,不是某一项单点技术的爆发,而是把认知层的大脑与协同层的神经无缝耦合:前者负责在信息洪流中提炼判断、给出可执行的方案空间,后者负责把判断变成可扩展、可持续、可复盘的行动闭环。这种方式能够依托实时战场态势,通过高强度算法整合,生成具备高生存能力与毁灭性打击效能的杀伤体系,既彰显了AI驱动体系化作战的成熟度,更预示着“算法主导战场、集成决胜未来”的战争新形态已然到来,其背后的技术逻辑与作战范式,正深刻重塑全球军事竞争的核心格局。
AI大模型技术正重塑战争形态,Anthropic拒解安全限制、以色列AI筛选目标、生成式AI升级信息战,均体现AI已从辅助工具成为战争结构性变量。如果缺乏有效监管与国际规范,突破“human-in-the-loop”原则,AI军事化可能超越国际人道法约束,让战争走向更高频、更低可控、更不确定的方向。
行动前夕,硅谷爆发史上最激烈的政商对峙。Anthropic等安全导向企业,在其Claude等模型中设置“禁止自主杀伤”安全护栏,而美国国防部要求移除限制,以约2亿美元合同施压,要求AI可用于自主武器、大规模监控等场景。Anthropic明确拒绝,坚守《宪法AI》原则,强调AI不应在缺乏人类判断时参与生死决策,将完全自主武器划为伦理红线。反观OpenAI与xAI,选择与五角大楼合作提供军事用途模型工具。
这场对峙导致特朗普2月27日签署指令,要求联邦政府所有机构立即停止使用其AI技术,给予六个月过渡退出期。国防部长皮特·赫格塞思随后将这家美国本土AI明星企业,贴上仅用于制裁外国敌对势力的“供应链风险”标签,意味着与美军合作的承包商必须切断与Anthropic的往来。
AI技术升级大幅降低了精确打击与斩首行动的成本,让大规模高精度军事行动变得“廉价”,将战争从高门槛政治行为,转变为可算法化执行的常规操作。
这种精准打击降低了发动战争的政治心理门槛,决策者更倾向于通过AI发起跨境打击,严重削弱国家主权与国际法约束。
AI在军事应用中的关键问题的是不可解释性(黑箱),算法得出打击某目标结论的过程无法被人类完全理解和追溯。以色列在加沙使用的Lavender(薰衣草)系统,可自动生成数万潜在目标名单,人工干预常不足20秒,操作员仅确认目标为男性,便默认AI的击杀建议,导致约10%的错误率。尽管这份报告未被以色列军方承认,却已引发观察人士的担忧。“史诗怒火”行动初期,这种算法黑箱还造成德黑兰周边居民区严重平民伤亡,而悲剧发生后,责任该归谁成为无法追溯的难题。AI通过“黑箱决策+流程加速”,放大了错误的规模与后果,弱化了问责机制。
AI军事化的影响也迅速蔓延至认知领域,让局势愈发复杂,核心体现在:①深度伪造:战争期间,大量伊朗高级将领投诚、伤亡的虚假视频在社交媒体批量传播,引发伊朗国内严重社会动荡;②信息污染:这种行为模糊了物理战场与舆论战场的界限,让平民难以分辨信息真伪,削弱社会稳定性。
“史诗怒火”行动如同一场冷酷的“算法预演”,向世界宣告:未来的战场不再仅仅是钢铁的碰撞,更是算力与数据的博弈。当AI开始深度嵌入战争体系,战争正在从物理对抗,转向体系、算法与认知的复合博弈,同样,未来防御的核心将转化为技术自主、体系协同与伦理控制的综合能力比拼。在此背景下,中国该如何构建智能时代的“护城河”?
在当前全球科技博弈加剧的背景下,核心技术自主可控已成为国家安全的重要基石。尤其是在AI军事化趋势愈发明显的情况下,大模型、算力芯片与天基物联网等关键技术,正逐步成为新型战略基础设施。
国内企业已经开始在这一方向形成体系化布局。华为昇腾、寒武纪等国产AI芯片正加速适配自主军用大模型,确保在极端环境下算力不断供。国内领军企业华如科技推出的XSim®军事智能体系,标志着国产军事仿真与决策模型的成熟。其XSimVerse®军事大模型采用“基座通识-领域增强-场景适配-智能体协同”的四层架构,不仅能理解通用知识,更深度融入了军事领域的特有逻辑,实现了对国产操作系统和硬件的全面适配。正如《中国军网》所言,军事智能的核心并非取代人,而是人谋机算。在全域感知和综合保障中,AI负责处理万亿级海量数据,而人类指挥官负责最终的谋略定夺。
当前中国提出“机械化、信息化、智能化”三化融合发展路径,其核心逻辑在于,通过“云-边-端”协同架构,实现从战略层到战术层的全链路智能化。这种架构不仅提升数据处理效率,还能在复杂电磁环境中维持系统稳定性,利用边缘计算让单兵装备具备感知能力,同时强化电磁对抗,确保在复杂电磁环境下AI链路不被干扰、不被致盲。
与此同时,中国在智能化发展中始终强调“Human-in-the-loop”原则。这一点与部分西方国家探索“完全自主作战系统”形成明显差异,其本质是在效率与可控性之间做出战略取舍,即宁可牺牲部分智能化速度,也要确保决策权不被算法完全接管,通过智能系统辅助决策,而非替代决策,从而实现人机协同优势最大化。
当AI开始参与甚至主导战场决策,但同时又存在算法黑箱可能导致误判,一个无法回避的问题出现了:谁对“算法行为”负责?
对于这一问题,中国在国际舞台上多次发出理性声音,即AI在军事领域的应用必须受到严格的国际规范。无论技术如何演进,人类最终决定权是不可动摇的底线,在战略决策与伦理判断等关键环节,必须确保“可介入、可追溯、可干预”。
“史诗怒火”行动中,哈梅内伊及高层遇害证明了AI在物理毁灭上的优势,但美军随后遭遇越战以来最大损失,暴露出智能战争的核心悖论:“算得准目标,不等于算得准战争”。
①强化“社会域”智能推演:未来军事大模型(如华如科技XSimVerse®军事大模型)不能仅满足于弹道凯云官网计算和损毁评估,需引入社会心理学、地缘政治等软性变量,将推演目标转向“消灭敌人后如何达成和平”。
③构建高韧性去中心化防御体系:美军损失源于伊朗失去统帅后的分布式反击。启示我们,智能防御不应仅保护中心,更要强化单兵与边缘节点自主战力,通过“云-边-端”协同实现体系自愈反击,让对手明白斩首无效且会陷入战争泥潭。
技术竞争的最终落点,始终是人才竞争。在智能化战争背景下,单一技术人才或传统军事人才已难以满足需求,未来更需要的是“指技融合”的复合型人才,未来的指挥员不仅要懂兵法,更要懂算法;技术人员不仅要写代码,更要懂实战。这一趋势正在推动人才培养模式的转变:从技术人员服务决策,转向决策者理解技术。未来的关键不在于“AI有多强”,而在于人类是否具备驾驭AI的能力。只有建立起技术与战术双轨并行的复合型人才体系,才能避免在智能时代陷入“被工具反向支配”的风险。
战术上的辉煌并未转化为战略上的成功。斩首行动非但未让伊朗政权土崩瓦解,反而激起更猛烈报复,使美军遭遇自越南战争以来最惨重损失。这一反差尖锐拷问着智能战争的底层逻辑,以信息处理速度为核心的智能推演体系,或许精准计算了目标坐标与突防概率,却无法量化民族情感与战略韧性,更无法预判斩首行动引发的连锁反应。
更值得警惕的是,当Anthropic因拒绝解除AI自主杀伤禁令而遭封杀,当算法开始影响杀伤链的关键环节,在追求作战效率的同时,人类是否正在让渡最终的生死决定权?算法黑箱可能导致误判无法追溯,决策加速可能挤压人类的复核空间,自主武器可能模糊战争责任的主体。技术的狂飙若缺乏伦理的缰绳,所谓的战场优势终将反噬人类自身的安全根基。
此次事件对我国军事智能化建设具有重要启示。一方面,必须加快自主可控的军事大模型研发与部署,构建覆盖情报融合、态势感知、指挥决策的智能体系,避免核心技术受制于人。另一方面,在追求作战效率的同时,应确保人类对关键决策的最终控制权。未来大国博弈的焦点,不仅在于算力与算法的比拼,更在于能否在智能化浪潮中牢牢把握人与技术的主从关系,让技术始终服务于国家主权与人类安全这一根本底线。
大模型进展专栏由中国指挥与控制学会主办,大模型与决策智能专委会承办。大模型专栏联系方式:,欢迎投稿!