2026年2月28日,伊朗最高领袖哈梅内伊在德黑兰遇袭身亡的消息震惊世界。一时间,“美军用AI杀掉哈梅内伊”的说法甚嚣尘上,仿佛科幻电影《终结者》中的场景在现实中上演。然而,深入剖析这场军事行动背后的技术细节与战略博弈,会发现所谓“AI自主斩首”更多是神话与现实的交织,背后隐藏着深刻的战争伦理危机与全球安全挑战。

神话的破灭:AI并非“斩首”主谋
尽管多家媒体渲染美军在行动中深度依赖AI,但多方证据表明,AI并未直接“扣动扳机”。美国中央司令部承认,最终锁定哈梅内伊目标依赖的是“中情局长达数月的人力渗透和确凿情报”,而非AI自主决策。Anthropic公司开发的Claude模型虽被用于情报评估、目标识别和战斗情景模拟,但其作用更多是辅助分析——通过处理海量波斯语信息、筛选有效线索、辅助定位高价值目标,而非直接下达攻击指令。[page]
例如,在追踪哈梅内伊行踪时,AI系统整合了卫星影像、无人机侦察、通信记录等数据,通过模式分析推测其可能的行动路径,但最终确认目标仍需人工核验。这种“人在回路”的设计,正是为了避免算法失控。正如美国空军官员所言:“机器生成建议的速度比传统方法快了90%,但人类始终保留最终决策权。”