除了物理战场的碾压,认知域成为了AI武器化的另一主战场。冲突伊始,社交媒体上便涌现出大量逼真的深度伪造(Deepfake)内容。一段显示伊朗最高领袖哈梅内伊在掩体中发表“最后讲话”随即遭遇斩首的视频,在短短数小时内便获得了数亿次播放,极大地动摇了伊朗国内的军心民心。与此同时,关于美军基地遇袭的虚假画面也在网络上疯传,试图在国际舆论场制造混乱。这些由生成式人工智能(AIGC)批量制造的虚假信息,真假难辨,传播速度远超官方辟谣的速度,使得战争在开打之前,便在心理层面分出了高下。这种“后真相”时代的认知战,让“眼见为实”成为了历史,信息防火墙的构建变得前所未有的艰难。[page]
此次美伊之战还暴露了算法主导战争带来的伦理与法律困境。当生杀大权的建议权交给冷冰冰的代码,当打击目标的排序由数学模型决定,战争的责任归属变得模糊不清。如果AI系统因数据偏差或算法漏洞导致了平民伤亡或误击第三方目标,责任应由开发者、操作者还是批准使用该系统的高层承担?现有的国际人道主义法与战争公约,显然是基于人类道德判断与决策能力制定的,面对这种全域混合、算法加速的新型战争形态,显得滞后而无力。