← 首页
安全

AI军事新突破:Scout AI融资1亿美元,训练士兵操控无人舰队

AI军事初创公司Scout AI近日完成1亿美元融资,专注于开发AI智能体,使单兵能控制多辆无人战车。本文作者亲访其训练基地,揭秘AI如何改变未来战争形态,并探讨技术伦理与军事应用的边界。

在当今AI技术飞速发展的时代,军事领域正成为其最前沿的实验场。近日,由前美军特种部队成员Coby Adcock创立的Scout AI公司宣布完成1亿美元融资,这笔资金将用于训练其AI模型,旨在让单个士兵能够控制整个无人战车舰队。我们受邀参观了其位于美国某地的训练基地,亲眼见证了这项技术的潜力与挑战。

从特种兵到AI创业者:Coby Adcock的愿景

Coby Adcock并非典型的硅谷创业者。他曾在美国陆军特种部队服役,经历过多次实战部署。退役后,他敏锐地意识到,现代战争中最致命的威胁之一——简易爆炸装置(IED),往往需要士兵冒生命危险去排查。这促使他思考:如果AI能接管这些危险任务,士兵的生命安全将得到极大保障。

“我们不是在取代士兵,而是在增强他们的能力,”Adcock在采访中表示,“AI智能体可以处理侦察、警戒、火力支援等任务,让人类指挥官专注于战略决策。”Scout AI的核心技术是一套基于强化学习的AI系统,能够通过模拟训练和实际场景学习,实现多平台协同作战。

“我们的AI不是在模拟战争,而是在学习如何赢得战争。”——Coby Adcock,Scout AI创始人

训练基地探访:AI如何学会“打仗”

在位于美国西南部的一个秘密训练基地,我们目睹了Scout AI的实战演练。场地模拟了城市战、山地战和沙漠战等多种环境。数十辆无人地面车辆(UGV)和无人机(UAV)在AI调度下,执行搜索、包围和火力压制任务。一名士兵通过手持终端,即可指挥整个编队,无需每辆车配备独立操作员。

训练的核心是AI的“决策速度”。在模拟对抗中,AI系统能在0.3秒内分析战场数据并调整战术,远超人类反应时间。但Adcock强调,AI并非完全自主:“我们设定了严格的‘人类在环’机制,所有致命决策最终需由指挥官确认。”

行业背景:军事AI的军备竞赛

Scout AI的融资并非孤立事件。近年来,随着俄乌冲突和中东地区冲突的持续,各国对AI军事化投入激增。美国国防部已启动多个AI项目,包括“马赛克战”和“联合全域指挥控制”(JADC2),旨在实现跨军种AI协同。与此同时,中国和俄罗斯也在加速军事AI研发,形成新的技术竞赛。

然而,军事AI的伦理争议始终存在。2024年联合国“致命自主武器系统”讨论会上,多国呼吁禁止完全自主的杀伤性AI。Scout AI的“人类在环”模式被视为折中方案,但批评者认为,即使有监督,AI的决策偏差和误判风险仍不可忽视。

编者按:技术双刃剑下的思考

Scout AI的1亿美元融资,标志着军事AI从概念走向实战。一方面,AI确实能减少士兵伤亡,提升作战效率;另一方面,当AI控制武器系统,战争的“门槛”可能降低,误判和冲突升级风险随之增加。技术本身无善恶,但应用场景和监管机制至关重要。未来,我们或许需要更透明的国际规则,确保AI服务于和平而非毁灭。

本文编译自TechCrunch