懂能帝首页 懂能帝首页
|
首页能源头条推荐资讯详情

乌克兰囤2.5万台机器人,战争逻辑正在改变

2026-04-22 18:04
发布者:冬天的蝉
来源:冬天的蝉
标签:乌克兰机器人战场人形
1
0
6
分享

近日,乌克兰国防部宣布,将在2026年上半年订购25,000套地面机器人综合体 (GRC)。相当于2025年全年需求的2倍。乌克兰国防采购署已与制造商签署了19份合同,总价值达110亿格里夫纳,计划实现后勤完全自动化。

这可不是我们想象的,一群人形一样的机甲战士,在战场上相互厮打。乌克兰采购的,是一类履带式、轮式的小型地面机器人,它们的核心能力不是“自主作战”,而是通过稳定通信,实现人类的远程操控。

也就是说,乌克兰采购的机器人,虽然被投入战场,但是替代的是人类“执行”的环节,并非“决策”环节。

但随着AI不断提升机器人的智能化水平,未来更高自主性的机器人进入战场,已是一种可以预见的趋势。当机器人在战场不仅只做“执行”,还可以参与做“决策”的时候,如何保证机器人不会“滥伤无辜”?

乌克兰成机器人战争“试炼场”

具体来看,乌克兰采购的地面机器人综合体 (GRC)不是单一的机器人,而是一整套可用于地面作战的无人机器人系统,它可以用来替人上前线完成高风险任务,比如运送弹药、医疗物资甚至拖运伤员。

它分为三个部分:

第一部分,是无人地面载体(UGV),也就是机器人本体,主要的形态是履带式和轮式,其中履带式最常见,适合泥地、战壕等不平整的地面行驶。UGV主要用于运送弹药和物资,做一些排雷的工程作业。

第二部分,是控制与通信系统,这套系统的核心是实现即便人类不在现场,也能远程看见并遥控机器人,包括遥控终端、加密通信链路、视频回传系统等。

第三部分,是任务模块,它主要决定机器人能做什么,比如武器模块、排雷设备、侦查传感器等。

之所以在这个时间点,用上亿美金采购机器人设备,有两层原因。

一是现实压力。长期战争消耗下,乌克兰面临的是人力的持续流失,尤其是前线所需的年轻劳动力越来越紧缺。在这种情况下,用机器替代人进入高风险环节,不再是选择,而是必然。

二是战场反馈。乌克兰方面近期披露的一次行动,进一步强化了这一判断。

4月中旬,乌克兰总统泽连斯基宣布,乌军在一次战斗中,仅依靠地面机器人和空中无人机攻占了俄军阵地,未投入步兵力量。按照官方说法,“俄罗斯士兵在面对无人车辆时投降,乌克兰方面没有损失”。

面对无人车辆大军,俄军士兵投降了

尽管这一战的细节尚未完全公开,也缺乏更多独立验证,但至少说明一点:

机器人已经开始进入“替人上前线”的阶段。

据总统称,过去三个月里,乌克兰地面机器人已在前线执行了超过22000次任务。意味着,它们不再是试验性装备,而是被反复调用的前线工具。

在资金层面,这一体系具备现实基础。

欧美以军事和财政支持形式进入乌克兰国家预算,间接支撑国防开支;政府再通过采购体系转化为具体订单。与此同时,像Come Back Alive等民间组织通过众筹补充无人机等前线需求,形成一种以国家资金为主、民间补充的混合供给结构。

乌克兰的意义不在于“第一次使用无人装备”,而在于第一次把无人系统打成规模化、体系化的战争能力。乌克兰战场就是现代各类装备的试炼场。战争持续打下去,很有可能成为机器人最先成熟的应用场景。

当未来机器人替代战场上的士兵之时,战争的瓶颈,也就从“拼人命”变成“拼产能”。

那么,当机器人替代人力,战争或许变成一场生产竞赛。

AI和机器人,边界应该在哪里?

说起机器人上战场,让我想起我们前几天一篇关于人形机器人马拉松(《人形机器人跑半马,得了第一,又能怎样?》)的文章。

当时评论区有网友提出过一个问题:“机器人要它跑这么快干什么?追求速度的话,完全可以买辆车。”

另一个网友开玩笑道:上战场!

当然,这件事情也并不是完全开玩笑,毕竟前几年很火的四足机器狗,如今已经在很多部队实现了列装,那么,人形机器人,未来也有可能走上战场吗?

相信很多人心里都是有答案的。

这也让我想起一部2015年发布的阿根廷动画短片《Uncanny Valley(2015)》(中文:恐怖谷),其大概意思一群人沉迷于高度拟真的VR射击游戏:在游戏中,他们在废墟战场中执行任务、消灭“怪物”,一切看起来不过是刺激的娱乐。

图片来自电影《恐怖谷》

但随着游戏出现故障,画面细节逐渐失真,主角逐渐意识到,他们所处的并非虚拟世界,而是通过远程操控人形机器人的方式,参与一场真实的战争。因此,那些被击杀的也并不是怪物,而是另一个国家的普通人——有女人、有孩子、有保卫家人的男人......

他发现,所谓“游戏”,其实是一场被包装过的入侵与屠杀。

在这个短片末尾,主角接受不了这个事情,通过在游戏中自杀的方式回到了现实,但等待他的,是一队荷枪实弹的人形机器人......

结合今天技术发展现状来看,这部短片最重要的一个启示其实是,技术应该有边界。

如今,AI大模型早已经被用到了军事领域。

据华尔街日报报道,美军中央司令部明确表示,在美伊战争中,AI“每天都在用”,主要用于处理海量情报、加快决策。

这里就不得不提到最近发生的另外一件事情。

今年(2026年)二月份,美国军方将Anthropic纳入“供应链风险”名单,原因是Anthropic拒绝接受五角大楼提出的条款:涉密环境下,AI模型应可用于“所有合法用途”,不得被“政策约束”限制军事应用空间。

而Anthropic却始终坚持两条“红线”:

第一,AI模型不得用于美国国内大规模监控;第二,AI模型不得用于完全自主武器系统(即无需人类授权即可开火的武器)。

在这件事情中,Anthropic因为拒绝五角大楼而被美国军方“封杀”,但也获得了美国民众的大力支持;与Anthropic相反,在Anthropic与美国军方谈判破裂后,仅仅几个小时,OpenAI就与五角大楼达成了协议,当然,相应的,OpenAI也收到了美国民众的抵制。

所以,其实到今天,我们应该如何给AI、给机器人的使用设定一个界限,已经是一个重要且迫在眉睫的问题。

现在国际社会针对这一点的讨论也十分尖锐,世界上不同立场的人们也都有自己的主张。

这里面,最著名的反对派是现任联合国秘书长古特雷斯,他认为:“在没有人类控制的情况下,机器拥有决定人类生死的权力,在政治上不可接受、在道德上令人厌恶,而且应该被国际法禁止。”

红十字国际委员会主席斯波利亚里奇的观点要温和一些,她主张通过国际法来规范致命自主武器系统,核心是保留人类对武力使用的控制。即重点不是抽象的反AI,而是保住人类的“控制权”。

在欧洲,欧盟的观点一直比较谨慎,他们认为国际法完全适用于这类系统,而且在可能的发展和使用过程中,必须有适当的人类控制。

核心就是,发展可以,但是要先立规矩。事实上,欧盟也是世界上最早推出《人工智能法案》的地方,这项法案已在2024年8月生效。

欧盟《人工智能法案》中的AI风险等级金字塔

作为对比,美国在这方面的观点更加开放。

他们担心,过度的监管限制AI的发展。比如现任美国副总统万斯就在2025年巴黎AI峰会上的表态:如果用繁重监管去限制AI发展,不仅会不公平地利好既有巨头,还会让最有前景的技术之一陷入瘫痪。

但在美国军方,特别是作为AI在战争场景中的实际使用者,他们的态度还是相对克制,他们虽然主张不能“一刀切”限制AI,也应该保留“人类判断”和坚持“负责任使用”。

美国国防部3000.09指令写得也很清楚:自主和半自主武器系统要让指挥官和操作员对武力使用保持“适当水平的人类判断”,还要经过测试、验证和高级别审查。

但问题恰恰也在这里。

无论是联合国、欧盟,还是美国军方现有的表述,本质上都还停留在“如何管理技术使用”的层面:哪些场景能用、谁来授权、出了问题谁负责。

可当机器人和AI越来越深地进入战争系统,仅靠流程、审查和指令,或许还不足以回答那个更根本的问题——我们究竟应不应该把“决定伤害谁、杀死谁”的权力,一步步交给机器。

图片来自《爱,死亡和机器人》

也正因为如此,人类今天面对的,已经不只是治理问题,而是一个更古老的伦理问题。

早在20世纪40年代,美国著名科幻作家就提出了机器人三定律:

机器人不得伤害人类,或坐视人类受到伤害;

机器人必须服从人类命令,除非该命令违反第一定律;

机器人必须保护自己,除非这与第一或第二定律冲突。

那么今天,当机器人距离人类的生活已经近在咫尺,我们有给AI、给机器人设定这样的“三定律”吗?

谁又掌握着这个潘多拉盒子的钥匙呢?

3000.09指令:美国军方2012年出台的一项正式指令,主要目的是给“AI和自主武器”划的一套内部规则底线。

声明:以上信息仅代表发布者自身观点,并不代表本平台赞同其观点,也不代表本平台对其真实性负责。

大家都在看

广告
评论 0
网友评论仅供其表达个人看法,并不表明平台立场。
全部评论
懂能帝AI助手
服务商入驻
服务商入驻
资讯投稿
资讯发布
视频发布
视频发布
在线客服
平台客服