游戏传奇首页
游戏我的天下首页
最好看的新闻,最实用的信息
03月29日 15.3°C-20.4°C
澳元 : 人民币=4.7
悉尼
今日澳洲app下载
登录 注册

当人工智能走上战场,“苏莱曼尼事件”或成常态

2020-08-15 来源: DeepTech深科技 原文链接 评论0条

当地时间 2020 年 1 月 3 日凌晨,时任伊朗伊斯兰革命卫队少将,卡西姆 · 苏莱曼尼于伊拉克巴格达国际机场被美军使用无人机刺杀身亡,时年 62 岁。

当人们都在关注世界局势的未来走向时,一家专注于将人工智能技术应用到军事领域的公司——摄星智能科技有限公司(下称:摄星智能)却从专业角度出发,对整个刺杀过程进行了模拟复盘,尝试将人工智能技术加入到整个刺杀行动当中。

假如 “人工智能” 参与刺杀

需要说明的是,以下内容仅是摄星智能公司的推演,不代表美军真的使用或未使用这些技术。

1. 情报获取

美军将从其谍报网(线人、信号情报、网络情报)获取的信息汇总到 AI 系统,通过技术手段进行甄别、筛选,最终得出结论:苏莱曼尼将于 2020 年 1 月 3 日 1 时左右抵达巴格达国际机场。

2. 战法制定

以 “斩首” 苏莱曼尼为目的进行策略生成。

因为事发地点位于伊拉克,属美军势力范围,所以可以直接从科威特基地(距事发地点 530 公里)派出无人机进行事前的侦查行动,配合卫星数据进行拟态环境构建,确认“战场约束空间”。

当人工智能走上战场,“苏莱曼尼事件”或成常态 - 1

图 | 拟态环境构建

使用 AI 系统分析敌我、战场信息,根据预定时间制定具体的策略,包括出发时间、无人机型号、数量、分工、搭载弹量以及路径规划等等。

3. 方案执行

无人机于预定的时间到达指定地点,实时监测战场环境变化(温度、风力、亮度等),根据内线和生物识别等手段确认苏莱曼尼位置,并锁定其乘坐汽车。

通过 AI 系统实时生成计算无人机导弹发射策略,包括发射时间、角度、导弹数量等。使用人工智能技术协同激光制导、毫米波雷达制导,实施精准打击。

当人工智能走上战场,“苏莱曼尼事件”或成常态 - 2

图 | 苏莱曼尼所乘坐的车辆,可以看到车头部分完好,导弹精准命中了车身

4. 效果评估

AI 系统控制无人机再次勘察现场,如出现生命迹象则再次实施打击,确认目标死亡之后自动返航,顺便生成一份详实的行动报告,包含了对关键行为的解释和影像声音记录等。

整个推演过程,人工智能深度参与到了整个 OODA 循环(观察、调整、决策、行动)之中,它不带任何感情地完成了交代的任务,就像送了一次快递。

略显 “骨感” 的现实

摄星智能 VP 张亚琦对 DeepTech 补充道,目前人工智能还未被赋予如此强大的自主性,以苏莱曼尼事件为例,制定战法、最终决定发射导弹的还是人类。并且初步判定执行本次任务的 MQ-9 无人机也是通过人为远程遥控的方式控制。

当被问及人工智能技术应用在军事领域有何特点时,她这样说。

“军事领域所使用 AI 技术的内核同民用相比并没有本质区别,但 AI 想要在军事领域成功应用,所面临的挑战更多,要求更高”。

一方面,在军事领域没有那么多的数据可以供给模型训练。比如当只有几张模糊的图片时,如何提高识别的准确度是非常重要的工作和很大的挑战。

另一方面,应用在军事领域的人工智能所面对的是更加复杂的应用场景。以自动驾驶为例,民用的自动驾驶技术无非解决安全行车的问题,约束空间很小。但军用自动驾驶,要涉及到更多维度的决策,抛开更加恶劣的自然环境不说,军车中 AI 能分辨敌我是最起码的要求。

再有,战场自古充满了尔虞我诈,必然会产生侦察和反侦察的问题。军事领域的人工智能必须具备伪装和甄别伪装能力。假如,我方情报人员得到一份敌方基地的视频,里面显示的军事部署对作战极为关键,CV 技术应该有能力去识别该视频的真假。

最后,由于军事的特殊性,人工智能犯错的成本极高,这不是民用能够相提并论的。总的来说,民用领域的 AI 是大数据,小应用。但军用领域是小数据,大应用。

当人工智能走上战场,“苏莱曼尼事件”或成常态 - 3

图 | 击杀苏莱曼尼的无人机 MQ-9

以上,是人工智能在信息获取方面的技术特点,而在信息加工如决策方面,人工智能目前还比较弱。

张亚琦说,由于人工智能技术真正兴起时间尚短,所以我国积累的真实作战数据几乎为零。而想要让人工智能参与到决策之中,需要海量的数据进行训练。

举个例子,在实验室中,我们可以设定有限的边界,然后给出相应的参数,计算机可以给到我们满意的结果,类似于红色警戒等策略型游戏中的 AI 模式。

但现实是非常复杂的,战场也是瞬息万变,一方面武器装备不可计算,另一方面人 / 人心更不可计算,我方不可计算,敌方更不可计算。以目前的水平,计算机所能给出的战法其实仅供参考,只有当战场棋盘上的所有棋子都支持 AI,计算机才能给出最优解。而这种情况的出现,需要现有科技水平有一个质变。

当人工智能走上战场,“苏莱曼尼事件”或成常态 - 4

图 | 摄星智能 VP 张亚琦

2019 年发布的《人工智能安全标准化白皮书》中得出了同样的结论:

当前人工智能产生突破的领域主要是专用人工智能,即弱人工智能。它缺乏自主意识,不能真正实现概念抽象、推理决策和解决问题。

人工智能正处于 “不能实用” 到“可以实用”的技术拐点,距离 “很好用” 还存在可解释性、泛化、能耗、可靠性、鲁棒性(健壮性)等诸多瓶颈。

“人工智能”+ 武器

目前,在将武器智能化这条路上,已经引发了大国间的军备竞赛。

这类武器一般称为自主武器,也称“杀手机器人”,指在无人干预的情况下独立搜索、识别并攻击目标的一种武器。能够拦截来袭导弹、炮弹的防御类武器可以看作自主武器的雏形。

读到这里,也许你的脑中会浮现出一些科幻片中的角色,如变形金刚、终结者、奥创等等。

当人工智能走上战场,“苏莱曼尼事件”或成常态 - 5

图 | 奥创

但现实中,碍于种种因素,这些杀手机器人的样子可能并不像人,但杀起人来毫不逊色。

对于自主武器,国际上存在很大的争议。

美国陆军训练及战略思想司令部长肯尼斯 · 罗斯列举了自主武器的优势:“机器不会劳累,它们不会闭眼,不需要在下雨时躲在树下或和朋友交谈…… 人类在 30 分钟后注意力就会急剧下降,但机器从来不会感到害怕”。

从技术角度来说,有朝一日的确可能设计出一种自主武器系统,它能够完全遵守攻击中的区分、比例和预防原则。并且由于机器人不会受到情绪或个人利益的影响,自主武器在战场上也许能够比人类更道德和更审慎。

但显然并不是所有人都认同其观点。

2018 年 5 月,Google 员工得知公司正与美国国防部合作,决定向一个名为 Maven 计划的军事项目提供人工智能支持。为表抗议,近 4000 人联署请愿书,多人辞职,他们认为:这些致命的工作应该交由人类,而不是算法。此后不久 Google 发布了 AI 七原则,宣布放弃将 AI 技术用于致命性武器。

2018 年 7 月,特斯拉 CEO 埃隆 · 马斯克领衔 2000 多名 AI 专家签署了一项协议,该协议的核心目的只有一个:承诺永不发展致命的 AI 武器系统。

2019 年 3 月,联合国发起了一项在法律层面 “禁止全自主武器” 的讨论,但包括俄罗斯、美国、英国、澳大利亚、以色列在内的五国政府均反对这一提案。

致命的吸引力

尽管国际舆论禁止自主武器的声音不绝于耳,但开发自主武器所带来的好处却让个别国家难以割舍。

假如一支步枪,每秒钟可以发射 10 发子弹。那么它由人类控制和 AI 控制将完全不具备可比性,AI 一秒内可以朝 10 个不同的方向分别开一枪,并且精准命中。而人类……

对于 AI 来说,这不过是一场游戏,而对于人类来说却是流血牺牲。

想象一下有机器士兵参与的未来战争吧。

他们是训练有素的士兵,是最高效的杀人机器,是最负隅顽抗的敌人他们没有父母妻儿,没有伦理观念,他们无须动员,是最纯粹的战士他们去中心化,任何单兵都能成为临时的指挥,想要打倒他们必须全部消灭

当这样一群杀人机器出现在科技水平没那么高的敌人面前,会发生什么呢?未来可能不会再有枪战、炮战、白刃战了。因为一切 “传统热武器” 在 AI 面前都不得不屈服。

AI 武器如此重要,没有国家愿意被落在后面,既然无法全面禁止,就只能选择全面开发。

美国兰德公司一份 2018 年的报告中举了一个例子,认为 AI 技术的发展甚至可能动摇大国之间的核战略平衡。

例如,一个国家要发展出定位和锁定敌方所有核武发射器的能力,在技术上极具挑战性,但这项能力却能产生出巨大的战略优势。

这个例子中针对核武的实现难度可能较高,但如果将 “核武” 换成敌方防御薄弱军事设施或作战部队,这不仅是一个可行方案,而且是多少国家梦寐以求的能力。

不管如何,人工智能技术的发展早已引发了新一轮的军备竞赛,并且其成果将在下一次大范围战争中展露。

最后,给大家看一段来自 Corridor 恶搞波士顿动力的视频,能同人类并肩作战的机器人,离我们或许并不遥远。希望技术的进步能为人类带来福祉,而不是毁灭。

关键词: 军事
今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(0)
暂无评论


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们

分享新闻电话: (02) 8999 8797

联系邮箱: info@sydneytoday.com 商业合作: business@sydneytoday.com网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:news@sydneytoday.com

友情链接: 华人找房 到家 今日支付Umall今日优选