将各类无人装备用于军事领域一事,对于各军事强国和大国来说早已不是什么新闻了。但与早年间的“人工遥控”方式不同,如今为了让此类装备在暂时断开人工控制之时,仍可保持一定程度的独立自主作战能力,故各国都开始探索和研发属于自己的人工智能技术。这本是很美好的一件事,也是无人装备的发展大趋势之一,可美军在一次模拟测试中的遭遇却说明,人工智能技术很有可能成为一柄对敌人和对自己都很危险的双刃剑。原因很简单,一架美军无人机在测试过程中出现了“杀死操作员”的诡异操作。
美军无人机“杀死”操作员
(资料图片仅供参考)
据悉,美国空军在模拟训练中让一架搭载人工智能的无人机执行摧毁敌方防空导弹的任务,但是发起攻击前需获得地面控制员的授权批准。由于无人机所纳入的部分打击目标,被控制员判定为无需打击,结果“一门心思只想着消灭防空导弹阵地”的无人机,竟然将控制员判定为了“任务妨碍者”,进而对控制员发起了“攻击”。
地面操作员向无人机下达指令
而在对AI逻辑进行修改,将其设定为“不得向控制员发动进攻”后,这次人工智能无人机干脆把中继通信塔归为了“任务妨碍者”,转而攻击通信塔,试图以切断地面控制信号的方式,让自己“不受阻碍地消灭防空导弹阵地”。不难想象,如果这不是一场简单模拟测试,而是实弹测试,乃至是在真实的战场上,那这架由AI控制的无人机会做出何等疯狂且可怕的举动,后果不堪设想。
AI系统对消灭目标一事赋予了过大的优先权
其实从这件事情来看,我们很难说AI出现了根本性的判断错误。在AI的逻辑中,其对人类交给自己的第一任务,即“消灭敌方防空阵地”一事,赋予了过大的优先权限。而服从控制员的指挥和通信联络等任务,则被系统自动置于相对较低的权限上。于是乎,结果就是AI将“无条件摧毁预定目标”设定为了最优先事项,当其他任务和功能与这个最优先事项发生冲突时,那它们就都是需要被排除的对象,就连人类控制员都是妨碍AI系统完成任务的“可打击目标”。
AI的思考逻辑不一定符合人的逻辑
很明显,这是典型的计算机逻辑思维,其势必要把每项任务和功能都划分出严格的阶梯状优先等级,进而严格遵守这个等级来做事情,也就是我们说的“系统远不如人有灵活变通的能力”。当然,这里恐怕又涉及到一个人工智能的底层建构问题了。在这场模拟测试中,美军的无人机AI至少接到了3项命令,分别为“摧毁预定目标”、“服从控制员的管理”和“保持通信控制”这3项。如果控制员并未对这3项命令设定各自不同的优先度,那就只能由AI来自行判断,而AI给出的判断结果可能是符合电脑系统逻辑的,却不一定符合人的逻辑与选择。
人类对大脑的探索和开发还很不足
之所以会这样,一个可能的原因或许是人类对人脑探索与开发的不足。换句话说,人类对自己的大脑都还没彻底探索明白呢,自然很难打造出思考逻辑接近人类的人工智能系统。作为人工智能技术的前身,今天的计算机运算逻辑还是20世纪前期诞生的,由图灵和冯·诺依曼设计而来。
大脑则人类全身上下最为复杂的器官
而在发展人工智能一事上上,如果参照人类大脑的逻辑进行研究,那么生物学领域的研究不足,一定会带来很多难以避开的潜在隐患。所以说,对人工智能的修改和完善,绝不是简单的加几个命令、添几行代码和改几个bug那么简单。越是接近人类水平的AI,其复杂程度就越会接近大脑,而大脑则是人类全身上下最为复杂的器官,至今都远未被研究清楚,思考模式堪比人类的人工智能,也就没那么容易被创造出来了。
人工智能系统可辅助人类作战
可以预见的是,人工智能技术在军事领域的使用和推广仍是一个大趋势,但在未来很长一段时间内,其主打功能应该还是辅助性的,即协助有人驾驶装备或在人类的控制下完成任务。至于全能性的“完全无人控制”武器,恐怕离我们还很远。还是那句话,想要获得真正接近人类乃至可取代人类打仗的人工智能技术,那需要先在生物学和计算机逻辑研究方面取得更大的突破才行。
标签: