美IT专家预警:自动武器研发恐引发AI军备竞赛

参考消息
参考消息网9月4日报道 美国石英财经网站近日发表“新闻高峰之家”研究员、谷歌公司和“深层思维”公司前工程师安德烈亚斯·基尔希的文章《自动武器将成为不知疲倦的高效杀人利器,而且无法阻止》称,下一次世界重大军事冲突可能速战速决。血肉之躯的战士根本没有机会赢得胜利。无人机和机器人将打垮我们的防御系统,占领我们立足的土地。即使我们消灭部分无人机和机器人,更多无人机和机器人很快就会赶到并取而代之,再次训练有素地击败我们的还击。这并非遥不可及的反乌托邦幻想,而是即将成为现实的事实。
文章称,今年5月,谷歌员工为抗议公司帮助美军开发无人机人工智能能力而辞职。更近时日,2400名研究人员立誓绝不研制自动武器。很多人工智能研究人员和工程师不愿从事自动武器研发,因为他们担心自己的研发结果可能引发一场人工智能武器竞赛。
阻止自动武器诞生已无可能
我们如何制止此事发生?首选就是达成类似于不扩散核武器条约的协议,禁止研制自动武器。否则,出于道德原因而自愿放弃自动武器研制的有关各方将处于绝对劣势。
这是因为自动武器比血肉之躯的战士拥有很多优势。比如,它们不会疲劳,精确度更高,反应速度更快,可在人类无法生存的环境下作战,比如长期滞留沙漠地带。它们无需多年训练和培养,可以大规模生产。最坏的情形是被摧毁或损坏,而不是被打死打伤,无人为之哀悼或是要求把它们的遗体从战场运回来。
文章称,如果使用自动武器,也更为容易向公众解释军事作战的理由。由于进攻方的人员损失可以最小化,所以军队可以保持低调。美国和欧盟最近在利比亚、叙利亚和也门的作战行动就集中使用了无人机、巡航导弹等。没有此类武器的作战方处于明显劣势,军人不得不与机器人作战。
但是,即使所有国家都签署国际条约,禁止研制自动武器,就像它们曾经就不扩散核武器所签的条约一样,那也不可能阻止自动武器的诞生。这是因为两种战争模式存在天壤之别。
自动武器无法像核武器一样被限制
文章称,1958年达成的不扩散核武器条约有两大特征决定了条约效果显著:第一个特征就是部署核武器的准备时间比较漫长,因此其他签约国完全有时间对违约行为做出反应,实施制裁;第二个特征就是有效核查。但是,自动武器恰恰相反。
文章称,首先,它们的准备时间非常短:现在已经有了可用来制造自动武器的各种技术,并且正在公开独立研制。比如,坦克和作战飞机拥有大量传感器和摄像头,可记录正在发生的一切,飞行员已经可以通过计算机重新解读驾驶指令,从而与所驾驶的飞机交流。只要与人工智能结合,它们立即就能变成自动武器。
随着政府和私人实体投入的资金增加,人工智能研究正在取得越来越迅速的进展。毕竟,人工智能机器人不需要地面训练。
这就导致很难进行有效核查。自动武器所需的大部分技术和研究成果并不只用于自动武器。此外,自动武器发现人工智能的难度大大超过发现制造核武器的难度。人工智能机器人可在任何数据中心训练:毕竟,它们不仅仅是代码和数据,而现如今代码和数据可以轻而易举不留痕迹地移动和隐藏。大部分训练可在任何云服务器的模拟条件下进行,而对于外部核查人员来说,运行这样一套模拟程序似乎与预测明天的天气预报完全没有区别。
未来不可避免,责任不能回避
文章称,如果不具备这两大特征,条约就是一纸空文,毫无用处。签约国仍然继续公开研究通用技术,然后悄悄用于自动武器,几乎不可能被发现。它们深知其他国家很可能在做同样的事,放弃研制不是选项。
那么,我们该当如何?我们不能回避责任。自动武器不可避免。自动武器的进攻和防御用途都需要研究,我们必须发展并壮大威慑能力。不过,即使我们不能避免自动武器,我们也能防止自动武器用于平民,监督限制使用自动武器。
文章称,结局不会是幸福的,只能是我们去适应并接受。
【延伸阅读】“没有感情的杀手”!外媒称人工智能武器将比核武更危险
参考消息网7月18日报道 英国《明星日报》网站7月15日报道称,从SIRI(苹果公司在其产品上应用的一项智能语音控制功能)到自动驾驶汽车,人工智能正日益侵入我们的日常生活。
报道称,这项技术还可能会启动一场自主的武器军备竞赛,机器已经能够在没有人类干预的情况下自动选择和打击目标。
网络安全专家罗曼·扬波利斯基博士披露了人类是如何通过追求这项技术将自己置于灾难边缘的。
他解释说:“人工智能比核战争对人类构成了更大的危险。”
“核武器很危险,但是它们只是工具——一旦爆炸,就不再有另外的敌对关系。”
“然而,人工智能不仅是一种工具,而且是一种媒介——它处于一种持续的动态关系之中,而非是单一的危险局势。”
这名路易斯维尔大学的博士说:“人工智能能够在多个领域构成危险,而且可以动态地适应我们试图消除危险所做的一切努力。”
报道称,人们担心,一旦主要军事大国开始推进人工智能武器研发,一场全球性的自主军备竞赛将是不可避免的,这种技术轨道的终点是大规模生产的廉价的杀人机器。
报道称,一个超级智能的人工智能机器不可能展现出爱或恨这样的人类情感,人类也没有理由预期人工智能机器会有意识的仁慈或心怀恶意。
扬波利斯基博士描述了人工智能会构成危险的两种最有可能的情况:“机器想要获得权力或是类似的东西这种情况不太可能发生——更有可能发生的情况是,黑客和恐怖分子恶意使用,或是有人明确控制机器来执行此类任务。”
他说:“一种尤其需要关注的情形是,军方的人工智能机器遭到黑客攻击。”
报道称,另一个值得关注的问题是,人工智能原本被设定做某种好事,但是它为实现自己的目标开发出一种具有破坏性的执行手段。
例如,如果一个超级智能系统的任务是完成一项雄心勃勃的地球工程项目,其副作用可能是对生态系统造成严重破坏,甚至将人类试图阻止其的行为视为一种需要解决的威胁。
尽管有人仍对完全自主的人工智能机器是否能够真正实现持怀疑态度,扬波利斯基博士相信这将会实现,这也是越来越多科学家的共识。
他说:“这很可能会在我们的有生之年实现——大多数人的预测是2045年。”
斯蒂芬·霍金、埃隆·马斯克、史蒂夫·沃兹尼亚克、比尔·盖茨和许多其他科技大佬,最近都对人工智能构成的危险表示担忧。
资料图:俄军装配有机枪的作战机器人正在测试中(俄罗斯《莫斯科时报》网站)
(2018-07-18 12:30:25)
【延伸阅读】特朗普欲让美无人机增加致命打击 美媒关切误伤平民问题
参考消息网7月31日报道 据美国《国家利益》双月刊网站7月29日报道称,美国的无人机计划充满了神秘感,在特朗普政府领导下,这层神秘的面纱变得更加模糊,让人难以弄清楚美国无人机袭击的范围、强度与合法性,以及作出发动致命打击决定的组织框架。
报道称,特朗普政府显示出使用武力(包括武装无人机)推进美国的军事和国家安全目标的一贯决心。然而,这些持续的(有时甚至是高强度的)无人机致命袭击,似乎反映出政府正在弱化无人机计划的透明度和问责机制。
图为美国在巴基斯坦使用的无人机
据称,特朗普政府官员已采取或考虑作出几项变化,包括增加无人机袭击频率,扩大无人机行动的地理范围。此外,特朗普政府还把更多袭击决定权从白宫转移到军队。这包括降低在战区之外对恐怖嫌疑人采取致命行动的决策门槛,扩大中央情报局在发动致命打击时的作用等。这些变化导致无人机政策的约束减少,透明度变低,问责机制弱化。
此外,这些变化还是秘密进行的,使合法、负责地使用武装无人机实现美国的重大目标遭到更多质疑。如果不能提高美国无人机政策的透明度,加强问责机制,美国的国家安全利益、外交政策目标和商业机会都有可能遭到削弱。
报道认为,特朗普政府仍有时间为美国的无人机计划打造更为牢固的注脚。目前已经分别向特朗普政府和美国国会提出了修改无人机政策的建议,旨在确保无人机计划是透明、负责和可持续的,以维护美国海外行动的威信和合法性。
例如,美国人需要知道美国无人机计划是否正在实现美国的战略目标。仅仅说美国正在杀死更多恐怖分子是不够的。决策者需要更好地了解美国无人机计划的长期影响。此外,美国必须妥善承认并解决无人机袭击造成的平民伤亡问题。如果美国造成误伤,就必须承认并给予赔偿。
报道认为,美国人还需要了解美国无人机计划的政策、原则、标准或程序,对这些政策和程序的任何修改,都应由政府公示。美国还必须遵守人权和人道主义方面的国际法。这样做的同时,也为致命无人机的使用树立了合法先例。最后,国会还必须更好地履行监督职责,要求政府提高透明度,从而帮助美国的无人机计划走出阴影。
美国有机会在武装无人机方面发挥领导作用并制定合理、负责的政策。重视人权、法治和良好治理的无人机政策,不仅有利于保护美国国家安全利益,还有利于实现美国的外交政策目标和原则。
(2018-07-31 12:39:01)
【延伸阅读】美媒:美军研发自杀式无人机群 一人可掌控15架
参考消息网7月22日报道 美媒称,美国海军陆战队希望一名陆战队员就能掌控一群自杀式无人机(也称巡飞弹),这一计划旨在帮助提升在艰苦地区作战的前线部队的杀伤力和独立性。
据美国《军队时报》网站7月20日报道,美国海军陆战队希望让一名前线陆战队员掌控15架自杀式无人机。
报道称,海军陆战队作战实验室的火力项目官员马特·科尔纳基奥19日在一个媒体圆桌会议上说,这个计划的思路是,让一名操作员控制多达15架“操作员负担最小”的自杀式无人机。到目前为止,海军陆战队已成功测试了一名操作员一次控制6架无人机。
报道称,这种能巡逻飞行的武器具备多种能力,从无人机携带致命弹头,到摧毁敌方部队或车辆,再到能干扰敌方通信和防空的电子攻击载荷。
单兵操控这些无人机的这名陆战队员,实际上就成为他自己的近距离空中支援者和电子战操作者。
根据海军陆战队2018年航空计划,海军陆战队已经在计划为其RQ-21“黑杰克”无人机配备“无畏虎”II型反雷达能力载荷。
报道称,这种能力将大大增强在太平洋广阔海域活动的海军陆战队的独立性。海军陆战队将在分散于太平洋上的偏远岛屿或漂浮的船只上活动。
报道称,这是一种被称为“远征先进基地作战”的战斗概念,海军陆战队正在推行这一概念。
为了在这种战斗环境中生存下去,海军陆战队如果要躲避他国高科技弹道导弹和先进电子攻击的袭击,就需要具备移动、快速和轻装的能力。
这也意味着,有时一些小股陆战队员可能并不总是处于有人驾驶的美国飞机的攻击范围内,甚至不能控制其活动的空域。
但是,一群自杀式无人机要想发挥作用,就需要操作简便,以使陆战队员专注于战场,而不是一块平板屏幕。
报道称,为了方便操作,海军陆战队希望其未来的巡飞弹具备自动目标识别能力。
(2018-07-22 14:03:09)
【延伸阅读】美国防部顾问称须提防中国人工智能武器:中国军队已占优
参考消息网3月31日报道 新媒称,美国国防部军事创新事务顾问马尔库塞最近在华盛顿表示,美军别无选择,必须在军事人工智能武器发展方面与中国“硬碰硬”。
据新加坡《联合早报》网站3月29日报道,马尔库塞表示:“美国到今天也没有清楚说明要如何为了国家安全来主导人工智能领域,但中国已经做出表示了。”
马尔库塞本周在亚洲协会政策研究所举办的一次研讨会说:“中国宣布了在这一领域的投资,这是很庞大的经济投资……我不认为美国提出的国防预算反映了相同程度的紧迫性。”
马尔库斯表示,在未来战争中,如果要与用“机器速度”运作的对手竞争,美国就不能停留在“人类的速度”。他说:“如果美国想要留在这场游戏里,就别无选择。”
马尔库塞不愿将军事领域人工智能的技术竞争形容成一场军备竞赛,但是他表示:科技从来都在军事竞争中发挥核心作用。
马尔库塞还提到美国在这方面与中国相比存在明显不足。
马尔库塞认为,美国虽然设立了国防创新部门,但美国知识界和企业界的创新成果产业化、以及被军队采用的速度太慢。与之相反,中国“融合发展”的军事创新模式比美国更具优势。
他说:“在中国,这方面衔接流畅……美国企业与中国企业相比,美国有更大的优势;(但)美国军队和中国军队相比,情况就非常不同了。”
(2018-03-31 00:20:01)
【延伸阅读】外媒:机器人武器技术发展迅速 《终结者》剧情或成真
参考消息网10月10日报道 日本《日本时报》网站9月20日发表了彼得·阿普斯的题为《为即将到来的机器人军备竞赛做准备》的报道。
俄罗斯正在北约东部边界举行最新的“西方-2017”军演。数以万计的士兵正参与这场4年一度的大规模军演,这既是一场演习,也是向西方展示军力。下一次到2021年,这些军人可能要和一种不同类型的力量分享他们的战斗空间:无人驾驶无人机、坦克、舰船和潜水器。
无人机战争不是什么新概念——2001年10月,美国无人机在阿富汗发动了首次致命袭击。不过如今,这种无人驾驶系统在缺乏人工控制的情况下自动操作的能力正在快速发生变化。
这是一个真正革命性的转变——每一个大国都想占据领先地位。长久以来,批评人士担心各国可能更愿意让无人系统去参加战争。现在,有些人认为这样的风险是真实存在的,它可能会超出人类的掌控范围。
科技企业家伊隆·马斯克长期以来警告说,在人工智能方面,人类可能会面临一些灾难性的错误。他在上个月进一步警告说,自动武器平台的发展可能会引发潜在毁灭性的军备竞赛。
似乎是为了支持马斯克的观点,俄罗斯总统普京在之后不久向学生表示,他认为这种技术将成为改变游戏规则的东西。普京明确表示,俄罗斯将在这方面投入资源。媒体援引普京的话说:“这个领域内的领导者将成为世界的统治者。”
中国也在推进这方面的研究。一些专家认为,在研发自主无人机集群方面,中国现在是全球的领导者。
无人机已经能够实现独立飞行,一旦与人类飞行员失去联系的话,它们仍可以保持空中飞行。很快,它们也许能作出自己的战术决策。这个夏天在美国佐治亚理工学院,研究人员编制程序,让一些轻型无人机集群自己在空中进行混战。美军正在尝试类似的产品。
那意味着一名操作人员就能指挥许多许多无人机——或者说,这些无人机可能根本不需要人工直接监督。
在机器人技术上,比这些更重要的可能是人工智能的更广泛发展。这不一定会让战争变得更致命——从无人机上投放下去的炸弹本身不会比有人战机投放的炸弹更致命。尽管精确度提高可能会减少伤亡人数,但一些分析人士担心新型无人驾驶系统带来的变化可能会助长新的冲突。
今年7月,哈佛大学贝尔弗中心为美国情报界撰写的一份报告认为:“激进的技术变革会引发激进的政府政策理念。”报告警告说,事实可能会证明,一场“不可避免”的人工智能军备竞赛带来的冲击力并不比发明核武器小。
人工智能可以大幅提高监控技术的效率,单个系统也许可以监控数百万的数字对话、被入侵的个人设备和其他信息来源。其带来的影响是非常可怕的,特别是在少有或没有民主监督的国家手里。
最近在英国的一个小组讨论会上,英国特种部队前指挥官格雷姆·兰姆中将预计,到2030年技术突破——不仅仅是人工智能,还包括量子计算和其他技术——将带来完全不可预测的变化。他指出,特种部队小组很可能有与之配合的机器人和人工智能设备——美国陆军称之为 “有人/无人组队”。
这听起来像是科幻小说里的内容——或许看上去也像科幻小说里的东西。去年,俄罗斯公布了一款名为“费多尔”的人形超级机器人。大多数国家刻意隐瞒本国军队在人工智能上的发展,这最终可能会引发马斯克警告中所提到的军备竞赛。一些科学家已经在担心,阿诺德·施瓦辛格主演的电影《终结者》可能会在真实世界中上演。在这部电影中,美国把主要军事系统的控制权交到人工智能“天网”手里。(天网担心其人类创造者可能会选择将它关闭,所以立即对人类发起全面核攻击。)
就目前而言,西方国家看起来至少热衷于在“杀伤链”中保留人类的位置。不过并非所有国家可能作出这样的选择。长期以来,俄罗斯一直有着信任机器超过人类的名声,一度甚至考虑倘若俄罗斯的指挥结构被对方率先发起的攻击摧毁的话,就利用自动化系统来发射核武器(即“死亡之手”系统)。
在军队之外,有证据表明人工智能运算法则已经让它们的创造者感到惊慌不安。今年8月,脸书网站关闭了一个人工智能实验,因为实验中的智能机器人开始用人类无法理解的语言来相互沟通,造成项目失控。
这会是普通人类战士的结局吗?几乎肯定不会。甚至有人争辩说,更复杂的高技术战场可能需要更多士兵,而不是更少。
机器人系统可能易受黑客入侵、干扰,甚至通过电子战就能使其无法操作。在伊拉克,这样的技术使得以美国为首的部队能在很大程度上让IS极端组织使用的无人机失效。在乌克兰,俄罗斯使用类似的技术来对付西方生产的无人机。
武装部队——就像许多行业一样——押注自动化系统的趋势令人感到担忧。英国的新航母严重依赖自动化系统来管理武器装备和损坏控制。跟比它稍大一些的美国航母相比,其部署的船员只有后者的一小部分。俄罗斯的最新坦克——T-14“阿玛塔”主战坦克——装备了无人自动炮塔。这些技术具有明显的优势,但也意味着用电子设备来进行干扰可能会让它们变得毫无用处。
图为俄罗斯研制的“费多尔”人形机器人
无论其是好是坏,这种技术正在变成现实。事实上,即便是相对较老的军事装备也越来越多地被改造。俄罗斯的工程师向我们展示,他们可以对20年前的T-90坦克进行改造,以实现远程遥控。
具有讽刺意味的是,半岛危机提醒我们,最危险的技术可能仍然是70多年前发明的——核武器和运载它们的导弹。即便人类可以避开核武器带来的世界末日,即将到来的人工智能和机器人革命也可能给人类的生存带来同样严峻的挑战。(编译/杨雪蕾)
(2017-10-11 00:16:01)
【延伸阅读】机器人就像新式武器,现在需要新战术——访日本发那科公司德国分公司新闻发言人
新华社德国汉诺威4月25日电 专访:机器人就像新式武器,现在需要新战术——访日本发那科公司德国分公司新闻发言人
新华社记者袁帅
随着机器人技术不断推陈出新,制造业应探索如何将机器人技术创造性地应用在生产流程中,发展出全新的生产模式,日本发那科公司德国分公司新闻发言人伯恩哈德·福伊齐克24日在德国汉诺威工业博览会(汉诺威工博会)现场接受新华社记者专访时表示。
“机器人就像新式武器,”福伊齐克说,“现在新式武器有了,相关产业需要探索能将这种新式武器威力发挥出来的新战术。”
发那科公司1956年诞生于日本,是世界领先的数控机床、机器人等自动化设备生产商,其研发能力长期独步业内,广受称道。
记者走近工博会上发那科德国分公司的展台,远远就看到一款大型机械臂托举着一辆汽车上下移动。等走到跟前,只见二十多款机械臂机器人由小到大一字排开,蔚为壮观。
福伊齐克介绍说,发那科公司此次带来了用于搬运、装配等多种用途的几十款机械臂,最大一款可承受2300公斤的负荷,最小一款自重仅19公斤。其中最具前瞻性的产品包括一款使机器人操作和编程更为简便的机器人控制器以及协作机器人。新款机器人控制器改进了操作界面,借助内置的引导教程,首次操作者可以在30分钟内为机器人的简单操作编制程序。
目前常用的机器人在启动后,人员需要与其保持一定的安全距离。协作机器人则可以实现工人和机器人近距离协作,适用于零件搬运、装配等流程。由于其内部加装了传感器,机械臂在碰到人后会暂停,可以避免伤害到人。
福伊齐克说,今后机器人制造业的发展方向之一就是不断加强人机协作性。首先,机器人的操控与编程将会日益简便,5至10年后,通过手机应用程序操控机器人将成为普遍现象;同时,机器人的多任务适应性将得到发展,随着编程方式简化,机器人的工作编程易于修改,今后可在流程中迅速转换多种角色,承担多个岗位的工作。
谈及机器人技术的应用对于提高生产效率的意义,福伊齐克说,单纯讲提高生产效率还是次要的,更重要的是通过机器人技术,制造业可以改变生产流程和生产方式。未来能否发展出一套创造性的生产方法,对于企业的生存将会产生决定性的影响。
(2017-04-25 20:54:02)
举报成功