在好莱坞系列电影《终结者》中,人类面临被机器人灭绝的命运。而如今,电影中未来的场景成为了科学家们现实的担忧。今天(9号),联合国《特定常规武器公约》政府专家小组将在瑞士日内瓦召开会议,讨论"杀手机器人"可能带来的影响。五天之前,50多名世界知名人工智能和机器人研究人员宣布,将联合抵制韩国科学技术院,抗议该机构研发人工智能武器的计划。
韩国科学技术院研制的机器人曾经赢得2015年美国国防部高级研究项目局机器人挑战赛的冠军。据《韩国时报》报道,日前,韩国科学技术院和军工企业韩华系统合作成立研发中心,目的就是为了研发可以"无需人工控制就能搜寻并清除目标"的人工智能武器。
对此,50多名顶尖人工智能研究人员4号在公开信中说,他们将抵制和韩国科学技术院的任何合作,直到该机构宣布不会研发任何缺乏人类控制的自主武器。韩国科学技术院随后发表声明说,他们没有研发"致命自动武器系统或杀手机器人"的计划。
事实上,对于自主武器系统("杀手机器人"),人工智能界的专家学者频频说"不",拒绝进行相关领域的研发。美国五角大楼"梅文计划"始于2017年,旨在找到加速军方应用最新人工智能技术的方式。尽管五角大楼和谷歌都表示,谷歌的产品不会创造出无需人类操作者就能开火的自主武器系统,但超过3000名谷歌员工签名要求公司退出五角大楼人工智能军事计划。谷歌员工在公开信中说,参与"梅文计划"将对谷歌的品牌和人才吸引力造成不可挽回的伤害,谷歌不应卷入战争,谷歌及其合约商永远不应该发展战争科技。
在2017年人工智能国际会议上,有硅谷"钢铁侠"之称的马斯克、苹果联合创始人之一沃兹尼亚克、研发"阿尔法围棋"的深度思维公司哈萨比斯等人,都曾签署公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和"杀手机器人"。
人工智能界的专家学者及防务分析人士认为,虽然机器人暴动仅是科幻小说式的终极噩梦,但人类目前也有亟须担忧和讨论的现实问题--军事机器人革命带来的伦理、法律及政策等问题,尤其是自主武器能否自行判断杀敌与否。
从冷兵器时代到如今的核武时代,使用致命武器时,人应当是负责启动的关键要素。但在人工智能军事化领域,对什么样的人工控制才是最适宜的讨论还未结束,相关的政策制定又已经被人工智能技术的飞速发展甩在身后。随着具有认知能力人工智能系统的出现,更复杂的问题出现了。
新美国基金会研究人员、防务政策分析人士辛格在其著作《连线战争:21世纪机器人革命和冲突》中指出,地缘政治、知识前沿领域不断前进的动力甚至是追求利益的科技企业,都是人工智能发展不可阻挡的力量。简单来说,大部分人现在最感到恐惧的是该不该让能够"思考"的人工智能系统决定是否杀人。
新美国安全中心技术和国家安全项目主管沙雷表示,自主武器系统可能因代码问题或黑客攻击而失灵,机器人攻击人类部队,人类无法作出反应或局部局势迅速升级的情况都有可能发生。自主武器系统的可靠性难以测试,会"思考"的机器系统可能以人类操控者从未想象到的方式行事。
但美国国防部前副部长米勒认为,自主武器系统在战事激烈的地区执行任务,让机器全权负责的诱惑可能会难以抵制,技术上的可能总是让人们作出利于形势的选择。
(编辑:陈钦)
剑网行动举报电话:12318(市文化执法总队)、021-64334547(市版权局)
Copyright © 2016 Kankanews.com Inc. All Rights Reserved. 看东方(上海)传媒有限公司 版权所有
全部评论
暂无评论,快来发表你的评论吧