2017-11-20
来自世界各国的代表于11月18日举行会议,讨论联合国常规武器公约(CCW)的武器系统问题。会议热门话题之一是22个国家要求彻底禁止发展和使用自动化武器,也称为“杀手机器人”。
大会召开之前,数百名人工智能(AI)和机器人领域的专家联合向世界领导人发信,敦促他们支持禁止自主武器。
OpenAI的创始人兼特斯拉和SpaceX的首席执行官伊隆·马斯克也一直在推动对自主武器开发的监管。
这次会议可能低效。他们主要为未来的谈判建立框架,正式谈判可能在明年的某个时候发生。
“停止杀手机器人运动”全球协调员玛丽·韦尔汉姆告诉法新社记者:“各国没有时间浪费在谈论这个问题上。”
她说,军方和国防公司已经投入巨资将这些武器变为现实。
会议主席印度裁军大使阿曼迪普·吉尔(Amandeep Gill)试图制止这个问题的炒作:
“女士们,先生们,我有消息告诉你:机器人并没有占领世界。人类仍然在在掌控。”
他大声说道:“我们必须小心,不要让这个问题变得情绪化或者戏剧化。”
由于“停止杀手机器人运动”的推动,促进了会议两个方面的协议:
大多数国家赞同,我们需要一个控制这些技术使用的“具有法律约束力的文书”。
而且大多数国家都必须对武器系统进行某种形式的人为控制。
自主武器将对战争发生的方式产生深远的影响,一些国家,特别是军事预算较小的国家,要求加强监管。
澳大利亚新南威尔士大学的人工智能专家托比·沃尔什(Toby Walsh)对记者说:“这些将是大规模杀伤性武器。我确实相信我们会禁止这些武器......我唯一担心的是,现在是否有勇气有信心这样做,是否会先等死了人再静止。”
针对马斯克等人的来信,英国已经决定全面禁止自主武器。英国国防部9月份宣布了这一消息。
但是马斯克对人工智能未来的担忧并不是简单的针对武器应用,他认为对人工智能的发展总体上应该受到密切关注和管理:“我认为任何对公众构成威胁的事情都至少应该得到政府的认可,因为政府的任务之一是公共福利。”
确保这些技术的巨大潜力,促进全人类真正好的方式发展才是正路。
不过阿良以为,结果可能是比较悲观的。只要全世界没有得到统一,不同国家之间,因为猜疑链的存在:你不发展,别人发展,你势必吃亏,谁也不能确保别人不会偷偷发展,最后是大家都公开或偷偷发展。卑鄙是卑鄙者的通行证,高尚是高尚者的墓志铭。所以最终结局,难以预料。人类必须形成统一的星球意识及形式,才能避免未来的灾难后果。
SOURCE:阿良 星际联播
http://mp.weixin.qq.com/s/uvYs8QTS-J3wzgLlXeMp6g
(图文來自网络,版权属于原創)
留言列表