首页 > 军事 > 正文

霍金不建议六一儿童节的画 研制自主武器系统:人工智能会危害人类


更新日期:2018-06-06 19:05:03来源:网络点击:68457

(作者署名:虹摄库尔斯克)

斯蒂芬·霍金老爷子逝世的消息成为最近的大新闻。作为一个大半生都依靠人工智能(高智能轮椅)生活的思想家,霍金老爷子却在逝世前提醒人类——“小心人工智能”!

或许是一直与人工智能相伴,霍金老爷子才会说出肺腑之言,提醒人类。但是,各国却没有人听这个老者的话!为了在战争中取得优势,大力发展无人机、无人地面车辆、战斗机器人等在内的含有人工智能因素的致命性自主武器系统。

图片:霍金反对人工智能。

人类这是在给自己挖掘坟墓吗?

霍金的这句警告其实是一封公开信的签名。2015年7月一封要求停止研制具有杀人功能自主武器系统的公开信得到了2万人的签名,签名者主要是人工智能领域的专家以及其他对此话题颇为关切的人,其中就包括著名物理学家斯蒂芬·霍金以及苹果公司联合创始人史蒂夫·沃兹尼亚克。

图片:霍金在进行讨论。

所谓的致命性自主武器系统(LAWS),是指能够自主运作的军用机器人,也被称为自主性武器系统、自主性致命机器人(LAR)、战斗机器人或杀手机器人等。目前各国发展的无人飞行器、无人地面车辆、无人水面艇等能够自主运作的武器系统在某种程度上都属于LAWS的范畴。

而还有一些国家和研究机构在研制类似于科幻小说中“杀人蜂”那种微小型无人机,可以杀人于无形。这种武器一旦脱离人类控制,将对人类造成巨大的威胁。

图片:杀人蜂飞行机器人。

这或许要说一个问题——机器人伦理学!机器人能不能伤害人类。1942年,著名的美籍俄罗斯裔科幻作家艾萨克·阿西莫夫首次提出了机器人三定律。

第一定律:机器人不得伤害人类,或坐视人类受到伤害;

第二定律:除非违背第一法则,否则机器人必须服从人类的命令;

第三定律:在不违背第一及第二法则下,机器人必须保护自己。

此后,阿西莫夫又添加了一条定律:第零定律:机器人不得伤害人类族群,或因不作为使人类族群受到伤害。

图片:1936年苏联科学家研制的第一种机器人B2M,他的名称就叫“智能机器人”。

但是,现在的机器人发展已经完全舍弃了阿西莫夫制定的三大定律。除了产业机器人外,很大一部分机器人本身就是战斗机械,人类将其设计出来就是为了杀人!

而在战斗机器人的设计领域,美国和俄罗斯走在了前列。美国的无人机,俄罗斯的无人战斗车辆,都是广义上的杀人机器人,只是没有人的模样而已。日本在机器人产业方面也有独到之处。或许是日本人本性使然,特别热衷于研制人的外貌的机器人,还是美女机器人。这已经突破了机器人伦理学的范畴,未来可能直接威胁人类生存。

现在,战斗机器人已经广泛应用到实战中,在减少我军伤亡的情况下,杀伤了大量敌人。从这个意义上来说,战斗机器人是有很大作战价值的,但由于无法录入机器人三大定律,当这些机器人核心被侵入,或者是像“阿尔法狗”一样具有学习能力,自己开创智慧,那么不知道是人类之福还是人类的灾害!

霍金已经不能再给我们答案了!未来的道路需要人类自己去抉择!人类和人工智能的未来会是怎么样的呢?(作者署名:虹摄库尔斯克)


相关:

我海军发布震撼视频:特战队登船营救 海盗弃枪逃走3月14日,中国海军震撼大片《钢铁舰队驶向深蓝》发布,解放军报融媒体称多个画面系首次曝光。除了展示海军装备发展和战斗力生成新成就,该片还罕见地公布了海军护航编队在亚丁湾、索马里海域反海盗、武力营救被劫..

中国军工曾为歼10“降速”:高空高速战机是否已过时我国首型国产三代机歼-10向来强调高空高速截击能力,这与其立项之初,中国空军面对的国土防空环境有密切关系。不过从歼-10B战机开始,降低高速性能竟然成为中国军工“附带”考虑的重要问题。歼-10B和歼-10C战机相..

上一篇: 印尼用农产品换天价苏35 偏爱俄制战机有多方原因
下一篇: 美军B21轰炸机再曝新进展 新战术领先世界可猎杀航母