据美国有线电视信息网和其他媒体报道,人工智能专家日前表示,将共同抵制韩国研究如何采用人工智能武器的研究型大学。
韩国理工大学( Koreadvance Dinstitute OFS Cience And Technology )在今年年底之前建立了希望开发基于人工智能的导弹、潜水艇和四轴飞行器的研究中心。
据《财富》杂志报道,50多名专家在一封公开信中谴责了这项技术研究。
专家在信中写道,在讨论联合国如何控制自动武器对国际安全保障构成的威胁时,不幸的是,像kaist这样有名的机构正在为开发这类武器而加速军备竞赛。 因此,我们公开表示,在kaist社长提供担保之前,我们将抵制与kaist任何部门的合作。 也就是说,该中心不会开发缺乏人类控制的自主武器。
这封信的签名者说,基于人工智能的武器将引发现代战争中的第三次革命,要阻止这一点并不容易。
信中指出,他们将以前所未有的速度推进战争,规模将比以往任何时候都要大。 他们有可能成为恐怖武器。 暴君和恐怖分子可以利用他们无视任何道德约束对付无辜人民。 潘多拉的盒子一打开就不会轻易关上。
学院院长sung-chul shin对这封信做出反应说,学校不打算参与致命的自主武器系统和杀手机器人的开发(迅速发展)。
kaist不进行违背人类尊严的研究活动,包括开发缺乏有意义的人类控制的自主武器。
尽管如此,签署公开信的新南威尔士大学( university of new south wales )的ai教授托比·沃尔什)在cnn的采访中表示,他还有点怀疑他们要做什么,但总体来说是恰当的对
不过,据《卫报》报道,一家名叫dodaam systems的韩国企业已经开发了自主作战机器人,并开发了能够检测3英里外目标的静止炮塔。 阿拉伯联合酋长国和卡塔尔已经购买了这项技术。
沃尔什告诉《卫报》,基于人工智能武器的共同威胁应该与世界上所有人有关。
他说:“快速发展自主武器不会使朝鲜半岛的安全局势更糟,更好。 无论这些武器在哪里制造,最终都会出现在朝鲜,对于在韩国的采用不会感到不安。
世界各国领导人已经要求联合国起草旨在规范基于人工智能的武器的国际公约。 埃及、阿根廷和巴基斯坦支持这一观点。
但是,英国和美国反对这项建议。 因为无法定义什么是人类控制,它们不构成人类控制。 据the verge介绍,目前许多系统都有自主能力,如无人机和导弹防御互联网。
标题:“杀手机器人遭AI专家公开谴责 KAIST回应:意不在此”
地址:http://www.iiu7.com/wxxw/32211.html