首页 > 生活家电频道 > 新闻 > 行业 > 正文

智论:“AI”用于军事令专家恐慌,“杀手机器”恐出现

.2018-04-12 .作者:武晨 .编辑:李乐
导语:当然,科技的进步必然会引来热议,如人工智能技术。

如果说现在什么才是科技潮流,相信新零售,区块链,人工智能技术等词语你一定不陌生。科技的进步,打开了时代的大门,让消费者有幸体验到科幻的世界是多么的精彩。

当然,科技的进步必然会引来热议,如人工智能技术,就有相当多的人担心其过度的话,会导致智能机器人“苏醒”,一旦拥有意识,人类的末日也就不远了。虽然目前的技术,离智能技术人“苏醒”还挺远,但最近这个消息可确实令人不安。

“AI”用于军事令AI专家恐慌

据dezeen 报道,韩国科学技术研究院(下文简称KAIST)曾与韩华公司在2月20日达成合作,建立了KAIST国防与人工智能融合研究中心。而该中心也主要从事人工智能决策系统的开发,并将其应用于飞机训练、追踪识别等方面。

但该事件遭到了机器人领域50多名顶尖专家呼吁抵制,他们认为,该研究可能会被应用于自动化武器的研发,包括无人驾驶飞机、潜艇、巡航导弹,甚至是战场上的“杀手机器人”。更坏的结果,便是可能引发继火药、核武器之后的“第三次战争革命”。

专家们认为,一旦人工智能技术普遍应用于军事领域,这些应用则有可能被恐怖分子利用对抗无辜民众,消除任何道德限制,一旦潘多拉盒子被打开,将很难关闭,并且会造成难以挽回的后果。

但KAIST回应称,其并不打算参与开发致命的自主军事系统和杀手机器人,不会在应用AI技术时打破任何道德界限。

“AI”用于军事,人们是否应该恐慌?

随着科技的飞速发展,自动化应用对军事渗入也是愈发的明显,无论是中国还是韩国,近年来都在各领域测试了无人技术,而且以色列目前已经具备自主式武器,可以在没有人类指挥的情况下俯冲轰炸雷达信号。

那么,将“AI”用于军事,人们是否应该恐慌呢?答案是肯定的。虽然人工智能技术飞速发展,将科技应用于军事非常的常见,但在世界上的许多国家,特别是机器人领域的领先开发商,对于他们自主权的规划也是非常模糊。而且,后续的监管机构动作非常落后,人类与机器之间的决策界限模糊造成人们一旦听到风吹草动,将会陷入群体恐慌当中,惶惶度日。

其实,“AI”用于军事并不可怕,但后续的界限不清,监管不力将会成为其阻力。因此,只有在监管之下的“AI”创造,才能更符合人们的道德界限,时刻提醒着我们在这方面的警戒线。

标签: AI

图片来源于网络,如果有侵权请与我们联系,我们会尽快删除。