世界著名物理学家斯蒂芬·霍金在红迪网(Reddit)最新的题为“问我任何事”(AMA)的帖子中,坚持警告人类人工智能军备竞赛的危险。在上述论坛上,霍金表示,现在是开始对抗人工智能的最佳时机。

2015年7月底,霍金在生命未来研究所(FLI)发布公开信后发起了AMA讨论,他也是该研究所的一员。该研究所在信中指出,如果允许人工智能系统在没有人类干预的情况下进行杀戮,世界可能面临的危险。

该帖子收到了大约9000个问题,但霍金只回答了10个。

在霍金的解释中,他说,总有一天,人工智能在设计人工智能方面会比人类熟练得多。如果这种情况发生,人类可能会遭受智能爆炸,可能会导致机器表现出比人类更大的智能——这种机器可以超过人类和蜗牛之间的智力差异。

霍金说,当人工智能达到或超过人类智力的时候,这可能意味着两件事:对人类来说,要么是最好的事情,要么是最坏的事情。

霍金声称,人工智能的真正危险不是恶意,而是能力。他进一步解释说,超级智能的人工智能系统将非常精通实现其目标,而这些目标与人类的目标不一致,那么这确实是麻烦。

当被问及他是否能预见到一个人们被要求减少工作时间的世界,因为很多任务已经自动化了,他给出了这样的答案:

“如果机器生产我们所需要的一切,结果将取决于如何分配。”

他补充说,有两种可能性。一是,如果机器创造的财富被分享,所有人都可以享受奢侈的生活。然而,如果机器的所有者在政治上采取行动反对再分配,那么人们最终可能会陷入悲惨的贫困。他评论说,到目前为止,趋势似乎指向第二种情况,因为技术继续加剧不平等。万博体育登录首页

霍金在2014年首次表达了保护人类不受人工智能侵害的愿望,当时他与其他科学家一起写了一篇关于机器可能对人类造成风险的社论。他的同事包括埃隆·马斯克(Elon Musk)和史蒂夫·沃兹尼亚克(Steve Wozniak)。他们的目标是提高公众对人工智能危险的认识。

人们担心人类正处于创造比自身更聪明的人工智能的巅峰,这种担忧始于20世纪50年代;然而,这些想法一再遭到挫败。尽管如此,大多数人工智能专家认为,下个世纪将发展出与人类相当的机器智能。

图片:Lwp Kommunikáció |Flickr

corber2万博体育登录首页022 TECHTIMES.com未经允许,请勿转载。