鸡西信息港

当前位置: 首页 >历史

巨头纷纷布局AI是否即将威胁人类生存

来源: 作者: 2019-05-15 02:52:49

【AI世代编者案】《麻省理工科技评论》近期刊登了艾伦人工智能研究所CEO、华盛顿大学计算机科学教授奥林艾奇奥尼(Oren Etzioni)的文章,分析了超级人工智能出现的可能性。艾奇奥尼的研究结论是,超级智能在可预见的未来还不会出现。

《麻省理工科技评论》中发表的文章与报告观点基本类似,以下为文章全文:

如果你了解过关于人工智能的各种观点,那么可能会非常担心超级智能,或者说杀手人工智能的出现。近期英国《卫报》警告称,我们就像是在玩炸弹的小孩,《周刊》则指出人工智能正在到来,有可能完全消灭我们。

在伊隆马斯克(Elon Musk)和史蒂芬霍金(Stephen Hawking)等人观点的支撑下,许多媒体都有过这样的报导。实际上,这种观点来自一个人的研究成果:英国教授尼克博斯特罗姆(Nick Bostrom),哲学著作《超级智能:道路、危险和策略》的作者。

博斯特罗姆是牛津大学哲学家,而对风险的量化评估则是保险精算学的领域。他也许被认为是全球首位精算哲学家。考虑到哲学是一种概念论证学科,而风险评估则是由数据驱动的统计学工作,因此这样的头衔显得很矛盾。

那么,数据告诉我们什么?2011年,作为希腊人工智能协会的成员,博斯特罗姆参加了在希腊塞萨洛尼基举办的人工智能哲学和理论大会。当时,他整理了4项调查的结果,并给出了人脑水平人工智能在不同时间点出现的可能性:

2022年:10%。

2040年:50%。

2075年:90%。

关于人脑水平人工智能的发展,博斯特罗姆撰写了一份300页的哲学论证,而这4项调查是主要的数据来源。

为了更准确地评估行业研究者的意见,我寻求了美国人工智能协会(AAAI)会士们的帮助。这些研究员对人工智能的研究做出了重要而延续的贡献。

2016年3月初,AAAI帮我发出了一份匿名调查问卷,向193名会士提出了以下问题:在他的书中,尼克博斯特罗姆将超级智能定义为在各个实际领域,包括科学创造力、一般常识和社会技能等方面,比出色人脑还要更聪明的智能。你们认为,我们何时将会看到超级智能?

在随后的一周多时间里,80名会士做出了回复(回复比例为41%)。他们的回复总结以下:

92.5%的受访者认为,在可预见的未来超级智能不会出现。这1观点也得到了许多会士书面内容的支持。

即便调查是匿名的,44名会士仍决定实名回复。这其中包括深度学习先驱吉奥夫辛顿(Geoff Hinton)、来自斯坦福大学的图灵奖获得者埃德菲恩鲍姆(Ed Feigenbaum)、的机器人专家罗尼布鲁克斯(Rodney Brooks),以及谷歌(微博)的皮特诺维格(Peter Norvig)。

受访者也给出了更多看法,摘录以下:

可能还需要超过25年时间。更有可能还要几个世纪。但不可能永远无法实现。

我们正在与人脑数百万年的进化展开竞争。我们可以编写单一目的程序,匹敌人类,有时甚至胜过人类。然而,世界并不是由多个单一问题组成的。

尼克博斯特罗姆是职业恐慌传播者。他的研究所扮演的角色就是寻找人类的现存威胁。他在各种地方都能看出威胁来。我倾向于将他称作人工智能领域的特朗普。

这种调查的科学价值有限。问题表述和受访者的选择都可能会对结果带来影响。但是,这也是博斯特罗姆参考的一种数据来源。

另一种研究方法是根据人工智能当前的发展去推断未来的趋势。然而这也很困难,因为我们还无法肯定当前人脑水平智能的量化指标。我们已在象棋和围棋等领域实现了超级智能,但正如艾伦研究所的研究显示,我们的程序在美国8年级科学考试中还无法及格。

关于人工智能我们有很多方面的担心,无论是对就业岗位的影响,还是自动化武器系统,甚至超级智能的潜在风险。但是,当前的数据并没有表明,超级智能将在可预见的未来诞生。与此同时,悲观预测通常没有看到人工智能给人类带来的帮助,例如预防医疗失误和减少汽车事故。

此外,人类未来有可能与人工智能系统合作,开发出共生的超级智能。这将与博斯特罗姆设想的有害的超级智能存在很大不同。

人流后恢复注意什么
盆腔炎怎么治疗
女性盆腔炎的治疗

相关推荐