霍金:不规避风险人工智能或成人类文明史的终结
- 来源:中国科技网
- 编辑:二不休
- 2016/10/24 9:13:00
- 31095
霍金:不规避风险 人工智能或成人类文明史的终结
据剑桥大学22日消息称,在该校的未来智能中心开幕仪式上,科学家斯蒂芬·霍金发表了对人工智能的看法。他表示,人工智能既能消灭贫穷和疾病,又可对人类文明构成威胁,它的崛起将在每个方面改变我们的生活,这是与工业革命同等重要的性事件。未来智能中心汇集了包括剑桥大学、牛津大学等世界高等院校与学术机构,旨在共同探讨人工智能对人类文明的影响。与此同时,一个跨学科研究团队将与政策制定者和产业人员密切合作,对诸如自主武器监管及人工智能对社会的影响等问题进行调查。
霍金对此发表看法称,成功创造人工智能可能是人类文明史上大的事件,但如果不学习如何规避风险,它也会成为人类文明史上后一个事件。
他在演讲中表示,对于一个生物大脑和一台计算机所能取得成就来说,其间不存在深刻的差别。所以,从理论上说,计算机可以效仿并超过人类的智能。
他指出,人工智能领域正在飞速发展,如全自动无人驾驶汽车技术、谷歌的“阿尔法狗”程序战胜人类围棋高手等。人工智能的发展可能帮助人类消除疾病和贫困,利用这种新技术革命的工具,或能消除工业化对自然界造成的损害,这无疑将改变人类生活的方方面面。但同时,它也可能产生危险——包括自主型武器、对经济的破坏,甚至人工智能可以发展出自己的意志,一种与我们完全冲突的意志。
霍金后总结道,人工智能的崛起可能是人类遇到的好的事情,也可能是坏的事情,但目前还不知道答案。正因如此,才需要有更多人在这方面进行更深入的研究。
(原标题:人工智能的崛起与工业革命同等重要)
版权与免责声明:凡本网注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本网授权不
展开全部
热门评论