资讯中心

物理学家警告:人工智能几百年内或超越人类

来源:网易智能/futurism
编辑:半城明灭
2017/4/10 16:54:53
31677
导读:天文学家马丁?里斯爵士(Lord Martin Rees)认为,人工智能可能会在几百年内超越人类,从而开启了由电子智能生命主宰的漫长岁月。此外,他还认为这类智能生命可能已经存在于宇宙中的其他地方。
  【中国智能制造网 智造快讯】天文学家马丁·里斯爵士(Lord Martin Rees)认为,人工智能可能会在几百年内超越人类,从而开启了由电子智能生命主宰的漫长岁月。此外,他还认为这类智能生命可能已经存在于宇宙中的其他地方。

物理学家警告:人工智能几百年内或超越人类
 
  英国天文学家、剑桥大学宇宙学与天体物理学荣誉教授马丁·里斯爵士认为,在几百年内,机器可能会超越人类,从而开启机器统治时代的新纪元。他还警告说,尽管我们肯定会在未来的几十年里发现更多关于生物生命起源的信息,但我们也应该意识到,外星智能可能是电子生命。
 
  里斯爵士说:“只是因为宇宙其他地方没有生命,并不意味着没有智慧生命。我的猜测是,如果我们真的探测到外星智能,那将和我们完全不同。它们可能是某种电子实体。”
 
  里斯爵士认为,在本世纪的范围内,会出现衰退的严重风险,理由是滥用技术、生物恐怖主义、人口增长和越来越多的连接问题,这些问题使人类比以往任何时候都更加脆弱。虽然我们可能因为人类活动而处于危险的境地,但机器超越我们的能力可能是决定宇宙生命如何起源的决定性因素。
 
  他解释说:“如果我们展望未来,那么很有可能在未来的几个世纪里,机器将会被过度使用,它们将会在未来数十亿年的时间里超越我们。换句话说,有机智能所占据的时间只是早期生命和机器漫长时代的一小部分。”
 
  与人类生命中微妙而具体的需求相比,电子智能生命非常适合太空旅行,并且能够抵御许多可能灭绝人类的威胁。里斯说:“我们很可能会被固定在这个世界上。 我们将能够对太空进行更深入的探索,但我们对太阳系以外的世界的探索将是后人时代的事情。对于凡人的思想和身体来说,旅途的时间实在太漫长了。然而,如果你是永生不死的,那么这些距离就远没有那么吓人了。这段旅程将由机器人完成,而不是我们。”
 
  并非只有里斯爵士这样想,许多的思想家,比如斯蒂芬·霍金(Stephen Hawking)都认为,人工智能有可能毁灭人类文明。其他一些人,比如人工智能促进会(AAAI)主席Subbarao Kambhampati,也将AI被黑客袭击视为人类面临的大生存威胁之一。
 
  然而,还有许多人不同意这些观点,甚至连霍金都指出人工智能带来的潜在好处。当我们训练和教育AI时,以我们自己的形象塑造它们时,我们会让它们有能力形成情感,这可能会阻止它们想要伤害我们。有证据表明,“奇点”可能并非单一时刻,而是一个已经发生的“渐进”过程——这意味着我们已经在适应人工智能。
 
  但是,如果里斯的预测是正确的,而人类正处于自我毁灭的轨道上呢?如果我们彻底毁灭了自己,而人工智能已经足够先进,能够在没有我们的情况下继续生存下去,那么他的预言就可能成真:生物生命可能只是历史长河中的过客,电子智能生命将会主宰整个宇宙,而不仅仅是因为人工智能已经改变了人类。
 
  从根本上说,电子生命是的,适合在整个宇宙中生存和茁壮成长,这种想法并非牵强附会。问题是,我们能不能和它一起生存下去?
 
  原标题:物理学家警告AI和外星生命将带来可怕威胁!

热门评论

上一篇:环保部与腾讯达成战略合作 探索互联网+环保新模式

下一篇:“阿尔法狗”将与柯洁对弈 中国人机大战时间确定

相关新闻

<