人工智能界“强大脑”人类驾驭机器人之路
- 来源:雷锋网 原标题:人工智能界“强大脑”,畅谈AI未来之路
- 2016/6/17 9:02:34
- 31846
人工智能界“强大脑” 人类驾驭机器人之路
深度学习是以人类大脑为基础,要复杂得多。与机器学习不同的是,深度学习可以教会机器忽略声音或图像中所有不重要的信息——呈现一种能够反映无限多样性的层级性世界观。正是深度学习为我们带来了无人车、语音识别、以及有时候比放射学专家更擅长识别肿瘤的医疗分析系统。
虽然有了这些值得赞叹的进步,我们距离与人类同样智能的机器还很远——我们的机器甚至与老鼠的智能相比都差得很远,我们大约只见证了AI实力的5%。
是时候重新思考就业吗?
百度科学家吴恩达:AI将如何改变未来的就业。
如今在美国,驾驶货车是常见的职业之一。几百万人在东西海岸之间运输着货物,以此维持生计。然而,很快所有这些就业机会都将消失。无人车将替代人类司机在路面行驶,并且更快、更安全、更。有这么好的事,还有哪家公司会选择更昂贵、更容易犯错的人类司机呢?
类似的劳动力变革在历史上也有先例。在工业革命前,90%的美国人在农场工作。蒸汽技术和制造业的兴起让许多人失业了,但是也创造了很多新的工作机会——还创造了很多当时人们无法想象得到的新领域。这个排山倒海般的巨变是在两个世纪的过程中慢慢展开的,当时,美国有足够时间来适应变化。农民们直到退休都在种田,而他们的下一代去上学,成为了电工、工厂领班、房地产商和食品化学家。
而卡车司机们就没有这么幸运了。他们的职业,还有另外几百万人的职业,很快就会过时。在智能机器时代,数量众多的人们将没有工作的能力,或者有被淘汰的风险。我们可能会见证20世纪30年代经济危机以来大的失业大潮。
1933年,富兰克林·罗斯福的新政帮助了大量失业人口,并且帮助重启了美国经济。更重要的是,它帮助美国从一个农业社会转变为一个工业社会。罗斯福的“公共工程署”雇佣了失业者来建造桥梁和新的高速公路,改善了美国的交通基础建设。这些改善为当时非常先进的新技术应用奠定了基础:汽车。
我们需要有一个针对21世纪的新政,针对人工智能会带来的新就业机会打造培训项目。我们需要重新训练卡车司机和办公室助理,来打造未来的数据分析师、旅行规划师等等其他我们现在还不知道自己有需求的职业。美国南北战争前(19世纪60年代前)的农民,无法想象自己的儿子会当电工,而现在,我们也很难说AI在未来会创造什么样的工作机会。不过我们清楚的是,必须采取革命性的措施,才能完成从工业社会到智能机器时代的转变。
AI:和人类一样?
智能机器如何做到模仿自己的“造物主”。
要实现人类级别的人工智能,我们下一步要做的就是创造智能的——但不是自动的——机器。你汽车中的AI系统可以让你安全到家,但是没法在你回家后自动选择下一个目的地。我们将以此为基础,加入基本的动机以及情感和道德价值。如果我们创造出学习能力像人类大脑一样强的机器,应该不难想象机器会“继承”一些类似人类的特点——还有弱点。但是在我看来,“终结者”预言及其不可能。这需要一个精心策划的、意图不轨的个体,特意将恶意企图写入智能机器,没有哪个机构——更别说哪个公司或者个人——可以凭一己之力实现人类等级的AI。打造智能机器是我们这个时代大的科学挑战之一,需要各个国家、公司、实验室和学术团体之间共同分享智慧。AI的进步有可能是渐进的,而且是开放的。——YannLeCun。
如何成为机器的主人
牛津大学人类未来研究所的创始总监NickBostrom:AI的生存危机。由DanielaHernandez采访。
能说说你正在进行的工作吗?
我们对于“控制问题”相关的技术挑战非常感兴趣。你能确保AI做的事情,一定是符合程序员初衷的吗?我们还对强智能AI带来的经济、政治和社会问题感兴趣。什么样的政治体制能够帮助我们转型进入智能机器时代?我们如何确保不同的利益相关者联合起来,从事可以带来积极结果的事情?
你进行了很多关于生存危机的研究。如果用直白的语言向一个5岁小孩解释,你会如何描述呢?
我会说,这是可以永远毁灭人类未来的科技。对于年纪更大一点的听众,我会说有人类灭绝的可能,或者可能永远摧毁我们在未来实现价值的可能性。
你认为什么样的策略会帮助减轻人工智能的潜在生存危机?
研究控制问题会有所帮助。当我们搞明白如何让机器变得真正智能,我们应该能有一些概念,知道如何控制这样的机器,如何进行工程设计,从而让机器与人类站在同一阵营,符合人类价值观,不具有破坏性。这涉及一系列的技术挑战,其中一些我们现在已经开始研究了。
你能举个例子吗?
对于控制问题,不同的人思考着不同的方法。一种方式是研究价值观学习。我们希望自己打造的AI终可以分享我们的价值观,这样AI可以作为我们人类意志的延伸。我们没法把自己重视的一切写在一个长长的列表然后塞给AI。更好的办法,是利用AI自己的智能来学习我们的价值观和喜欢。
每一个人的价值观都不同。我们如何决定机器该学习什么样的价值观?
这是一个很大、很复杂的问题:价值观之间的巨大冲突以及利益之间的巨大冲突。从某种意义上说,这是大的一个未解难题。如果你对于技术进步比较乐观,你会觉得终我们总会知道怎样可以做到越来越多的事情。
我们会以的程度征服自然。但是有一项科技无法自动解决的问题,就是冲突和战争。黑暗的宏观画面是,人们有可能利用技术,这种超越自然的力量、这种知识,专门用来伤害和破坏他人。这个问题没法自动解决。
我们如何应对这种压力?
对于这个问题我没有简单的答案。我不认为存在一个简单的技术解决方案。
一个自动编程的代理能否从我们为其设定的控制系统中解放出来?人类已经一直在这样做了,从某种意义上来说,当我们出于自私行事的时候。
保守的假设是,强人工智能可以自我编程,可以改变自己的价值观,而且可以打破任何我们为其设定的束缚。那样的话,我们的目标就会是对其进行设计,让机器选择不使用那些能力来伤害人类。如果AI希望为人类服务,它会对一个杀害人类的行为分配很低的预期实效。我们有理由这样认为,如果你以恰当的方式设定目标系统,终的决策标准就能保持下来。
让我们把大脑变得更好
PayPal及FoundersFund联合创始人LukeNosek:在人工大脑出现前,我们需要训练自己的大脑。
今年早些时候,韩国围棋李世石与谷歌的人工智能程序AlphaGo进行了一场历史性的大战。李世石名下有18项世界头衔,但是在今年3月19日,他败给了软件。
如今的高性能计算的强大。不过距离强人工智能系统的出现还有很远的距离,机器还远未达到人类大脑的能力。我们还没能理解强人工智能(有时候称为AGI)会如何运作,会为我们的生活和经济带来什么影响。经常有人将这种影响的广度比作核技术的出现,从史蒂芬·霍金、到伊隆·马斯克、到AlphaGo的创造者都建议,我们应该小心前进。
核武器的比喻很带感,但是也挺恰当。核武器是强AI糟糕的情况。相反,乐观的预计又亮瞎人眼(普遍的经济繁荣、消灭所有疾病),乐观与恐惧都可能让我们产生偏见。
强AI可以帮助几十亿人过上更安全、更健康、更快乐的生活。但是要设计这样的机器,工程师需要对于智能人类和机器所面对的复杂的社会、神经和经济现实有更好的理解力,比如今任何人都更好的理解力。如果我们对现有的大脑进行升级,我们能更好地来理解、打造强AI,并与之共存。
我们可以将人类智能的提升分为三个阶段。个阶段,使用类似谷歌搜索的科技来增强和补充人类大脑,这已经在进行中了。我们可以比较一下:1996年一个持有图书馆借书证的五岁小孩,和2016年一个打开了谷歌搜索主页的五岁小孩——只要敲几下键盘,就能获得非常多的人类知识。
如果阶段需要用科技来补充大脑,那么第二阶段就要直接放大大脑。适应性学习软件将教育个人化,对课程进行实时调整。如果学生表现出色,教学速度就会加快。如果学生学习比较困难,软件也会放慢节奏、转变教学风格或者告诉老师需要指导。适应性学习和在线教育有可能意味着一刀切教育的终结。融合增强现实和虚拟现实技术,也可以以我们无法想象的方式放大智能。
智能提升的第三阶段需要从根本上改变大脑。经颅磁刺激(TMS)是一项美国食品药品监督管理局(FDA)批准的无创治疗方法,治疗中会将一个电磁线圈应用在头上。TMS目前被用于治疗创伤后应激障碍(PTSD)、自闭症和抗药性的严重抑郁症。例如加州大脑治疗中心以及肯塔基州路易斯维尔大学这样的机构中,样本数量不大,而且影响的持续时间还未知,但是出现好转的个体比例很高——在比例高的试验中,200个较高功能的自闭症病人中有90%实现了好转。早期迹象显示,TMS可能对于看起来没有相关性的大量神经学症状会有疗效。如果我们能对受伤的的或者非神经正常的大脑产生积极影响,也许不久后,我们就能提升健康大脑内的联接,实现普遍提升智能。
强AI已经出现在地平线上,但是目前来说,我们只有自己的大脑可以用。提升我们自己的智能,是创造未来智能机器并与之共存的步。
你没法让机器学会常识
至少现在还不能。这仍然是真正人工智能大的障碍。
预测性学习也叫作无监督学习,是动物和人类理解世界的首要模式。我们可以看看这个句子:“约翰拿起他的电话并离开房间。”经验告诉你,电话可能是移动模式的,约翰可能是从门里走出去的。而机器缺少对于世界常态及其限制的良好表征,也许永远没法推测出以上的信息。机器中的预测性学习——一个非常重要但是还有待发展的特征——会让AI不需要人类监督,可以自主学习,就像小孩子学习一样。但是,要让机器学会常识不只是一个技术问题,这是一个可能要花上几十年的科学和数学挑战。在那之前,我们的机器没法成为真正智能的机器。——YannLeCun。
版权与免责声明:凡本网注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本网授权不
展开全部
热门评论