人工智能黑箱藏隐忧:如何让AI解释自身行为?
- 来源:cnbeta网站
- 编辑:齐之越
- 2017/4/14 16:19:47
- 39584
【中国智能制造网 智造快讯】虽然人类并非总是能够解释清楚自己的思维过程,但我们能找到通过直觉信任和判断某人的方法。机器也有类似人类的思维吗?此前,我们从未开发出创造者也无法理解其运行方式的机器,我们如何与这些不可预测、无法理解的人工智能机器交流或和睦相处呢?
人工智能黑箱藏隐忧:如何让AI解释自身行为?
据TechnologyReview报道,当机器人决定走特定路线前往仓库,或无人驾驶汽车决定左转或右转时,它们的人工智能算法是靠什么做出决定的?现在,AI还无法向人们解释自己做出某项决定的理由,这或许是个需要搞清楚的大问题。
2016年,美国新泽西州蒙茅斯县安静的公路上出现一辆奇怪的无人驾驶汽车。这是芯片制造商英伟达的研究人员开发出的试验车,尽管它看起来与谷歌、特斯拉以及通用汽车公司研发的无人驾驶汽车没什么不同,但它展现出AI的更多力量。
帮助汽车实现自动驾驶堪称是令人印象深刻的壮举,但同时也让人感觉有点儿不安,因为现在我们还不是非常清楚汽车如何作出决策。汽车传感器收集的信息被直接传给庞大的人工神经网络,后者可对数据进行处理,然后发出相应指令,指挥汽车方向盘、制动以及其他系统运行。
表面看起来,它似乎能与人类驾驶员的反应相匹配。但是当其发生意外事件,比如撞上树或闯红灯时,我们可能很难从中找出原因。这些AI算法非常复杂,甚至就连设计它们的工程师都无能为力。现在我们还没有办法设计出这样的系统:它总是能够向人们解释为何要做出上述决定。
这些无人驾驶汽车的“神秘意识”正指向一个与AI有关的、迫在眉睫的问题。这些汽车算法以AI技术(又被称为深度学习)为基础,近年来其已被证明是解决诸多问题的强大工具。这种技术被广泛用于图像字幕、语音识别以及语言翻译等领域。现在,同样的技术也被期望能够帮助诊断致命疾病、做出价值数百万美元的交易决策以及无数足以改变整个行业的其他事情。
但是直到我们找到新的方式,能让深度学习等技术变得更容易被其创造者所理解、更容易向用户就自己的行为作出解释后,上述场景才会出现或应该出现。否则很难预测它们何时会出现故障,而且出现故障将是不可避免的。这也是英伟达无人驾驶汽车依然处于测试状态的原因之一。
目前,数学模型正被用于帮助确定谁该获得假释、谁应获得贷款以及谁该求职被录用。如果你能接触到这些数字模型,很可能了解它们的推理过程。但是银行、军队、雇主以及其他人现在正将注意力转向更复杂的机器学习上,它可以帮助自动决策变得更令人匪夷所思,而深度学习可能从根本上改变了计算机的编程方式。麻省理工学院机器学习教授汤米·雅科拉表示:“这个问题不仅与当前有关,更攸关未来的许多问题。无论是投资决策、医疗决策亦或是军事决策,我们都不能简单地依赖这种黑箱 。”
已经有人提议,将询问AI系统如何得出结论或做出决定作为一项基本法律权利。从2018年夏季开始,欧盟可能要求公司向用户提供其自动化系统作出决策的理由。这似乎是不可能的,即使对于表面来看相对简单的系统来说,比如使用深度学习服务广告或推荐歌曲的应用和网站。运行这些服务的计算机已经在进行自我编程,它们正以我们无法理解的方式工作,即使开发这些应用的工程师也无法明确解释它们的行为。
这就引出许多令人难以置信的问题。随着技术的进步,我们可能很快就会越过一些门槛,帮助AI实现飞跃。虽然我们人类也并非总是能够解释清楚自己的思维过程,但我们能找到通过直觉信任和判断某人的方法。机器也有类似人类的思维吗?此前,我们从未开发出创造者也无法理解其运行方式的机器,我们如何与这些不可预测、无法理解的智能机器交流或和睦相处?
版权与免责声明:凡本网注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本网授权不
展开全部
热门评论