谷歌:当AI面临囚徒困境是攻讦还是合作?
- 来源:雷锋网
- 编辑:一不做
- 2017/2/14 10:14:20
- 33165
【中国智能制造网 企业动态】近些年来,人工智能一步步走入我们的生活,因此我们必须了解这些聪明的“大脑”在面对两难境地时会如何选择。为此,Google 的 DeepMind 团队专门进行针对性实验,而实验中的两款游戏都是在博弈论的囚徒困境理论基础上开发的。
所谓的囚徒困境是两个被捕的犯人间一种特殊博弈,两个共谋犯罪的人被关入监狱,不能互相沟通。如果两个人都不揭发对方,则由于证据不确定,两人只需坐牢一年;若一人揭发、另一人沉默,揭发者因立功可立即获释,沉默者因不合作入狱 5 年;若互相揭发,则证据确实,两者都判刑两年。由于囚徒无法信任对方,因此倾向互相揭发,而不是同守沉默。这一经典理论说明了为什么合作对双方都有利时,保持合作也是困难的。
游戏 1:红蓝色两个 AI 收集绿色苹果
“在现实生活中,无论是合作还是相互攻讦都需要复杂的行为特性,因此 AI 需要掌握执行一系列动作的先后顺序。”DeepMind 团队在博客中写道。“我们将这一全新设定看做连续的社会困境,并利用深层强化学习训练过的 AI 对其进行研究。”
在实验中,研究人员发现 AI 会逐渐展示自己理性的一面,在必要时它们会选择合作。
在个名为“Gathering”的游戏中,参与实验的 AI 们会在同一区域执行收集苹果的任务,它们可以尾随在对手身后用炮弹攻击其他 AI,被击中的玩家会短暂出局。不过,这里有个前提条件,即收集苹果可以得分,但攻击他人则不会。
AI 被扔在这个游戏中数千次,直到它们透过深度强化学习理性。研究结果表明,这些家伙有时也会被利益冲昏头。
举例来说,当某区域有很多苹果时,AI 们会齐心协力收集苹果来得高分;一旦苹果数量下降,它们就会做出抉择,开始互相攻击以保护自己的胜利果实。
游戏 2:需要两个 AI 紧密配合
第二款游戏名为 Wolfpack,该游戏更需要 AI 们的合作。AI 们需要在混乱的瓦砾堆中寻找猎物,如果你能抓到自己的猎物就能得分;此外猎物被抓到时如果离猎物很近,也能得分。
在这款游戏中,研究人员发现,随着应对复杂战略能力的提升,AI 们更倾向于相互合作。
透过以上实验也让我们得出一个结论,那就是 AI 会根据自己所处的环境进行抉择,虽然有时它们会为了自己的利益相互攻讦,但大多数时候它们还是倾向于相互合作。
DeepMind 的研究团队表示:“这样的模型让我们能在模拟系统中测试策略和干预措施。”如果一切顺利,未来人类对复杂的多因素系统如经济、交通系统或生态健康都能有较深刻的把握,因为它们都需要持续合作。
Google’s ‘evil AI’ experiment: Firm finds ‘social dilemmas’ cause competing algorithms to turn on each other – or work together
(原标题:谷歌的“邪恶”实验:当 AI 面临囚徒困境 是互相攻诘还是相互合作?)
版权与免责声明:凡本网注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本网授权不
展开全部
热门评论