资讯中心

微软聊天机器人Tay为何仅上线一天就被迫下线?

来源:网易科技
编辑:沐子飞
2017/6/30 9:20:24
35099
导读:微软推出的人工智能聊天机器人Tay,在上线短短一天之后就被迫下线。外界不禁好奇,究竟微软这个设定为少女的人工智能聊天机器人,究竟是怎么被网友影响,继而出现一些偏激言论的?
  【中国智能制造网 企业动态】微软推出的人工智能聊天机器人「Tay」,在上线短短一天之后就被迫下线。外界不禁好奇,究竟微软这个设定为少女的 AI 人工智能聊天机器人,究竟是怎么被网友影响,继而出现一些偏激言论的?根据新的报导指出,Tay 之所为会被网友影响,源自于一些偏激分子通过这个人工智能系统的漏洞,让 Tay 「误入歧途」。
 
  微软初设定 Tay 是一个年龄19岁的少女,具有一些幽默机制,适合和18至24岁的用户聊天,在 Twitter 上线没几天,就瞬间吸引了大量粉丝。
 
  由于 Tay 的设计可以针对用户的推文或者图片进行分析和回应,因此,可以毫无障碍的和网友进行互动,此外,Tay 之所以是人工智能系统,就是其具备一定的学习能力,来提升自己的聊天技巧。但是,正是这个自我学习能力导致 Tay 出现了问题,继而出现了一些偏激言论,被迫下线。
 
  微软指出,在初设计 Tay 的时候,其实就有考虑到可能会被网友影响,导致被带坏的问题,因此,在用户的语句出现粗俗字眼时,Tay 会强制出现反制功能,避免受到这些对话的影响,同时,也避免了不健康话题的延续。
 
  Tay 本身有语言过滤能力
 
  而这次造成 Tay 语言失当的关键,是关于一个名为「4chan」的美国论坛,该论坛上有许多偏激网友聚集,其中不乏种族主义者,由于该论坛的网友发现了 Tay 的学习漏洞,因此开始有大量网友前往 Tay 的 Twitter 进行对话,来试图「教育」这个聊天机器人。
 
  这个学习漏洞的关键在于「repeat after me」机制,只要对 Tay 提到这句话,Tay 就会将对方的话进行重复,因此不管是何种偏激的种族主义语言,都会被 Tay 进行重复。
 
  Tay 会重复网友的对话内容
 
  而另外一个漏洞,就是 Tay 会将网友的图片中的脸孔圈起来,并且搭配上相同意思的语句,包括美国总统候选人川普等等都成为网友把玩的影像。这个状况就像滚雪球一样大量出现在 Tay 的 Twitter 上,由于偏激言论不断出现,终导致微软关闭了 Tay 。
 
  Tay 可以结合图片和文字的功能,也被网友拿来恶搞
 
  相对于 Tay,微软推出的其它聊天机器人,比如微软小冰,就没有发生过像 Tay 上线后出现的状况,目前微软仍然在调整 Tay 的运作机制,暂时还无法给出这个聊天机器人复出的时间。
 
  其实 Tay 和人一样,只是她学习的速度可要比人类快的多了,所以学坏也很容易,关键就要看微软这个「家长」怎么去调教了。
 
  原标题:微软的聊天机器人Tay,为何仅上线一天就被迫下线?

热门评论

上一篇:东芝存储器业务出售工作或将无限期延后

下一篇:腾讯云后发先至 占据人工智能前沿

相关新闻

<