资讯中心

涉及到钱财机器人和真人我们更愿意相信谁?

来源:机器人库 原标题:涉及到钱财 机器人和真人我们更愿意相信谁?
2016/5/10 9:29:14
31395
导读:这些机器人其实都是由共同基金或人类顾问控制的,目的是达到他们想要的结果。这并不意味着人类不应该信任机器人,但这些系统同样也会犯错。
  【中国智能制造网 智造快讯】凯利·费舍尔(KellyFisher)一年半以前开始使用机器人顾问,因为她认为这种方式比通过人类顾问进行投资更方便、更容易。但出乎她意料之外的是,她对这种机器人的信任度远超坐在桌子对面那些活生生的同类。
  
我们该相信谁呢?
 
  这位家住旧金山的零售业高管通过机器人顾问创建了一个8,000美元的投资账户。这其实就是一些网站,它们会询问一系列问题,然后提供与投资者的风险承受能力和生活方式相匹配的基金。费舍尔之所以使用这些网站,并不是因为她有什么见不得人的地方。但她表示,对他人进行评判是人性使然,而向一个人类财务专家敞开心扉会让她感觉不舒服。而面对机器人顾问时,费舍尔会更加诚实地透露自己的财务状况。
  
  当有人开始向我询问净资产时,我就会感觉不舒服。但机器人顾问就不会对此作出任何评判。
  
  “当有人开始向我询问净资产时,我就会感觉不舒服。”费舍尔说,“机器人顾问肯定不会对此作出任何评判。无论是背负债务,还是想要花钱度假,抑或希望大发横财,我在它们面前都不会感觉耻辱。”
  
  费舍尔在电脑面前的这种放松状态并非个例——有越来越多的研究表明,与人类相比,我们更加信任机器人和自动化的在线表格。除了成本外,这正是机器人顾问有可能成为个人投资方式的重要原因——到2020年,这类服务管理的资产有望达到2.2万亿美元,远高于目前的500亿美元。
  
  得州达拉斯的盖尔·卢卡斯(GaleLucas)多年以来一直在研究人类对机器人的信任感。作为OrganizationalWellnessandLearningSystems的研究总监,她发现人们在向电脑披露信息时的确展现出更强的信任感。这不仅涉及普通问题,也包括更加隐私的信息。
  
  她在2014年的一篇论文中写道,“在涉及违法、不道德或有违文化传统的信息时,这种诚实回答的现象尤其明显。”
  
  人们更容易对自动化工具吐露心声,是因为他们认为电脑不会对自己作出评判,并且认为电脑比人类更有道德。
  
  卢卡斯解释道,财务问题属于后一类。例如,人们会对负债持有负面观点。人们讨论这类问题时感觉不舒服,甚至有可能向人类财务顾问隐瞒自己的负债金额。
  
  “他们感觉非常尴尬,不想承认自己的信用卡有多少负债。”卢卡斯说,“这会产生焦虑,所以必须要找到一个让你愿意向其吐露心声的人。你愿意告诉这个人,你很担心自己可能永远还不清这些债务。”
  
  不作评判
  
  研究显示,人们更容易对自动化工具吐露心声,因为他们认为电脑不会对自己作出评判,并且认为电脑比人类更有道德。
  
  机器人将不再仅仅充当餐厅服务员,过不了多久,它们还将为你制定财务计划
  
  加拿大温哥华的市场研究公司IntensionsConsulting今年3月发布的一项研究显示,26%的加拿大成年人认为,没有偏见的电脑程序比职场和管理者更值得信任,也更有道德。而在20至39岁的年轻群体中,这一比例更是高达31%。
  
  该研究还发现,26%的加拿大人更愿意让没有偏见的电脑程序负责筛选、招募以及评估他们的工作表现。该研究的联合作者、未来学家尼克·拜德明顿(NickBadminton)在新闻稿中表示:“人们正在对人类管理人员失去信任,其实理应如此。你应该信任谁?是有个人偏见和观点的人类,还是充满理性且不偏不倚的(人工智能)?”
  
  26%的加拿大成年人认为,没有偏见的电脑程序比职场和管理者更值得信任,也更有道德。
  
  卢卡斯的研究也提出了相同的问题,但却是从心理健康的背景出发。她希望了解,与医生相比,创伤后应激障碍症患者是否会向机器人透露更多个人信息——她在研究中使用了像人类一样的虚拟机器人。
  
  这些由她参与设计的“虚拟代理”会询问一些探索性的个人问题,例如:“你有没有遗憾?”“有没有什么事情是你想要忘记的?”在她的研究中,有的参与者被告知其沟通对象是电脑,其他人则被告知在与人类沟通。
  
  卢卡斯表示,几乎在所有情况下,被告知与电脑沟通的参与者都会披露更多信息。她随后询问参与者,他们是否感觉自己被对方评判,或者是否担心屏幕后面的人或电脑会对自己作出负面评价。被告知与电脑沟通的人给出了否定回答,其他人则给出了肯定回答。
  
  “这就是问题的关键。”她说,“认为自己在跟虚拟代理沟通的人知道,他们的数据都是匿名的,非常安全,没有人会评判他们。”
  
  千禧一代撬动市场
  
  2014年的一项调查显示,1980至1989年间出生的人在与金钱相关的信息上不信任任何人。
  
  加拿大多伦多AccentureWealth&CapitalMarkets公司董事总经理肯德拉·汤普森(KendraThompson)表示,机器人顾问领域目前的吸引力不在于匿名性。相关企业并没有通过这些网站提供复杂的建议。便利和成本才是真正的吸引力所在,有些企业的年费仅为已投资资产总额的0.15%,而人类顾问收取的费用则高达1%至2%。
  
  但她表示,这种情况可能发生变化。在亚洲,数字投资工具的需求正在高速增长。在其他地方,人们对没有偏见的长期机器人顾问的需求也在扩大,但主要来自比较年轻的储户。
  
  富达投资2014年的一项调查发现,1980至1989年间出生的人中,每4个人就有1人在与金钱相关的信息上不相信任何人。而美国银行的报告则显示,富裕的千禧一代比其他几代人更有可能给予科技“极大的”信任,“在财务顾问服务领域同样如此。”
  
  在与金钱有关的问题上,我们真的更信任机器人,而不是人类顾问吗?
  
  汤普森表示,与顾问的私人关系较好的人更容易敞开心扉,但仍然很难消除被人评判的感觉。
  
  “有的人可能会说,‘我不知道这些建议从何而来’或者‘我不知道为什么顾问会问我这些问题’。”她说,“这就是这些工具的优势所在——你可以戏弄它们,而不会感觉自己被完全暴露给别人。”
  
  机器人终归是机器人
  
  虽然自动化的设备似乎比人类更值得信任,但我们必须明白的是,机器人终归是机器,它们可以被终端用户操纵。
  
  你可以戏弄它们,而不会感觉自己被完全暴露给别人。
  
  美国乔治亚理工研究院(GeorgiaTechResearchInstitute)的社交机器人研究员阿兰·瓦格纳(AlanWagner)展开了一项研究,模拟了一栋大楼着火的情形,并要求志愿者跟随机器人前往安全地点。该机器人把他们带入了错误的房间,还带着他们来到了后门,而没有到达正确的出口,而且(故意)在紧急出口中央出现故障。
  
  然而,尽管出现了种种问题,但志愿者们仍然跟随机器人在大楼里四处搜寻,希望它能带领他们逃出火场。这项研究证明人们怀有“自动化偏见”。换句话说,即使在不应该相信自动化系统的情况下,人们依然会继续相信这些机器。
  
  “人们认为这套系统比自己更了解情况。”瓦格纳说。为什么?因为机器人给人们的印象是“无所不知”。之前与自动化系统的互动都表现不错,所以我们会认为每套系统都能提供正确的答案。
  
  另外,由于机器人不会对人们表达的内容作出反应或给予评判,我们自己的偏见也会投射到这些自动化系统中,让我们以为机器人会无条件支持我们。
  
  但瓦格纳表示,必须牢记一点:这些机器人其实都是由共同基金或人类顾问控制的,目的是达到他们想要的结果。这并不意味着人类不应该信任机器人,但这些系统同样也会犯错。
  
  “你必须能够告诉它们:我现在不应该信任你。但这确实非常困难。”瓦格纳说。

热门评论

上一篇:光热电价制定不负众望 迈出实质性一步

下一篇:私人充电桩破局需解决的两大难题

相关新闻

<