涉及到钱财机器人和真人我们更愿意相信谁?
- 来源:机器人库 原标题:涉及到钱财 机器人和真人我们更愿意相信谁?
- 2016/5/10 9:29:14
- 31395
我们该相信谁呢?
当有人开始向我询问净资产时,我就会感觉不舒服。但机器人顾问就不会对此作出任何评判。
“当有人开始向我询问净资产时,我就会感觉不舒服。”费舍尔说,“机器人顾问肯定不会对此作出任何评判。无论是背负债务,还是想要花钱度假,抑或希望大发横财,我在它们面前都不会感觉耻辱。”
费舍尔在电脑面前的这种放松状态并非个例——有越来越多的研究表明,与人类相比,我们更加信任机器人和自动化的在线表格。除了成本外,这正是机器人顾问有可能成为个人投资方式的重要原因——到2020年,这类服务管理的资产有望达到2.2万亿美元,远高于目前的500亿美元。
得州达拉斯的盖尔·卢卡斯(GaleLucas)多年以来一直在研究人类对机器人的信任感。作为OrganizationalWellnessandLearningSystems的研究总监,她发现人们在向电脑披露信息时的确展现出更强的信任感。这不仅涉及普通问题,也包括更加隐私的信息。
她在2014年的一篇论文中写道,“在涉及违法、不道德或有违文化传统的信息时,这种诚实回答的现象尤其明显。”
人们更容易对自动化工具吐露心声,是因为他们认为电脑不会对自己作出评判,并且认为电脑比人类更有道德。
卢卡斯解释道,财务问题属于后一类。例如,人们会对负债持有负面观点。人们讨论这类问题时感觉不舒服,甚至有可能向人类财务顾问隐瞒自己的负债金额。
“他们感觉非常尴尬,不想承认自己的信用卡有多少负债。”卢卡斯说,“这会产生焦虑,所以必须要找到一个让你愿意向其吐露心声的人。你愿意告诉这个人,你很担心自己可能永远还不清这些债务。”
不作评判
研究显示,人们更容易对自动化工具吐露心声,因为他们认为电脑不会对自己作出评判,并且认为电脑比人类更有道德。
机器人将不再仅仅充当餐厅服务员,过不了多久,它们还将为你制定财务计划
加拿大温哥华的市场研究公司IntensionsConsulting今年3月发布的一项研究显示,26%的加拿大成年人认为,没有偏见的电脑程序比职场和管理者更值得信任,也更有道德。而在20至39岁的年轻群体中,这一比例更是高达31%。
该研究还发现,26%的加拿大人更愿意让没有偏见的电脑程序负责筛选、招募以及评估他们的工作表现。该研究的联合作者、未来学家尼克·拜德明顿(NickBadminton)在新闻稿中表示:“人们正在对人类管理人员失去信任,其实理应如此。你应该信任谁?是有个人偏见和观点的人类,还是充满理性且不偏不倚的(人工智能)?”
26%的加拿大成年人认为,没有偏见的电脑程序比职场和管理者更值得信任,也更有道德。
卢卡斯的研究也提出了相同的问题,但却是从心理健康的背景出发。她希望了解,与医生相比,创伤后应激障碍症患者是否会向机器人透露更多个人信息——她在研究中使用了像人类一样的虚拟机器人。
这些由她参与设计的“虚拟代理”会询问一些探索性的个人问题,例如:“你有没有遗憾?”“有没有什么事情是你想要忘记的?”在她的研究中,有的参与者被告知其沟通对象是电脑,其他人则被告知在与人类沟通。
卢卡斯表示,几乎在所有情况下,被告知与电脑沟通的参与者都会披露更多信息。她随后询问参与者,他们是否感觉自己被对方评判,或者是否担心屏幕后面的人或电脑会对自己作出负面评价。被告知与电脑沟通的人给出了否定回答,其他人则给出了肯定回答。
“这就是问题的关键。”她说,“认为自己在跟虚拟代理沟通的人知道,他们的数据都是匿名的,非常安全,没有人会评判他们。”
千禧一代撬动市场
2014年的一项调查显示,1980至1989年间出生的人在与金钱相关的信息上不信任任何人。
加拿大多伦多AccentureWealth&CapitalMarkets公司董事总经理肯德拉·汤普森(KendraThompson)表示,机器人顾问领域目前的吸引力不在于匿名性。相关企业并没有通过这些网站提供复杂的建议。便利和成本才是真正的吸引力所在,有些企业的年费仅为已投资资产总额的0.15%,而人类顾问收取的费用则高达1%至2%。
但她表示,这种情况可能发生变化。在亚洲,数字投资工具的需求正在高速增长。在其他地方,人们对没有偏见的长期机器人顾问的需求也在扩大,但主要来自比较年轻的储户。
富达投资2014年的一项调查发现,1980至1989年间出生的人中,每4个人就有1人在与金钱相关的信息上不相信任何人。而美国银行的报告则显示,富裕的千禧一代比其他几代人更有可能给予科技“极大的”信任,“在财务顾问服务领域同样如此。”
在与金钱有关的问题上,我们真的更信任机器人,而不是人类顾问吗?
汤普森表示,与顾问的私人关系较好的人更容易敞开心扉,但仍然很难消除被人评判的感觉。
“有的人可能会说,‘我不知道这些建议从何而来’或者‘我不知道为什么顾问会问我这些问题’。”她说,“这就是这些工具的优势所在——你可以戏弄它们,而不会感觉自己被完全暴露给别人。”
机器人终归是机器人
虽然自动化的设备似乎比人类更值得信任,但我们必须明白的是,机器人终归是机器,它们可以被终端用户操纵。
你可以戏弄它们,而不会感觉自己被完全暴露给别人。
美国乔治亚理工研究院(GeorgiaTechResearchInstitute)的社交机器人研究员阿兰·瓦格纳(AlanWagner)展开了一项研究,模拟了一栋大楼着火的情形,并要求志愿者跟随机器人前往安全地点。该机器人把他们带入了错误的房间,还带着他们来到了后门,而没有到达正确的出口,而且(故意)在紧急出口中央出现故障。
然而,尽管出现了种种问题,但志愿者们仍然跟随机器人在大楼里四处搜寻,希望它能带领他们逃出火场。这项研究证明人们怀有“自动化偏见”。换句话说,即使在不应该相信自动化系统的情况下,人们依然会继续相信这些机器。
“人们认为这套系统比自己更了解情况。”瓦格纳说。为什么?因为机器人给人们的印象是“无所不知”。之前与自动化系统的互动都表现不错,所以我们会认为每套系统都能提供正确的答案。
另外,由于机器人不会对人们表达的内容作出反应或给予评判,我们自己的偏见也会投射到这些自动化系统中,让我们以为机器人会无条件支持我们。
但瓦格纳表示,必须牢记一点:这些机器人其实都是由共同基金或人类顾问控制的,目的是达到他们想要的结果。这并不意味着人类不应该信任机器人,但这些系统同样也会犯错。
“你必须能够告诉它们:我现在不应该信任你。但这确实非常困难。”瓦格纳说。
下一篇:私人充电桩破局需解决的两大难题
版权与免责声明:凡本网注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本网授权不
展开全部
热门评论