人工智能如何增强现有的人类偏见?
- 来源:千家网
- 2021/9/2 15:29:52
- 23642
根据定义,人工智能(AI)旨在模拟人脑的工作机制以优化组织活动。
不幸的是,虽然我们已经能够更接近于人工地重新创造人类智能,但人工智能也表现出另一种独特的人类特征——基于种族、民族或性别对某人的偏见。人工智能中的偏见并不是一个新概念。最近和过去都发现了医疗保健、执法和招聘行业中存在偏见的算法示例。
因此,几个世纪以来的不容忍和歧视不断以一种或另一种形式出现,即使世界似乎正在朝着对所有人包容的方向发展。要了解人工智能如何强化长期存在的人类偏见,我们需要找出偏见潜入人工智能模型和神经网络的方式。
用于训练AI模型的有偏数据集
人工智能驱动的系统的决策仅反映用于模型训练的输入数据的类型。因此,如果AI模型吸收的数据集具有歧视性,则输出推荐或决策将遵循相同的趋势。在初始机器学习阶段,可以通过两种方式创建有偏差的AI模型。首先,如前所述,用于训练AI模型的数据(总体上)是狭窄且有偏见的。其次,由于给定数据集中的样本存在偏差,因此创建了判别算法。由于疏忽或因为从事训练过程的数据科学家本身保守、心胸狭窄,有偏见,输入数据可能很窄。
歧视性人工智能的最佳例子之一是臭名昭著的COMPAS系统,该系统在美国多个州使用。人工智能驱动的系统使用历史监狱数据库和回归模型来预测被释放的罪犯将来是否有可能再次犯罪。正如预期的那样,该系统的预测表明,与白种人相比,非洲裔美国人的再犯人数几乎翻了一番。这种偏见的主要原因之一是,网络管理员在分析其预测时从未尝试检测系统的歧视性暗示。通常,人工智能偏见的受害者是女性、特定地区的少数族裔或有移民背景的人。正如他们所说,人工智能的模型不会引入新的偏见,而只是反映社会中已经存在的偏见。
如上所述,机器训练的数据收集过程也可能存在偏差。在这种情况下,指定的AI治理官员会意识到所收集数据中的偏差,但仍会选择忽略它。例如,在收集与招生背景相关的数据时,学校可能只选择白人候选人。此外,学校可能只是拒绝为其他孩子提供学习机会。在可能是一个循环中,AI模型可能会密切观察学校选择专门选择白人学生的做法。稍后,该模型将继承种族主义传统,因为其模式分析仅表明这是学校招生期间的正确行动方案。因此,尽管存在处理这一过程的尖端技术,但种族主义仍被多次强化。
除了种族或性别歧视,人工智能中的偏见甚至可能以对富人的优惠待遇的形式存在。因此,穷人在AI数据集中的代表性可能不足。在正在进行的医疗卫生事件时代,甚至可以想象出一个这样的假设例子。一些国家开发了自己的移动应用程序,可用于跟踪感染病毒的人,并提醒任何特定区域的其他人与这些人保持距离。虽然该计划可能具有崇高的目的,但没有智能手机的个人将在应用程序中完全不可见。虽然这种类型的偏见不是任何人的错,但它首先违背了设计此类应用程序的目的。
综上所述,歧视性的训练数据和操作实践会直接导致人工智能系统和模型的偏差。
由于代理相关原因导致的人工智能偏见
偏见渗入人工智能模型的另一种方式可能是通过代理。用于机器训练的一些细节和信息可能与受保护的特征相匹配。由此产生的偏差实例可能是无意的,因为用于做出理性和校准决策的数据可能最终作为类成员的代理。
例如,假设一家金融机构使用人工智能系统来预测哪些贷款申请人可能难以还款。用于训练AI系统的数据集将包含跨越三个多世纪的历史信息。现在,此输入数据不包含与申请人的肤色或性别相关的详细信息。然而,假设系统预测居住在特定地点(与某个邮政编码相关联)的人将拖欠他们的贷款分期还款。此预测仅根据历史记录生成。当银行因居住地而决定不批准他们的贷款申请时,居住在该地区的人可能会感到受到了歧视。人工智能中的这种偏见可以通过让人类官员参与来消除,他们可以根据实际事实而不仅仅是历史记录推翻人工智能系统的决定。
除此之外,还有其他几种产生偏见的人工智能的方式,然后在当今时代继续强化古老的偏见。有几种方法可以彻底消除人工智能中的偏见,或者至少在很大程度上减少偏见。
选择更具代表性的数据集
组织中的每个人都需要努力降低其AI系统在工作中存在偏见的可能性。正如我们所见,人工智能的偏见完全源于它为机器训练或其日常操作接收的数据类型。收集大量培训和运营数据的数据科学家和其他专家需要使用各种数据,其中包括属于所有种族和少数种族的人。在此类数据集中,女性必须与男性一样多。此外,仅当数据专家向类似分割的模型提供输入数据时,才应存在AI模型中的分割。
此外,使用人工智能应用的组织不得针对不同的种族和民族多样性使用不同的模型。如果单个人群的数据不足,组织可以使用加权等技术来平衡其相对于其他人群的重要性。如果每个数据组没有得到谨慎和同等权重的处理,就有可能在AI模型中产生偏见。
识别潜在的偏见触发因素或来源
检测某些类型的偏见可能进入AI系统的区域和操作是任何组织中AI治理团队和执行级别员工的主要责任。理想情况下,必须在将AI纳入组织之前执行此过程。组织可以通过检查数据集并检查它们是否会导致AI模型具有狭隘的“观点”来减轻偏见。经过彻底检查后,组织必须进行试运行,以查看其AI系统是否在工作中表现出偏见。最重要的是,组织必须列出涵盖所有有偏见的人工智能领域的问题。然后,他们必须不断寻找解决方案,以便一个接一个地回答这些问题。
实施严格的人工智能治理指南
AI治理团队在防止AI系统随着时间的推移变得歧视方面发挥着关键作用。为了避免人工智能的偏见,治理团队必须定期更新人工智能模型。更重要的是,团队应该制定不可协商的法规和指南,以检测和消除或至少减轻用于机器训练的输入数据集的偏差。
除此之外,必须建立清晰的沟通渠道,以便组织中任何级别的员工都可以在收到客户关于人工智能歧视的投诉时通知治理团队。即使员工自己发现他们组织的AI可能存在偏见,这些渠道也会起作用。
人工智能中的偏见对于成为其决策牺牲品的个人或团体来说可能很痛苦。更成问题的是,有偏见的人工智能系统是人类历史上不幸的受害者面临数百年边缘化和歧视的新一代象征。因此,我们必须通过确保模型训练和有能力的AI治理的不同输入数据集来确保将算法偏差扼杀在萌芽状态。歧视性AI是每个人的问题,因此,组织中参与AI模型设计、实施和维护阶段的所有各方都应该联合起来解决它。
(原标题:人工智能如何增强现有的人类偏见?)
版权与免责声明:凡本网注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本网授权不
展开全部
热门评论