人工智能和创造它的人类一样会存在偏见吗
2020-04-22 15:51:24爱云资讯阅读量:751
数据(你在一篇科学文章、一本历史书或一组调查结果中找到的信息)似乎只是一些客观事实的集合。这些数字,如果来源正确,应该是不受观点或偏见玷污的铁一般的事实。但实际上,这种情况很少发生。这就是为什么人工智能会和创造它的人类一样有偏见。数据的好坏取决于获取数据的手段,解释和分析数据的方法,以及数据的交流方式。
这些方面的失误会渗透到我们根据数据得出的结论中——往往会导致我们希望“事实”避免的那种主观性和偏见。即使是像调查这样简单的事情,许多因素:从问题的措辞到定义术语的方式,再到我们评估形成判断的样本集等等,都可能给我们的数据带来偏见。而这些偏见会影响我们得出的结论。
缺失了人类情感、意识形态和偏好的系统和人工智能有望帮助我们避免人类推理固有的主观性和偏见。然而,人类必须设计和构建这些系统,这将使它们陷入相同的陷阱。事实仍然是,人工智能的偏见已经成为一个非常普遍的问题,Salesforce最近在其教育平台Trailhead上添加了一个人工智能偏见课程,目的是向企业家和其他专业人士传授同质数据的危险。
自动化系统中的偏差已经对某些群体产生了不利影响。例如, 威斯康星州试图 在其法院系统中利用人工智能来确定犯罪分子再次犯罪的可能性,以帮助法官确定量刑或假释。不幸的是,该计划对有色人种有偏见,并错误地将黑人标记为比白人更容易犯下另一项罪行。
另一个例子是,一项经过同行评议的研究发现,亚马逊的面部识别技术更难识别肤色较深的女性和个人。这shishi怎么发生的?训练集缺乏多样性。公司的数据提取软件有多种用途。其中一个目标是为法律专业人员总结法庭案例。为了使程序提供准确的摘要,训练集必须包含广泛的案例类型。例如,如果该系统只针对侵权案件进行培训,那么它在总结刑事案件方面的效率就会低得多。
机器学习人工智能——以及其他很难发现的人工智能学习。这些例子表明,基于机器学习的人工智能系统是多么有害;当用来设置他们的数据不能充分代表他们正在学习的内容,或者不如他们试图评估的案例多样化时,结果可能是不幸的。但人工智能的偏见并不总是那么容易被发现。
人工智能和自动化技术可以为企业带来巨大的好处,尤其是那些依靠技术来完成需要团队合作的公司。但是,如果该技术的构建方式无法防止引入不良数据(或扭曲有用的数据),则弊大于利。针对这一问题,有人提出的一个解决方案是,鼓励数据科学家团队之间的多样性——这些数据科学家构建了我们所依赖的人工智能系统。我们面临的挑战是,我们并不总能找到并促进正确的多样性来解决我们的偏见问题。
对此问题的一个建议答案是鼓励数据科学家团队之间的多样性-那些构建我们所依赖的AI系统的科学家。面临的挑战是,我们并不总是识别并促进正确的多样性来解决我们的偏见问题。在招聘数据科学家时,实现我们通常认为的多样性(种族和性别差异)是不够的。当然,由不同种族,宗教和文化的男人和女人组成的劳动力很有价值。但是,这些领域的多样性仍然可能导致AI产生偏差。
例如,来自世界各地的男女团队可能会建立一个差距很大的系统;例如,他们都可以使用相同的教育框架进行培训,或者分享与所讨论的项目或问题相关的相同个人观点。如果人们来自同一文化,社会经济背景和政党,那么他们可能会采用非常相似的方法来解决数据问题。这些区域的同质性将不可避免地渗入开发团队创建的AI系统。
为了避免AI偏见,我们需要从思想和观点出发,而不是仅仅从肤色和性别表达出发,考虑多样性。看起来不同的人也很可能会有所不同,但是并非总是如此。人类不可能完全避免主观偏好,错误的信念以及我们思维过程中的各种漏洞。因此,消除偏差也不太可能。但是,我们仍然可以采取一些措施来减轻我们的偏好(认为偏见)对我们创建的系统的影响。
思想的多样性是一个很好的起点。为了组建具有正确多样性的数据科学团队,招聘经理必须专注于寻找具有独特观点和非常规想法的人员。这些不同的态度,观点,概述和客观性通常来自新颖的经验和非常规的训练。当然,这里的挑战是,经理人不能在面试时询问应聘者其社会经济背景、年龄、文化背景以及宗教和政治信仰。
他们所能做的就是问一些与潜在员工将从事的工作有关的尖锐问题。例如,为候选人提供数据建模项目的示例。询问他们如何解决问题,收集数据并进行分析。如果您已经有团队成员使用X和Y方法处理这个案例,那么如果有一个候选人建议了一个经过深思熟虑的方法Z,那么您可以认为这是有利的。
如果某人发现问题时不愿意大声说出来,那么增加他们的思维方式对您的团队不利。为了避免在分析系统和AI工具中出现偏见,您需要的候选人不仅要拥有独特的观点,还要知道如何表达它们。最后,在您的技术开发和数据科学团队中培养开放性和协作文化非常重要。当他们可以轻松表达观点时,他们可以发现并纠正错误。
切记:当一个团队共享一个尽可能客观的总体目标时,偏见就会在这个过程中最小化。人工智能和自动化正处于上行期,这些系统有望帮助我们在提高效率和生产率的同时,将人类主观性和偏见的影响最小化。然而,为了实现这一目标,需要非常小心地构建它们。
小心前行——我们必须非常认真地对待多样性。这意味着在雇佣数据科学家和系统架构师时,不能仅仅关注外表。领导人需要更深入地挖掘,努力引入不同的观点和能够表达这些观点的人,并支持包容的发展文化。拥有不同想法和协作结构的团队更有可能构建真正超越人类难以消除的偏见的人工智能系统。
相关文章
- 解读人工智能数据中心趋势,Aginode安捷诺“满天星”亚太巡展走进韩国首尔
- 世界互联网大会|王巍:人工智能迅猛发展是全球技术合作成果
- 安恒信息王欣入选世界互联网大会人工智能专业委员会
- 《生成式人工智能零售业全景探索白皮书》重磅发布,引领“零售+AI”新时代
- 苹果计划在2026年推出LLM Siri 增强自研人工智能
- 智能时代的少年楷模:“2024华为开发者大赛·少年开发者人工智能大赛”颁奖典礼落幕
- 人工智能全球合作联盟——首届人工智能全球合作论坛核心成果之一
- 百模论剑决赛收官日 | “人工智能+”鏖战四日,战果即将揭晓!
- 微软推出Copilot Actions,利用人工智能自动执行重复性任务
- 微软宣布举办大型线下黑客大会 为人工智能安全提供高达400万美元奖励
- 百模论剑决赛第3日 | 各地团队赴蓉参赛,“人工智能+”智慧碰撞
- 人工智能智库网络在京启动,百度、快手、华为、蚂蚁、腾讯、阿里等发起
- 百模论剑决赛第2日 | 多赛道展演答辩,“人工智能+” 活力迸发
- 百模论剑决赛第1日 | 15支队伍首发亮相,“人工智能+”表现亮眼
- 木愚科技:智驭人工智能,领航“AI+”产业实训未来
- 2025 福布斯中国人工智能科技企业 TOP 50 评选正式启动