人工智能和创造它的人类一样会存在偏见吗
2020-04-22 15:51:24爱云资讯785
数据(你在一篇科学文章、一本历史书或一组调查结果中找到的信息)似乎只是一些客观事实的集合。这些数字,如果来源正确,应该是不受观点或偏见玷污的铁一般的事实。但实际上,这种情况很少发生。这就是为什么人工智能会和创造它的人类一样有偏见。数据的好坏取决于获取数据的手段,解释和分析数据的方法,以及数据的交流方式。
这些方面的失误会渗透到我们根据数据得出的结论中——往往会导致我们希望“事实”避免的那种主观性和偏见。即使是像调查这样简单的事情,许多因素:从问题的措辞到定义术语的方式,再到我们评估形成判断的样本集等等,都可能给我们的数据带来偏见。而这些偏见会影响我们得出的结论。
缺失了人类情感、意识形态和偏好的系统和人工智能有望帮助我们避免人类推理固有的主观性和偏见。然而,人类必须设计和构建这些系统,这将使它们陷入相同的陷阱。事实仍然是,人工智能的偏见已经成为一个非常普遍的问题,Salesforce最近在其教育平台Trailhead上添加了一个人工智能偏见课程,目的是向企业家和其他专业人士传授同质数据的危险。
自动化系统中的偏差已经对某些群体产生了不利影响。例如, 威斯康星州试图 在其法院系统中利用人工智能来确定犯罪分子再次犯罪的可能性,以帮助法官确定量刑或假释。不幸的是,该计划对有色人种有偏见,并错误地将黑人标记为比白人更容易犯下另一项罪行。
另一个例子是,一项经过同行评议的研究发现,亚马逊的面部识别技术更难识别肤色较深的女性和个人。这shishi怎么发生的?训练集缺乏多样性。公司的数据提取软件有多种用途。其中一个目标是为法律专业人员总结法庭案例。为了使程序提供准确的摘要,训练集必须包含广泛的案例类型。例如,如果该系统只针对侵权案件进行培训,那么它在总结刑事案件方面的效率就会低得多。
机器学习人工智能——以及其他很难发现的人工智能学习。这些例子表明,基于机器学习的人工智能系统是多么有害;当用来设置他们的数据不能充分代表他们正在学习的内容,或者不如他们试图评估的案例多样化时,结果可能是不幸的。但人工智能的偏见并不总是那么容易被发现。
人工智能和自动化技术可以为企业带来巨大的好处,尤其是那些依靠技术来完成需要团队合作的公司。但是,如果该技术的构建方式无法防止引入不良数据(或扭曲有用的数据),则弊大于利。针对这一问题,有人提出的一个解决方案是,鼓励数据科学家团队之间的多样性——这些数据科学家构建了我们所依赖的人工智能系统。我们面临的挑战是,我们并不总能找到并促进正确的多样性来解决我们的偏见问题。
对此问题的一个建议答案是鼓励数据科学家团队之间的多样性-那些构建我们所依赖的AI系统的科学家。面临的挑战是,我们并不总是识别并促进正确的多样性来解决我们的偏见问题。在招聘数据科学家时,实现我们通常认为的多样性(种族和性别差异)是不够的。当然,由不同种族,宗教和文化的男人和女人组成的劳动力很有价值。但是,这些领域的多样性仍然可能导致AI产生偏差。
例如,来自世界各地的男女团队可能会建立一个差距很大的系统;例如,他们都可以使用相同的教育框架进行培训,或者分享与所讨论的项目或问题相关的相同个人观点。如果人们来自同一文化,社会经济背景和政党,那么他们可能会采用非常相似的方法来解决数据问题。这些区域的同质性将不可避免地渗入开发团队创建的AI系统。
为了避免AI偏见,我们需要从思想和观点出发,而不是仅仅从肤色和性别表达出发,考虑多样性。看起来不同的人也很可能会有所不同,但是并非总是如此。人类不可能完全避免主观偏好,错误的信念以及我们思维过程中的各种漏洞。因此,消除偏差也不太可能。但是,我们仍然可以采取一些措施来减轻我们的偏好(认为偏见)对我们创建的系统的影响。
思想的多样性是一个很好的起点。为了组建具有正确多样性的数据科学团队,招聘经理必须专注于寻找具有独特观点和非常规想法的人员。这些不同的态度,观点,概述和客观性通常来自新颖的经验和非常规的训练。当然,这里的挑战是,经理人不能在面试时询问应聘者其社会经济背景、年龄、文化背景以及宗教和政治信仰。
他们所能做的就是问一些与潜在员工将从事的工作有关的尖锐问题。例如,为候选人提供数据建模项目的示例。询问他们如何解决问题,收集数据并进行分析。如果您已经有团队成员使用X和Y方法处理这个案例,那么如果有一个候选人建议了一个经过深思熟虑的方法Z,那么您可以认为这是有利的。
如果某人发现问题时不愿意大声说出来,那么增加他们的思维方式对您的团队不利。为了避免在分析系统和AI工具中出现偏见,您需要的候选人不仅要拥有独特的观点,还要知道如何表达它们。最后,在您的技术开发和数据科学团队中培养开放性和协作文化非常重要。当他们可以轻松表达观点时,他们可以发现并纠正错误。
切记:当一个团队共享一个尽可能客观的总体目标时,偏见就会在这个过程中最小化。人工智能和自动化正处于上行期,这些系统有望帮助我们在提高效率和生产率的同时,将人类主观性和偏见的影响最小化。然而,为了实现这一目标,需要非常小心地构建它们。
小心前行——我们必须非常认真地对待多样性。这意味着在雇佣数据科学家和系统架构师时,不能仅仅关注外表。领导人需要更深入地挖掘,努力引入不同的观点和能够表达这些观点的人,并支持包容的发展文化。拥有不同想法和协作结构的团队更有可能构建真正超越人类难以消除的偏见的人工智能系统。
相关文章
- 人工智能搜索引擎Perplexity的AI语音助手已登陆iOS平台
- 学而思素养携手中国青少年宫协会 开启人工智能科普公益行
- 中国软件行业协会NCT编程考级2025年4月考圆满收官,新增人工智能教育测评体系
- 更能算、更省钱、更懂化工的国产人工智能来了!
- 2025“人工智能+”产业发展大会:开启智能产业新时代
- 云南联通科技创新暨人工智能合作发展大会在昆启幕:科技赋能边疆,智启数字云南新篇章
- 人民出行受邀见证中国-东盟人工智能创新合作中心签约 共启广西智能产业新篇章
- AI赋能,数智创新,慧博云通闪耀2025日本人工智能展览会
- 维基百科将发布专用于训练人工智能模型的数据集,以抵御网络爬虫抓取
- 培生发布智能课程生成器:创新人工智能驱动教师备课方式变革
- OpenAI发布全新人工智能模型o3和o4-mini,首次实现图像思考
- 深度迈进人工智能新纪元,标普云正式更名标普智元
- Meta AI宣布即将使用欧盟用户数据训练人工智能模型
- 英伟达宣布在台积电亚利桑那州工厂投产Blackwell人工智能芯片
- 九章云极DataCanvas入选2025全国企业“人工智能+”行动创新案例TOP100
- 云知声受邀参加2025中国数字经济产业发展大会,携手多方共筑苏州人工智能战略生态