在这里看懂算法!Google新AI工具解码神秘算法原理及过程
2019-11-25 16:05:02爱云资讯阅读量:550
虽然大多数人每天都会遇到算法,但没有多少人可以说他们真的了解AI的实际工作原理。但是,Google推出了一种新工具,希望能够帮助普通人掌握机器学习的复杂性。
该工具被称为“可解释AI”(Explainable AI),它可以向用户解释机器学习模型的处理结果是如何得出以及为什么得出决策的。
谷歌表示,这样做将用户更加信任机器学习模型。这一点很重要,之所以大多数现有模型往往相当不透明,是因为多数用户不清楚他们如何做出决定。
可解释AI给算法打分、量化数据因素,让你更懂算法
为此,可解释AI工具将量化数据集中每个特征对算法结果的贡献,每个数据因子都会有一个分数,来反映了它对机器学习模型的影响程度。
用户可以拉出该分数,来了解给定算法为何做出特定决策。例如,对于决定是否批准某人贷款的算法模型,“可解释AI”将显示帐户余额和信用评分作为最决定性决策的依据数据。
谷歌云首席执行官托马斯·库里安(Thomas Kurian)在伦敦的Google活动中介绍了该新功能,他说:“如果您使用AI进行信用评分,您会想知道为什么算法模型根据信用评分通过这个人却拒绝了另外一个。”
他说:“对于在企业的业务流程中使用人工智能的客户,‘解释AI’可以帮助您理解为什么人工智能基础架构能够产生特定的结果。”换句话说,“可解释AI”能否准确解释特定机器学习模型为何得出结论,对于企业中负责最终决策的高管来说很重要。对于高度严格的行业来说,能够相信AI作出的决策是至关重要的。
“可解释AI”现在可以用于托管在Google的AutoML Tables 和Cloud AI Platform Prediction上的机器学习模型。
此前,谷歌也曾采取措施使算法更加透明。去年,它推出了“假设工具”,供开发人员在使用谷歌的AI平台时,能够可视化和探查数据集。
通过量化数据因素,“可解释AI”可以给出更多见解,并让更多用户读懂这些见解。
“模型卡”将算法“黑匣子”打开,提供有关特定算法详细实用信息
Google Cloud战略主管Tracy Frey说:“您可以将‘可解释AI’与我们的假设分析工具配合使用,以全面了解算法模型的行为。”
在某些领域,例如医疗保健,提高AI的透明度将特别有用。例如,在某些疾病诊断的算法中,它会将医生诊断病症并给出决策的过程可视化,并验证这些症状不是假阳性或其他疾病的征兆。
谷歌还宣布将推出所谓的“模型卡”的新概念,即提供有关特定算法快速信息的简短文档。
这些文档实质上是用于机器学习的ID卡,其中包括有关模型性能和限制的详细实用信息。谷歌表示,这将“帮助开发人员更好地决定将哪种模型用于什么目的,以及如何负责任地部署它们。”
目前,Google已发布了两个模型卡示例,其中提供了有关人脸检测算法和对象检测算法的详细信息。
图片:Google模型卡
面部检测模型卡说明,该算法可能会受到面部尺寸,方向或光线不足的限制。
用户可以阅读有关模型输出的信息,如性能和局限性。例如,人脸检测模型卡说明该算法可能受到人脸尺寸,方向或光线不足的限制。
这次,宣布的新工具和功能是Google证明其遵守AI原则的尝试的一部分,该原则要求在开发该技术时提高透明度。而今年早些时候,谷歌解散了成立一周的AI道德委员会,该委员会旨在监督其谷歌对人工智能的使用。
相关文章
- DolphinDB Shark!一个基于遗传算法的自动因子挖掘平台
- 110万奖池引领科技未来——2024长三角(芜湖)算力算法创新应用大赛火热来袭
- 容联云大模型多模态解读及生成算法通过国家网信办备案
- 科沃斯机器人大模型算法通过备案,AI大模型与智能清洁结合带来哪些超级体验?
- 共研算法未来 百望云金盾大模型入选“BPAA全球应用算法模型典范”Top50
- 天冕科技再获专利—基于深度学习算法和图像分割技术的裸露图片检测方法!
- 第四届BPAA算法大赛成功举办!共研算法未来
- 中兴通讯斩获CVPR 2024国际算法大赛冠军
- 冠军揭晓!2024『猛犸杯』国际生命科学数据创新大赛-欧洲·算法赛圆满落幕
- BPAA第四届全球应用算法典范大赛TOP50榜单出炉
- 算法盛宴,激战琶洲!第三届琶洲算法大赛邀您共赴智慧之旅!
- 天九商机大模型算法获国家网信办备案,引领企服AI新篇章
- AI高考志愿规划师王炸来袭!数据、算法比张雪峰更强大
- BPAA第四届全球应用算法模型典范大赛启动
- 通过深度合成服务算法备案,九方智投乘风破浪,智能投顾正当其时
- 揭榜第四届全球应用算法挂帅新机制,聚焦行业大模型产业化落地