傅盛:做让企业用得好、用得起、用得安心的大模型

2024-01-31 17:35:54爱云资讯阅读量:915

随着人工智能技术的迅猛发展,大模型已成为推动AI前进的关键驱动力。然而,对于企业而言,如何确保数据安全和隐私保护,成为了一个不可忽视的问题。

对此,某零售集团的技术负责人表示,他们现在实验的AI大模型仍然局限在单店上,出于安全和权限的考虑,不敢给大模型喂更多的数据。企业的这种谨慎态度,正是出于对数据安全和隐私保护的深刻认识。

在推动AI大模型应用的过程中,猎户星空深刻认识到,数据安全和隐私保护对于企业的重要性。有些内容不应该使用ChatGPT等公有大模型来制作,因为一旦机密泄漏,就会威胁到公司的安全。

例如用户想要使用AI大模型时,就需要把自己的知识、数据先输入给大模型。这样,用户会因此获得大模型的帮助,大模型也会越来越聪明。但是,如果是像ChatGPT这样的公有大模型,用户的自己的数据也会被用来帮助同样使用这一模型的竞争对手。

事实上,越来越多的业内人士已经意识到,由于企业级应用往往涉及专业场景和多人协同工作,所以更关注协同办公场景和数据的私有性。对于那些拥有特别敏感且高价值数据的企业而言,更需要定制化或私有化AI大模型。正如中国移动汪恒江指出,“我们很多数据是一定需要私有化和个性化,不能公开,这是一定的,特别是在端侧,我们手机里面、个人的家庭硬件里面有很多的隐私数据。”

对于那些从事工程报价软件的公司而言,他们也绝对不愿意将报价信息提供给公有的大模型。同样的情况也适用于半导体等公司,以及涉及医疗领域中的隐私数据和整车厂拥有大量汽车零配件BOM数据等。因为这些企业的数据都有很高的价值。

因此在许多领域中,仅仅依赖通用大型模型可能无法实现落地推进,特别是在企业的安全和金融、政务等方面。这些公司和组织要想踏上AI大潮,只能建立私有的模型。

傅盛指出,Open AI今天几乎已经把互联网上所有公开出版的数据都给读取了。但互联网再浩瀚也是人类知识体系的冰山一角。每一个公司的文档都有自己的竞争力和特点。他强调,“企业要有持续的竞争力,就应该使用私有化大模型,让经营数据内循环,让企业过去留在每个人脑海的经验变成整个决策智能的一部分。”

不管如何,企业大模型的私有化是AI决策智能发展的必然趋势。随着企业对数据安全和隐私保护的需求日益增强,以及公有大模型的潜在风险逐渐显现,企业将更加倾向于建立私有的AI大模型。只有这样,企业才能在AI大潮中保持持续的竞争力并实现可持续发展。

相关文章

人工智能技术

更多>>

人工智能公司

更多>>

人工智能硬件

更多>>

人工智能产业

更多>>
关于我们|联系我们|免责声明|会展频道

冀ICP备2022007386号-1 冀公网安备 13108202000871号

爱云资讯 Copyright©2018-2024