谷歌千元级TPU芯片发布,TensorFlow更换Logo推出2.0最新版
2019-03-07 13:14:36爱云资讯阅读量:1,444
今天凌晨,谷歌一年一度的TensorFlow开发者大会在加州举行。明明应该是一场软件盛会,却被生生开出了硬件发布会的味道。
谷歌在会上发布了两款AI硬件:售价仅千元搭载着TPU的开发板;可以为Linux机器学推理加速的计算棒。它俩取代软件成了本次发布会的主角。
当然还有照例升级的TensorFlow 2.0 Alpha版,版本号提升的同时,Logo也变成时下流行的扁平化设计。
在移动设备运行AI模型越来越主流的今天,用于部署在边缘设备上的TensorFlow Lite终于迎来了1.0版。
下面就让我们一起来回顾这场发布会的亮点吧。
发布会主角Coral
Coral开发板(Coral Dev Board)是一款售价150美元(折合人民币约1000元)的小型计算机,具有可拆卸的模块化系统和一个定制的TPU芯片,类似于树莓派。
Coral中的Edge-TPU尺寸大约只有一枚硬币的1/4,拥有1GB的LPDDR4内存和8GB的eMMC存储,安装Mendel版Linux或者Android,可以进行本地的离线运算。
它不训练机器学习模型,而只是用TensorFlow Lite进行推理预测,因此比全栈框架更节能。
Coral能够以每秒30帧的速度在高分辨率视频上运行深度前馈神经网络,或者以每秒超过100帧的速度运行MobileNet V2这样的单一模型。
这位妹子现场用Coral展示了一个有趣的图像分类应用。只需要开发板加摄像头,再加几个按钮而已。
右边的四个按钮,各自代表一个类别。
给AI看一只橘子,连按十几下黄色按钮。
再看到橘子的时候,黄灯就会亮起。
再给AI看TF的标志,也是橙色的,连按十几下红色按钮。
然后,再看到标志的时候,红灯就会亮起。
这时候,就算再把橘子放到摄像头前,AI也不会被迷惑,毫不犹豫地点亮黄灯。
同时,谷歌还发布了一款Coral USB加速器,体内同样包含一颗Edge TPU,可以在任何64位ARM或x86平台的Debian Linux上运行。
Coral USB加速器售价75美元,可以加速树莓派和Linux系统的机器学习推理。
谷歌不是第一个发布此类产品的厂商,英特尔早在几年前就发布过USB神经网络加速计算棒,但是神经计算棒只支持Caffe,而Coral支持Caffe、TensorFlow和ONNX。
由于PyTorch能转成ONNX,所以Coral实际上也能支持PyTorch。
连竞争对手Facebook的大神Yann LeCun,也在推特上给出一个好评:“Nice feature rundown at Hackaday”。
此外还有一款售价25美元、500万像素的相机配件。
前两款硬件已经可以去官网订购,和查看详细技术文档:
https://coral.withgoogle.com/
TF 2.0 Alpha
TensorFlow团队表达了对Keras更深的爱。
用tf.keras高层API,可以有效简化TF的使用。
团队说,从前tf.keras的设定用来做小模型的,要扩大规模怎么办?
估计器 (Estimators) 就是强大的工具。
在2.0里,tf.keras已经整合了Estimators的能量:
如此,便不用在一个简单API和一个可扩展API之间,再做多余的选择。
死磕Keras,扔掉其他API,就是为了减少重复。
除此之外,就是Eager Execution变成了默认设定。有了它,除了执行起来更加快捷,debug也容易一些:
“可以使用 Python 调试程序检查变量、层及梯度等对象。”
快速上手
如果想要丝滑入门TF 2.0的Alpha版,可前往TensorFlow新鲜设计的友好网站,那里有教程和指南:
https://www.tensorflow.org/alpha
团队温馨建议,先观察一下“Hello World”示例,分为初学者版和老司机版:
初学者版,用的是Keras Sequential API,最简单的入门大法;
老司机版,展示了怎样用命令式来写正向传播、怎样用GradientTape来写自定义训练loop,以及怎样用tf.function一行代码自动编译。
然后,再去读Effective TensorFlow 2.0等等指南。
不止这些,还有AutoGraph指南,代码升级指南,以及其他Keras相关指南,一应俱全。
还有新课
随着TF 2.0 Alpha版一同发布的,还有两门深度学习课程,零基础可食用。
其中一门,吴恩达老师参与了课程开发,叫做针对人工智能、机器学习和深度学习的TensorFlow入门:
这是一套实践课程,会教你在TensorFlow里面搭建神经网络、训练自己的计算机视觉网络,再利用卷积来改善网络。
课程分四周。
第一周,了解一种编程新范式。
第二周,入门计算机视觉。
第三周,用CNN增强计算机视觉。
第四周,给网络喂食真实世界的图像。
另一门,是优达学城的免费课,叫做针对深度学习的TensorFlow入门。
第一节课还在了解课程大纲,第三节课就已经要训练自己的模型了:
现在,前四节课已经上线。第五节待续中。
给手机用的TF Lite
介绍完TF 2.0后,谷歌TensorFlow Lite的工程师Raziel Alvarez上台,TF Lite 1.0版正式上线。
TensorFlow Lite是一个为移动和嵌入式设备提供的跨平台解决方案。谷歌希望让TensorFlow能够运行在更多设备上。
除了PC和服务器以外,我们的生活中还有像手机、智能音箱、智能手表等设备需要用到机器学习模型,而它们都是无法运行TensorFlow的。
要让这些设备运行TensorFlow需要面临以下挑战:计算力不足、存储空间有限、电池限制。
必须要有个轻量级(Lite)框架能将机器学习模型部署在移动和IoT设备上的。
TensorFlow Lite就是为此而诞生,它于2017年5月在谷歌I/O开发者大会上首次推出,目前它已经部署到超过20亿台设备中,主要是通过以下一些软件,包括谷歌官方应用和两家来自中国的应用——爱奇艺、网易。
接着谷歌邀请了来自中国的网易机器学习工程师Lin Huijie介绍了TensorFlow Lite在“有道”中的应用。
Lin Huijie说,网易用它实现了30~40%的图片翻译加速。
谷歌表示为移动设备部署TF Lite非常方便,只需用TensorFlow打包好模型,再用TF Lite转换器将之转化为TF Lite模型。
经过TF Lite的优化后,设备在CPU上的性能达到原来的1.9倍,在Edge TPU上的性能最高提升了62倍。
其他
除了以上几款硬件和软件外,谷歌今天还发布了TensorFlow Federated,和TensorFlow Privacy。
TensorFlow Federated是一个开源框架,用来训练来自不同位置数据的AI模型。TensorFlow Privacy能让开发人员更容易训练具有强大隐私保障的AI模型。
另外在发布会上亮相的有:TensorFlow.js 1.0;Swift for TensorFlow 0.2。
相关文章
- 谷歌推出Learn About实验性新AI工具,重塑学习新方式
- ChaGPT网页搜索引擎上线 OpenAI挑战谷歌
- 谷歌超过四分之一的新代码是由人工智能生成
- Meta在开发自己的人工智能搜索引擎,减少对谷歌和微软的依赖
- 谷歌宣布开源水印识别工具SynthID,可供开发人员和企业免费使用
- 谷歌将于11月21日起从搜索结果中移除站点链接搜索框
- 谷歌宣布搜索与广告业务高管人事变动 人工智能部门结构调整
- 七个核反应堆为谷歌的人工智能野心提供电力能源
- 谷歌签署购买核电的协议,解决人工智能数据中心用电需求
- 荣耀在HONOR Magic V3和HONOR 200系列手机上推出谷歌Circle to Search功能
- 谷歌Gemini 1.5 AI 模型全新升级,字节跳动/微美全息加速AI驱动数字化变革
- 谷歌扩大人工智能搜索功能,将广告整合到移动设备的概述中
- 谷歌推出基于Gemini的Gmail更新,上下文智能回复功能更加智能
- 谷歌即将更新全球近80个国家的街景地图,又有新增一些国家
- 谷歌Chrome改进跨平台标签同步,不同设备之间的切换更加天衣无缝
- 谷歌宣布将把AI生成的图片在搜索结果中做标记