谷歌又放大招啦——全面开放TPU云服务。
13日,谷歌传奇Jeff Dean连发10条推特,正式宣布TPU首次对外全面开放,具体来说是将“有限数量”TPU(为机器学习定制的人工智能芯片)向谷歌云客户开放,每小时收费6.5美元。
此举意味着TPU的商业化正在加速。 也意味着谷歌将在GPU领域与英伟达正面交锋。
TPU到底厉不厉害?
TPU是谷歌为机器学习而设计的人工智能定制芯片,是一种ASIC(专用集成电路)。是谷歌为机器学习而设计的人工智能定制芯片,第一代TPU于2016年低调推出,广泛应用在AlphaGo、搜索、翻译、相册等背后的机器学习模型中。在AlphaGo战胜李世石的系列赛中,TPU能让AlphaGo“思考”更快,“想”到更多棋招、更好地预判局势。
第二代TPU是在2017年5月18日的Google I/O 大会上推出,也称为云TPU。云TPU对推理和训练都进行了优化,每个 Cloud TPU 包含 4 个定制化的 ASIC,每个 Cloud TPU 的计算能力达到每秒 180 万亿次浮点运算(180 teraflops),并提供有 64GB 的高带宽内存。
另外,这些电路卡即可以单独使用,也可以通过超高速专用网络连接起来,形成一个多层次的机器学习超级计算器,谷歌将之称为“TPU pod”。谷歌预计今年晚些时候,将会开始供应这种更大的超级计算器,并表示训练的时间-精度比将得到显着提升。
宣布开放,就是正式向英伟达开炮
在AI领域,众所周知英伟达的GPU在AI时代独占鳌头,红利尽享。其劲敌就是谷歌的TPU。此前TPU并未向第三方用户开放,英伟达的黄仁勋在谈到谷歌TPU时,就曾强硬的表示,对GPU并不构成实质性威胁。
当时,老黄还列了列参数:新的TPU可以实现45 teraflop的运算能力,而英伟达最新的Volta GPU则能达到120 teraflop。不知道黄教主此刻是何种心情。
当然此前谷歌也并不是 TPU 的唯一使用者,美国出行服务公司 Lyft 在去年底开始参与了谷歌新型芯片的测试。Lyft的软件总监Anantha Kancherla表示,“自从使用Google Cloud TPU以来,我们对其速度印象非常深刻,以前通常需要几天,而现在可能需要几个小时。深度学习正成为使自动驾驶车辆得以运行的软件的中坚力量。”
另外,谷歌方面表示,传统上,为定制 ASIC 和超级计算器编写程序需要专业知识技能。相比之下,谷歌的这款TPU实现了与TensorFlow的无缝融合,几乎无需改动,只需要使用高级 TensorFlow API 就可以对 Cloud TPU 进行编程了,像是:
- ResNet-50 以及其它流行的图片分类模型
- 针对机器翻译和语言建模的 Transformer
- 针对物体追踪的 RetinaNet
芯片提供的是人工智能三要素中的计算力,如今TPU的全面开放,可为中小AI公司在2018年的商业化应用落地提供硬件上的强大支撑。但也有业内人士评论称“TPU只能通过云获取是一大障碍,英伟达在硬件方面还是碾压谷歌”,并且认为“TPU对固定算法还是有要求,目前应用范围最广还是GPU。”
对谷歌来说,开放TPU有什么好处?
TPU专用于人工智能和机器学习,可为谷歌带来两大好处:首先,利用自主研发的芯片,谷歌可以在核心的计算基础设施方面更便宜、更有效地减少对英特尔、英伟达等芯片制造商的依赖。拥有自己的硬件使谷歌能够更快地进行实验。
其次,新的TPU也为谷歌的云计算业务带来额外收入,现在,谷歌云平台(GCP)和谷歌的业务应用程序GSuite每季度可超过10亿美元收入。
谷歌目前允许公司租用单个TPU板卡,今年晚些时候,将允许企业租用多个板卡,并连接成名为TPU pod的超级计算机网络。后面谷歌会开源更多的 ML 模型。
此次开放让TPU和TensorFlow软硬结合,或将让谷歌突破重围,也将促使芯片格局生变,商用化进入快车道时期。那么一直以来我们的国产AI处理器产品,又将如何面对这一变局?
-
谷歌
+关注
关注
27文章
6161浏览量
105295 -
英伟达
+关注
关注
22文章
3770浏览量
90980
原文标题:重磅!谷歌宣布全面开放TPU,或将改写GPU行业格局 | GGAI 头条
文章出处:【微信号:ggservicerobot,微信公众号:高工智能未来】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论