我的位置:

里程碑式Google TPU v4重磅发布

发布人:金准数据

微信图片_20210520092502.png

       每一个TPU v4 Pod就能达到1 exaFlOP级的算力,实现每秒10的18次方浮点运算。这甚至是全球最快的超级计算机“富岳”的两倍性能。

       “如果现在有1千万人同时使用笔记本电脑,所有这些计算机累加的计算能力,刚好就能够达到1 exaFLOP的算力,而之前要达到1 exaFLOP,可能需要专门定制一个超级计算机。”皮查伊如是说。

       今年的MLPerf结果表明,GoogleTPU v4的实力不容小觑,在使用ImageNet数据集的图像分类训练测试(准确度至少75.90%),256 个TPU v4在1.82分钟内完成了这一任务,这几乎与768个NVIDIA Nvidia A100图形卡、192个AMD EPYC 7742内核(1.06分钟)、512个华为AI优化的Ascend 910芯片以及128个Intel Xeon Platinum 8168内核(1.56分钟)组合在一起的速度一样快。

       当负责在大型维基百科语料库上训练基于Transform的阅读理解BERT模型时,TPU v4的得分也很高。使用256个TPU v4进行训练需要1.82分钟,比使用4096 TPU v3进行训练所需的0.39分钟要慢1分多钟。

       同时,如果想要使用NVIDIA的硬件达到0.81分钟的训练时间,需要2048张A100卡和512个AMD EPYC 7742 CPU内核。

       Google同样在I/O大会上展示了能够用到TPU v4的具体AI实例,包括能够同时处理网页、图像等多种数据的MUM模型(Multitask Unified Model,多任务统一模型)和专为对话打造的LaMDA都是能够用到TPU v4的场景模型,前者比阅读理解模型BERT强1000倍,适合赋能搜索引擎帮助用户更加高效地得到自己想要的信息,后者则可以与人类进行不间断的对话交流。

       这一并不向外出售的TPU,很快将在被部署在Google的数据中心,而且90%左右的TPU v4 Pod都将使用绿色能源。

       另外,Google也表示,将在今年晚些时候开放给Google Cloud的客户。

       Google自研TPU,五年更新四代 Google最早于2016年宣布首款内部定制的AI芯片,区别于训练和部署AI模型的最常见的组合架构,即CPU和GPU组合,第一代TPU在那场世界著名的人机围棋大战助力AlphaGo打败李世石“一战成名”,宣告并不是只有GPU才能做训练和推理。

       Google第一代TPU采用28nm工艺制程,功耗大约40W,仅适用于深度学习推理,除了AlphaGo,也用在Google搜索、翻译等机器学习模型中。

       2017年5月,Google发布了能够实现机器学习模型训练和推理的TPU v2,达到180TFLOPs浮点运算能力,同时内存带宽也得以提升,比同期推出的CPU AI工作负载提升30倍,比GPU AI工作负载提升15倍,被基于4块TPU v2的AlphaGo击败的世界围棋冠军柯洁最直观地感受了这一切。

       2018年5月,Google又发布第三代TPU v3,性能是上一代TPU的两倍,实现420TFLOPs浮点运算,以及128GB的高带宽内存。

       按照一年一次迭代更新的节奏,Google理应在2019年推出第四代TPU,不过这一年的I/O大会上,Google推出的是第二代和第三代TPU Pod,可以配置超过1000颗TPU,大大缩短了在进行复杂的模型训练时所需耗费的时间。

       在AI芯片发展史上,无论是从片上内存上,还是从可编程能力来看,Google TPU都是不可多得的技术创新,打破GPU的“垄断”地位,且打开云端AI芯片的新竞争格局。