Google今年发布了第六代自研芯片——Tensor Processing Unit(TPU),命名为Trillium。
那到底什么是CPU、GPU、TPU?可能大部分人不知道吧。
- 什么是CPU、GPU和TPU
它们都是处理计算任务的芯片,尽管CPU、GPU和TPU都是处理器,但它们的专用程度逐步增加。
CPU是“中央处理单元”的缩写,这是一种通用芯片,可以处理各种任务。就像大脑一样,CPU对某些任务的处理时间可能更长,因为它并不专门针对特定领域。
接下来是GPU,GPU已成为加速计算任务的主力,从图像渲染到AI工作负载。它属于ASIC(应用专用集成电路)的一种。集成电路通常使用硅制造,因此人们也常用“硅”来指代芯片,简单来说,ASIC是为单一、特定用途设计的。
TPU,即Tensor Processing Unit,是Google自研的ASIC。Google设计TPU的初衷就是为了运行AI计算任务,使其比CPU和GPU更加专用。TPU驱动了许多Google的热门AI服务,包括搜索、YouTube和DeepMind的大语言模型。
- 那么CPU、GPU和TPU都在哪里使用呢
CPU和GPU都在日常生活中非常常见的设备中使用:几乎每部智能手机中都有CPU,而它们也存在于个人计算设备如笔记本电脑中。高端游戏系统或某些台式设备中可能会配备GPU,TPU则仅在Google的数据中心内使用
- Google为什么开始考虑研发TPU?
CPU是在20世纪50年代末发明的,GPU大约在90年代末出现。
大约十年前,Google开始考虑研发TPU,当时语音识别服务质量显著提升,但数据中心计算机数量越来越大,需要一种比现有硬件更高效的解决方案,而且需要每个芯片具备更强的处理能力。
“T”代表Tensor,Tensor是一种用于机器学习的数据结构名称。简单来说,许多数学运算在幕后支持着AI任务的实现。
- TPU Trillium
最新的TPU Trillium提升了计算能力:与上一代TPU v5e相比,Trillium的单芯片峰值计算性能提高了4.7倍。
另一个优势是Trillium是迄今为止我们最环保的TPU——相比上一代TPU,它的能效提升了67%。随着AI需求不断增长,行业需要更可持续的基础设施扩展。Trillium本质上使用更少的电力来完成相同的工作。