5月份,谷歌推出其用于阿法狗的二代AI架构芯片TPU2,还就此发布论文显示TPU的速度比现行的CPU、GPU高30倍;与之争锋相对的是,GPU巨头英伟达CEO黄仁勋在随后的年度开发大会上称:TPU太僵化,英特尔的FPGA太耗能。英特尔的CPU、英伟达的GPU、TPU群雄崛起,现在的AI底层芯片接近“三国杀”的局面。有趣的是,他们比的不是谁的技术更强,而是谁的路子是正确的。
前端数据获取,后端决策控制都需要CPU,中间GPU的并行计算优势更大,而TPU在长期训练上成本能耗都低,三者配合才构成完整的AI。
从CPU到TPU变了什么?
CPU、GPU、TPU都是一种芯片架构,他们的区别是什么呢?“简单理解,CPU是一个大学生,会一些专业技能(比如说游戏办公等日常任务);GPU是一个高中生,课本知识学得很好(比如说图像识别);TPU则是小学生,只知道1+1=2。”爱活网创始人刘泽申告诉南都记者,CPU可以完成不同的任务,但在功耗成本一定情况下,计算能力很难再提升了;TPU很“白痴”,但功耗更低,并行更多,GPU介乎两者之间。“简单说来,就是一个公司有钱请30个大学生或者3万个小学生,要怎么分配就看你的需求。”
那AI需要什么。“AI实际上就是暴力计算,需要的是海量计算,简单说来就是训练与推理,不断优化从A点到B点的路线,”一位AI创业者开玩笑说,这相当于算30万题1+1,30万个小学生速度肯定比30个精算师快,“其实可以理解人工智能底层需求实际上是最‘白痴’的。”
但英伟达不这么看。有英伟达相关人士告诉南都记者,TPU的缺陷在于不能更换任务,灵活性差。不过,反过来在“怼”传统芯片老大CPU上,英伟达表示,“AI需要工作负载与加速运算。”黄仁勋在一篇博文里说,以前那种花数十亿美元的CPU节点来打造数据中心已经不适应AI的大规模运作。“目前亚马逊等主流前端应用厂商都在英伟达芯片上开发其软件系统。
“未来算法越来越专用化,AI需要海量迭代的‘暴力计算’能力,从这个角度说,CPU确实没以前那么重要了。”驭势科技创始人,前英特尔研究院院长吴甘沙告诉南都记者,“但反过来AI是一个系统,不只是一个算法,CPU还是标配。”
“AI还是需要像CPU这样的全能选手作为支撑,”英特尔相关人士告诉南都记者,没有一把钥匙能开万把锁,“英特尔的Xeon占全球支援AI应用服务器芯片市场超过97%。”从这个角度说,CPU可能在服务器后端连接作用更加明显。
“三国杀”怎么杀?
在面对TPU上,黄仁勋说:“人们无需再投资建立一个TPU,我们有现成的,而且由世界上最优秀的芯片设计师设计。”
一位AI创业者告诉媒体,英伟达的好处在于其开源,不锁定使用服务,这对于开发者很重要。
至于CPU老大英特尔,其相关人士则告诉南都记者,“很多企业用户已经有很多CPU,他们更希望利用现有资产。”但英特尔也意识到CPU的运算能力接近极致,通过“买买买”来扩充自己的版图,这两年就有167亿美元收购FPGA(介于TPU与GPU的一种架构)生产商Altera公司、153亿美元收购自动驾驶方案的Mobileye以及深度学习神经网络的Nervana Systems。英特尔研究院院长宋继强在今年展示了利用Nervana优势推出专用AI芯片Lake Crest,这也是他目前主流的“CPU+FPGA”架构———不忘老本行,新趋势也不掉队。