|
|
|
www.design-reuse-china.com |
|

谈谈芯原的AI生态布局,尤其在端侧
芯原从2016年就开始做AI相关的IP了,到现在采用其NPU IP的芯片出货量也突破了1亿颗。芯原的AI相关IP及其生态则覆盖从云到端,这个生态大致上是这样的...
eet-china.com, Jun. 19, 2024 –
前不久的Computex大会上,黄仁勋在主题演讲中谈自家面向生成式AI数据中心集群的Spectrum交换机,计划中未来的Spectrum-X1600会用于连接百万量级的显卡。换句话说AI数据中心的GPU数量过两年就会来到百万张––要知道现在搞AI的企业能做万卡计算就已经十分了得。
原因很简单,AI模型变得越来越大了,人们对于生成式AI的需求也越来越强烈。最近的芯原AI专题技术研讨会上,乌镇智库理事长张晓东也援引OpenAI的预测,2027、2028年最大的模型需要用1000万张卡来训练。"1000万张卡的功耗会达到GigaWatt级别,相当于美国一个中小型的州。"
生成式AI是否往这个方向走我们不知道,但生成式AI正在深刻变革人与计算机的交互方式,乃至人们的生活方式。芯原执行副总裁、IP事业部总经理戴伟进评价微软Copilot"不只是AI",而是"深刻影响到与计算机交互方式的某种功能(function)","我们甚至无法分辨它是不是AI"。
随着AI Everywhere走向AI for Everyone的时代到来,包括英伟达、芯原在内的所有市场参与者普遍认同,AI要从数据中心,走向边缘、走向端侧,乃至走向嵌入式应用。今年4月份的IIC Shanghai期间,戴伟进在接受我们采访时就强调了AI全面走向边缘的趋势,而芯原现在正在思考的是如何在算力有限、功耗敏感的设备上,达成这一目标;与此同时芯片要兼顾可编程性与性能。
借着这次研讨会的机会,我们就来看看芯原具体是怎么做的,未来边缘AI又将发展成怎样。对芯片的AI相关IP做探讨,也有机会窥见英伟达之外的AI生态发展情况。



Back