www.design-reuse-china.com
搜索,选择,比较,与提供商进行安全高效的联系
Design & Reuse We Chat
D&R中国官方微信公众号,
关注获取最新IP SOC业界资讯

台积电CoWoS产能告急,谁能分得一杯羹?

www.laoyaoba.com, Jul. 31, 2023 – 

集微网报道(文/朱秩磊)ChatGPT为代表的AIGC 引发AI计算中心需求井喷,英伟达高性能GPU成为了新一轮AI掘金热的硬通货。如果AI进步的瓶颈在于算力,那么现阶段计算能力的主要限制则是英伟达的GPU供应能力,随着需求持续攀升,其生产正越来越受限于台积电CoWoS的产能。

尽管台积电在最新的业绩说明会中强调不认为在 AI 能在今年下半年驱动半导体需求恢复增长,但仍然为英伟达等主要AI芯片的客户启动了CoWoS产能扩张计划。然而远水救不了近火,CoWoS严重短缺的当下,谁有机会分得一杯羹?

代工、封测产能过剩,CoWoS缘何逆袭?

2022年下半年以来,半导体行业景气度急转直下,过高的产业链库存,使得除汽车领域之外的大部分代工、封测市场进入了产能过剩的状态。近期TrendForce的数据显示,与前两年的订单满载截然不同的是,当前各大晶圆厂的产能利用率未达到峰值。8英寸晶圆产线中,台积电、联电、世界先进、力积电和中芯国际(约当8英寸晶圆)的产能利用率预计分别下降至97%、80%、73%、86%和79.5%;12英寸晶圆产线,台积电、三星、联电产能利用率分别下降至96%、90%、92%。

封测方面,IDC最新研究显示,由于封测厂仍处于清库存阶段,上半年产能利用率大部分维持在50%-65%,随着库存调整后的需求温和复苏,下半年有望回升至60%-75%,甚至来自先进封装的部分急单能让产能利用率提升至80%,然而仍与2022年的70%-85%仍有差距。

然而就在这样的颓势下,台积电连月来不断传出CoWoS先进封装产能告急的声音。究其原因,正是ChatGPT为代表的AIGC驱动英伟达、AMD等公司的高性能计算芯片GPU、CPU等需求井喷,而这些芯片大多采用了台积电的CoWoS封装。

TrendForce最新报告指出,目前主要由搭载英伟达A100、H100、AMD MI300,以及大型数据中心厂商如谷歌、AWS等自主研发的AI服务器成长需求强劲,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等)出货量预估近120万台,年增率近38%,AI芯片出货量同步看涨,可望成长突破五成。

在全球对于AI数据中心算力的旺盛需求推动下,英伟达的GPU订单也在不断飙升,其最高端的H100在明年第一季度之前都是售罄状态。为此,英伟达近月来都在争取台积电对其A100、H100等AI GPU的产能支持,同时亚马逊AWS、博通、思科和赛灵思等公司也都提高了对台积电的产能需求。这些芯片无一例外都使用了台积电的CoWoS封装。

例如英伟达H100采用台积电4N工艺、CoWoS-S 2.5D封装。芯片流片在台积电位于台南的Fab 18厂,与其N5工艺共用相同的机台,由于PC、智能手机和非AI相关数据中心芯片的需求严重疲软,台积电N5工艺的产能利用率降至70%以下,因此H100的晶圆生产没有任何问题,甚至因吸收了台积电的闲置先进产能而获得一些定价优势。而这些流好片的晶圆(WIP)存放在晶圆库中,等待CoWoS产能才能继续封装成为最后的成品。

供应链消息显示,仅英伟达今年对CoWoS的需求就达到4.5万片,比年初预计的3万片大幅增加了50%,台积电原本产能就不多的CoWoS湿制程更难以满足如此庞大的需求。

AI推动HBM成存储厂商救命稻草,但产能难以即时满足

除了CoWoS产能,HBM(高带宽存储)也正成为限制AI处理器的另一个重要瓶颈。

用于数据中心中的GPU,扩展内存带宽越来越重要,尤其AI服务器中推理和训练工作负载是内存密集型的,随着人工智能模型中参数量的指数级增长,仅模型权重参数的大小就已达到TB级。因此,AI处理器的性能受到从内存中存储和检索训练和推理数据的能力的制约,这就是俗称的"内存墙"问题。

点击阅读更多

 Back

业务合作

广告发布

访问我们的广告选项

添加产品

供应商免费录入产品信息

© 2023 Design And Reuse

版权所有

本网站的任何部分未经Design&Reuse许可,
不得复制,重发, 转载或以其他方式使用。