|
|
|
www.design-reuse-china.com |
|

芯粒已成为AI推理芯片的新基准
单片式AI芯片已不可行––它在各个层面都迫使设计者做出妥协,包括热限制与掩模约束。
www.eet-china.com – Feb. 22, 2026 –
人工智能(AI)已从概念验证阶段迈入大规模生产阶段,而真正的运营与经济压力正集中在推理而非训练环节。无论您是在支持对话式智能体、协调工业自动化,还是在边缘部署AI,推理成本如今主导着整个AI生命周期。
然而,许多系统仍在沿用与推理工作负载实际需求不符的单裸片架构。
结果如何?能源浪费、成本膨胀、裸片利用率低下。
基于芯粒(chiplet)的架构为此提供了一种解决方案。通过将系统划分为紧密集成的功能模块––计算、存储、互连与控制––芯粒能够实现更高的良率、更高效的封装以及更快的系统演进。
对AI推理而言,数据搬运是主要的功耗来源,而架构灵活性至关重要。因此,这种方法不仅极具吸引力,而且必不可少。
半导体行业正在经历这一转型。日益壮大的芯粒供应商生态系统,如今可提供多样化的功能单元与互连方案,从而支持灵活集成、针对不断演进的AI工作负载优化的组件。在d-Matrix,我们率先在此基础上构建了一种全新的AI推理架构,实现了紧凑的裸片面积、更高的良率和更低的成本。
我们的系统旨在同时满足交互式模型的低延迟推理与批处理作业的高吞吐计算需求––所有这些均基于模块化的芯粒设计。
单裸片芯片在各个层面都迫使我们做出权衡:散热限制、掩模约束,以及非相关功能的紧密耦合,都会导致裸片面积利用率低下和分级(binning)性能不佳。
随着模型不断演进,仅因一个子系统的变更,就必须重新设计整颗裸片。这既缓慢又昂贵,尤其是在推理需求快速增长、覆盖多种外形规格与性能范围的背景下。
点击阅读更多

Back