|
|
|
www.design-reuse-china.com |
|

深入浅出理解CXL,为什么关键是内存?
news.eeworld.com.cn, Aug. 18, 2022 –
随着每一家主要的半导体和数据中心公司都加入,以及第一代设备即将发布,Compute Express Link (CXL) 的吸引力正在达到临界点。第 3 代 Compute Express Link (CXL) 规范刚刚发布,它带来了该标准先前版本中缺少的一些重大更改。本文将围绕CXL讨论服务器架构和异构计算的未来。
CXL 联盟有 200 多个成员,但我们认为这些公司拥有最有影响力的产品和知识产权。包括英特尔、AMD、Nvidia、Ayar Labs、HPE、微软、Meta、谷歌、阿里巴巴、Ampere Computing、三星、SK Hynix、美光、Rambus、Marvell、Astera Labs、Microchip、Montage Technology、Broadcom、和 Xconn。
过去,数据中心芯片主要是为了构建更好的 CPU 内核和更快的内存。十年前的服务器大多看起来与今天的服务器没什么不同。在过去十年中,随着横向扩展和云计算的出现,市场发生了变化。最快的核心不是优先事项。重点是如何经济高效地提供总体计算性能并将其集成在一起。
这些趋势都指向计算资源专业化的趋势。收益递减定律的最终示例之一是,在通用 CPU 性能上花费的每个增量晶体管都会带来越来越少的性能。因此异构计算将占主导地位,因为专用 ASIC 可以在使用更少晶体管的特定任务中提供超过 10 倍的性能。
为每个工作负载设计具有精确计算资源的特定芯片非常昂贵,简而言之,由于掩模、验证和确认等工序,设计芯片的固定成本正在飙升。
与其为整个工作负载设计芯片,不如为计算类别设计芯片并将它们连接到特定工作负载所需的任何配置中,这将更具成本效益。
用较小的功能构建大型系统可能会更经济,这些功能分别封装和互连。大功能的可用性与功能设计和构造相结合,应该允许大型系统的制造商快速且经济地设计和构造相当多的器件。
Gordon Moore 博士在预测"摩尔定律"的原始论文中就曾表示:"将更多组件塞进集成电路"。
然而如今,系统构建方式的变化将计算单元从单个芯片或服务器转移到整个数据中心。
黄仁勋也曾说过,数据中心是新的计算单元。
服务器内的芯片连接通常使用 PCIe完成,他的最大缺点是缺乏缓存一致性和内存一致性。这两个概念就好比像邮局一样的服务器。信件是异步的,通常是需要几天时间后处理,而连贯性有助于管理和平衡这一点。
使用 PCIe,从性能和软件的角度来看,不同设备之间通信的开销相对较高。此外,连接多个服务器通常意味着使用以太网或 InfiniBand。这些通信方法有相同的问题,并且具有更差的延迟和更低的带宽。
2018 年,IBM 和 Nvidia 将 NVLink解决方案引入了当时世界上最快的超级计算机 Summit。 AMD 在 Frontier 超级计算机中拥有类似的专有解决方案,称为 Infinity Fabric。没有任何行业生态系统可以围绕这些专有协议发展。 CCIX 在 2010 年代中期成为潜在的行业标准,但它从未真正起飞,因为尽管得到了 AMD、Xilinx、华为、Arm 和 Ampere Computing 的支持,但它缺乏关键的行业支持。
英特尔拥有超过 90% 的 CPU 市场份额,因此没有解决方案会在没有他们支持的情况下实现。英特尔正在制定自己的标准,并于 2019 年将其专有规范作为 Compute Express Link (CXL) 1.0 捐赠给了新成立的 CXL 联盟。该标准得到了半导体行业大多数供应商的同时支持。 CXL 通过使用现有的PCIe 5.0的物理层和电气层标准及生态系统,但使用改进的协议层,为加载存储内存事务增加一致性和低延迟模式。
由于建立了行业中大多数主要参与者都支持的行业标准协议,CXL 使向异构计算的过渡成为可能。

Back