|
|
|
www.design-reuse-china.com |
|

应用驱动的数据中心计算架构演进
数据中心的发展是由应用驱动的。随着AI的兴起、普及,AI大模型训练在各领域的逐步应用,人们对数据中心的GPU算力、GPU集群的需求在飞速增长。传统的以CPU为基础的数据中心架构,已很难满足AI应用的发展需求……
www.eet-china.com, Dec. 29, 2022 –
日前,在"2022 百度云智峰会·智算峰会"上,NVIDIA解决方案工程中心高级技术经理路川分享了以"应用驱动的数据中心计算架构演进"为题的演讲,探讨GPU数据中心的发展趋势,以及介绍NVIDIA在构建以GPU为基础的数据中心架构方面的实践经验。以下为内容概要。
应用对算力需求的不断增长,以GPU为核心的分布式计算系统已经成为大模型应用重要的一环
数据中心的发展是由应用驱动的。随着AI的兴起、普及,AI大模型训练在各领域的逐步应用,人们对数据中心的GPU算力、GPU集群的需求在飞速增长。传统的以CPU为基础的数据中心架构,已很难满足AI应用的发展需求,NVIDIA也一直在探索如何构建一个高效的以GPU为基础的数据中心架构。
我将从三个方面跟大家一起探讨这个话题:一,应用驱动;二,NVIDIA最新一代GPU SuperPOD的架构设计;三,未来GPU数据中心、GPU集群的发展趋势 。
我们首先看下近几年AI应用的发展趋势。总体上来讲,应用业务对计算的需求是不断飞速增长。我们以目前最流行的三个业务方向为例说明。
第一个应用场景,AI应用。我们可以从最左边的图表中可以看到,近10年CV 和 NLP模型的变化,这两类业务场景是AI领域最流行、最成功,也是应用范围最为广泛的场景。在图表中我们可以看到,CV从2012年的AlexNet 到最新的wav2vec,模型对计算的需求增长了1,000倍。
NLP模型在引入Transformer 结构后,模型规模呈指数级增长,Transformer已成为大模型、大算力的代名词。目前CV类的应用也逐步引入Transformer结构来构建相关的AI模型,不断提升应用性能。数据显示在最近两年内关于Transformer AI模型的论文增长了150倍,而非Transformer结构的AI模型相关论文增长了大概8倍。
点击阅读更多



Back