DPU与超算服务器
软硬件融合:从DPU到超异构计算
DPU是当前一个非常热门的话题。副标题是“从DPU到超异构计算”,本文详细分析了对DPU认识的四个层级:
Level 1:DPU是CPU的任务卸载/加速。Level 2:IPU是基础设施,支撑上层应用。Level 3:DPU/IPU是计算的核心,CPU和GPU成为扩展。Level 4:DPU/IPU的本质是超异构计算,需要在极致灵活性的基础上,提供极致的性能。
参考文献链接
https://www.sdnlab.com/25519.html
https://mp.weixin.qq.com/s/9ScI5qDlG7-ldTfCv3_PIg
https://mp.weixin.qq.com/s/CyE5J37LIxPN9poUYpccWQ
软硬件融合:从DPU到超异构计算
1 (背景)云计算复杂计算场景挑战
云计算是由IaaS、PaaS以及SaaS组成的分层服务体系,计算、存储和网络是IaaS层核心的三类服务。
云计算的特点:
· 超大的规模、大量的数据、复杂的网络以及无处不在的安全问题;
· 虚拟化、多租户;
· 复杂系统解构以及可扩展性;
· 繁重的工作负载以及针对特定场景的服务;
· 可迁移性,和对设备和服务接口一致性的要求。
底层硬件架构挑战:
· 如何兼顾性能和灵活性;
· 从业务异构加速、工作任务卸载,到业务和管理分离;
· 如何实现接口的标准化和弹性,以及硬件加速的虚拟化和个性化;
· 如何实现硬件加速的弹性和支持软件的长期迭代;
· 如何硬件高可用;
· 最大挑战:一个平台应对上述所有挑战。
2.1 软硬件融合的背景
软件应用层出不穷,并且快速迭代。两年一个新的软件热点,并且,已有热点技术仍在快速演进和迭代。
而硬件越来越复杂,芯片工艺走向5nm以下,甚至即将进入亚纳米,3D堆叠封装,4D的Chiplet互联。这都使得芯片规模越来越大。芯片如此复杂,越来越难以驾驭;同时,芯片的一次性成本及研发风险都变得越来越高。
CPU性能瓶颈,但服务器的工作负载数量和单个负载的算力消耗仍在增加,“摩尔定律”要想持续,必须需要更多更复杂的硬件加速。而ASIC/DSA的灵活性不够,难以满足应用的多样和变化,也使得芯片越来越难以大规模落地。
软硬件之间的鸿沟越拉越大:CPU软件性能低下,定制ASIC难以大规模复制;软件迭代越来越快,硬件迭代却越来越慢。芯片高投入高风险,严重制约著软件的发展。
2.2 软件和硬件的定义
指令是软件和硬件的媒介,指令的复杂度(也即单位计算的密度)决定了系统的软硬件解耦程度。
按照指令的复杂度划分,典型的处理器平台大致分为CPU、协处理器、GPU、FPGA、DSA、ASIC等。从左往右,各个处理器平台的单位指令越来越复杂,性能越来越好,而灵活性却越来越低。
我们把任务在CPU运行,定义为软件运行;把任务在协处理器、GPU、FPGA、DSA或ASIC运行,则定义为硬件加速运行。
2.3 软硬件融合
把一个Workload映射到处理引擎,有如下特点:
· 均衡:根据任务特点,映射到CPU、GPU、DSA、ASIC等最合适的处理引擎。
· 动态:任务最合适的处理引擎,并非一成不变,而是随着系统发展迭代有可能Offload/Onload。
复杂的系统,由分层分块的各个组件有机组成。软硬件融合,不改变系统层次结构和组件交互关系,但打破软硬件的界限,通过系统级的协同,达成整体最优。
传统分层很清晰,下层硬件上层软件;软硬件融合的分层分块,每个任务模块都是不同程度软硬件解耦基础上的软硬件协同。整个系统呈现出:软件中有硬件,硬件中有软件,软硬件融合成一体。
《软硬件融合》图书的副标题是“超大规模云计算架构创新之路”,来源是:①复杂分层的系统、②CPU性能瓶颈、③超大规模以及④特定场景服务,这些原因共同使得:软硬件融合当前主要是系统不断卸载。
“无规模,不卸载”。哪些任务适合卸载?
性能敏感,占据较多CPU资源;
广泛部署,运行于众多服务器。
宏观的看,分层的系统,越上层越灵活软件成分越多,越下层越固定硬件成分越多,根据这个特点,软硬件融合卸载可以形成如下趋势:
被动的趋势。庞大的规模以及特定场景服务,使得云计算底层Workload逐渐稳定并且逐步Offload到硬件。
主动的趋势。软硬件融合架构,使得“硬件”更加灵活,功能也更加强大,使得更多的层次功能向“硬件”加速转移。
2.4 软硬件融合的应用领域
云计算的规模庞大,算力要求最高,系统也最复杂。所以,云计算最先遇到各种挑战,最需要软硬件融合。
未来,随着其他领域的算力需求和系统复杂度也质的提升,必然也需要软硬件融合相关技术。软硬件融合,面向未来复杂计算场景,超异构混合计算,算力需求再上1-2个数量级。
软硬件融合相关技术,从云计算抽象出来,反过来指引包括云计算在内的各种复杂计算场景的芯片及系统设计。
软硬件融合相关的技术包括:
· 软硬件接口。聚焦软件和硬件高效的数据交互;
· 高性能网络。例如RDMA和拥塞控制。
· 算法加速和任务卸载。算法硬件实现以及任务卸载框架。
· 虚拟化的硬件加速。虚拟化处理的高性能实现。
· 异构计算加速平台。独立/集成的GPU/FPGA/DSA异构加速平台。
4.1 CPU卸载视角:DPU是集成加速平台
需要有独立的加速平台,不断的把工作任务从CPU软件卸载到硬件加速。因此,DPU/IPU主要用于底层通用任务加速,而GPU/FPGA/DSA用于应用层的业务加速。
NVIDIA 2020年5月发布DPU,10月份大张旗鼓宣传;作者2020年8月份提出四阶段论;Intel 2021年6月份发布IPU。
4.2 DPU的额外价值:业务管理分离,释放AI强劲动力
业务和管理分离,有非常多的额外好处,如:
· CPU资源完全交付;
· 传统客户方便上云;
· 主机侧独立安全域;
· 物理机+虚拟机的优势合并;
· 统一公有云和私有云运维。
CPU性能瓶颈,IO带宽持续增大,IO成为系统瓶颈。DPU/IPU增强了IO的功能,并且逐渐吞噬CPU和GPU的通用工作任务。
4.3 以数据为中心
大数据、AI等场景呈现“高数据量低计算量”的特点,并且“云原生”等趋势使得云计算复杂系统解构,进一步增强了这一特点。
以计算为中心,指令控制流驱动计算;未来,以数据为中心,数据流驱动计算。
4.4 DPU/IPU典型案例
典型案例:AWS Nitro系统 (偏通用可编程)vs NVIDIA Bluefield DPU (偏定制极致性能)。
AWS Nitro系统包括:VPC加速卡、EBS加速卡、本地存储加速卡、Nitro控制器、安全芯片以及Lite Hypervisor。
NVIDIA DPU-2的优势:硬件网络加速/RDMA网卡/单芯片SOC;劣势:存储软件卸载/非标接口/难以差异化/网络无法数据面编程。
5.1 DPU成为计算的核心
CPU、GPU和DPU,既相互协作,又相互竞争。互联网法则:得入口者得天下。DPU/IPU成为数据中心算力和服务的核心。
传统的观点,大家认为DPU是CPU的任务卸载。而从软硬件融合观点,则认为:DPU是包含嵌入式CPU/GPU在内的超异构计算平台,而独立CPU/GPU是DPU的扩展。
5.2 超异构和软硬件融合
当前,大家对DPU的认识还没有形成定论,从DPU到超异构计算,整个认识是逐级增强的:
Level 1:DPU是CPU的任务卸载/加速。Level 2:IPU是基础设施,支撑上层应用。Level 3:DPU/IPU是计算的核心,CPU和GPU成为扩展。Level 4:DPU/IPU的本质是超异构计算,需要在极致灵活性的基础上,提供极致的性能。
要实现超异构计算,为什么需要软硬件融合架构(Converged Architecture of Software and Hardware,CASH)?软硬件融合能够做到:
· 性能。相比GPGPU,性能再提升100+倍;相比DSA,性能再提升10+倍。
· 灵活性。接近于CPU的灵活性、通用可编程性。
· 资源效率。跟DSA接近的资源效率,单位晶体管消耗下最极致的性能。
· 设计规模。软硬件融合,驾驭10+倍更大规模的设计。
· 架构。基于软硬件融合架构的超异构计算:CPU + GPU + DSA + ASIC + etc.。
· 生态。开放的平台及生态,开放、标准的编程模型和访问接口,融合主流开源软件。
5.3 第四代算力革命:基于软硬件融合的超异构计算
DPU技术与市场
一 DPU概况
1、网络数据处理结构分析
2、主流的DPU三种技术路线对比
3、DPU的硬件与软件架构
4、纵向与横向的DPU生态
5、DPU关键特征以及主要功能
6、DPU在云计算领域的网络卸载应用
7、DPU的存储卸载应用
二发展阶段与市场规模
1、DPU 1.0与2.0阶段发展特点及关键指标
2、DPU 两大应用领域
3、DPU解决数据中心在传统技术下的弊端
4、5G边缘计算场景下的加速计算需求
5、元宇宙的技术架构
三产业链与发展现状分析
1、DPU产业链图谱
2、全球EDA行业竞争格局
3、主流晶圆制造厂逻辑制程发展节点
4、5G业务发展对DPU的需求
5、中国DPU芯片厂商梯队划分
DPU 具备高度灵活可编程性,其功能可通过软件定义向网络、存储、安全等应用进行延伸。通过灵活地运用 DPU 的功能,在满足不同应用场景对于释放算力、提高数据处理效率需求的同时,还具有贴合具体应用场景需求的能力,如助力形成信息安全解决方案等。因此,DPU 具有渗透众多应用场景的潜力。
不断改进产品与应用场景的贴合度,打磨DPU 产品在锚定应用领域的商业化能力是现阶段发展的重点, DPU 概念在这发展过程中将逐步具象化,行业外部对DPU 认知也将逐渐加强。基于现阶段所积累的技术与应用场景理解,芯片厂商将持续扩大 DPU 所能覆蓋的应用场景。
海外芯片龙头厂商基于自身影响力率先打开市场,中国芯片龙头厂商也紧步跟上,产品将逐步落地应用。在行业发展初期,双方皆处于接受终端应用验证的阶段,发展进度相近。
在打磨 DPU 大规模商业化的阶段,拥有较强适配性并释放客户开发能力的产品更具有竞争优势,软件生态则是形成这一竞争优势的关键。此外,中国芯片厂商还可以打造产业链生态以及横向的协同生态,提高研发效率、打造多样化产品,从而把握行业发展的机遇。以 DPU 为中心,联合芯片行业各方协同发展,将有望推动中国芯片行业整体发展。
超级计算,也称之为高性能计算,指的是利用并行工作的多台计算机系统的集中式计算资源,处理极端复杂的或数据密集型的问题。超级计算具备极强的计算能力,其浮点运算速度能够达到千万亿次每秒。超级计算作为国家科技发展的重要制高点之一,不仅是国家的科技实力的体现,更是国家高精尖技术发展的重要保障。1、典型服务场景超算云服务市场的主要分类:与传统超算服务类似,超算云的主要服务场景也聚焦在工业仿真、人工智能创新、生物信息、气象、能源等方面。与传统超算不同的是,超算云服务为了实现更大的计算资源灵活性,牺牲了集群的部分计算性能。在追求极致性能的尖端超算领域,超算云服务更多地是作为临时性的补充计算资源,业务偏好性不够高。通常来看,超算云服务市场的核心场景集中在通用超算和业务超算,此外人工智能也是超算云服务的核心服务场景之一。从算力资源的需求看,高性能计算可以分为尖端超算、通用超算、业务超算和人工智能超算四大类。
2、主要玩家类型及对比
3、中国国家级超算中心分布
4、未来超算云的可渗透市场空间分析
5、竞争格局分析
超算行业通过提供高性能的计算能力,赋能数据回收与分析、数据模拟等场景,从服务场景看,传统超算行业围绕气象海洋、地质勘探、工业仿真、物理模拟等为主,服务对象多以高等院校、科技研究所、政府主导的科技工程项目为主,随着互联网、大数据、物联网时代的到来,越来越多的企业对数据分析的需求越来越强。面对海量的数据分析和处理需求,一般性的计算机、服务器已经无法胜任技术要求,例如多媒体渲染、分子模型模拟、碰撞实验等。未来,在科技的赋能下,越来越多的企业服务场景将面临显著的高性能计算服务需求。报告部分内容展示如下
参考文献链接
https://www.sdnlab.com/25519.html
https://mp.weixin.qq.com/s/9ScI5qDlG7-ldTfCv3_PIg
https://mp.weixin.qq.com/s/CyE5J37LIxPN9poUYpccWQ
下一篇