开放网络的先行者与推动者—星融元
加入我们技术支持(Support)  TEL:(+86)4000989811

Helium智能网卡打造高性能算力资源池

服务器CPU负责管理面业务及部分实时性要求不高的复杂计算业务,Helium DPU 卡负责网络数据转发面和控制面业务,多块Helium DPU 卡存储的数据通过PCIe共享到同一台服务器,实现资源共享所有资源由云管平台纳管,完成计算、网络资源的统一管理和按需分配。

方案背景

虚拟化技术的发展及通信技术的更新迭代,加速了5G、AI、元宇宙、IoT等技术的落地和广泛应用,同时也带来了海量数据处理、大带宽、高性能等业务需求,这些都对现有的数据中心网络和算力体系带来了挑战。

  • 网络加速

    随着业务量的增长,网络带宽向200G、400G、800G发展,存储也逐渐进化成全闪分布式存储,在这种情况下,软件模拟实现的虚拟网络性能逐渐无法满足网络加速需求,成为数据中心整体性能扩展的瓶颈。

  • 算力扩展

    通过分布式系统扩大计算集群规模成为数据中心提升算力的主要手段,然而扩大计算集群规模又会带来机房空间、供电、散热、运维管理等一系列的成本大幅增加。

  • 降低成本

    以扩展通用服务器数量的方式来提高算力及虚拟网络性能,不可避免的带来了更高的建设成本和能耗成本支出。

  • 降低能耗

    在保证高性能算力基础设施的稳步建设下,逐年要求更低的PUE值,这就要求数据中心建设需要进一步考虑如何降低能源消耗。

打造以DPU为核心的数据中心算力体系

CPU为核心的算力体系
  • 任何数据都需要经过CPU计算、调度,算力扩展受限于CPU核数、主频限制

  • 数据I/O路径过长,数据处理速度以及整体计算性能较低

  • 软件模拟实现的虚拟网络消耗了大量CPU内核,带来了高额的“数据中心税”

  • 后摩尔定律时代,采用增加服务器数量的方式扩展算力,大幅增加建设成本与能耗成本


DPU为核心的数据中心算力体系
  • DPU成为数据处理的核心,接手CPU不擅长的数据处理业务,算力扩展不再受CPU性能限制

  • DPU加速处理I/O任务,缩短传输距离,提高数据传输效率

  • 硬件卸载虚拟网络及虚拟网络功能,降低CPU负载,消除数据中心税

  • 扩展算力可采用扩展DPU卡的方式,减少服务器部署数量,降低数据中心总体拥有成本

Helium DPU资源池解决方案

方案概述

Helium DPU资源池解决方案概述

Helium DPU资源池解决方案采用标准服务器+多块Helium DPU卡的形式为客户打造高性能算力资源池。其中DPU卡负责网络数据转发及大部分计算类业务,服务器CPU完成控制面以及实时性要求不高的复杂计算业务,并且将原本独立部署在各个服务器的网络功能池化到各块DPU卡上,进而实现优化资源分配,简化运维管理的目标。

方案架构

  • 服务器CPU负责管理面业务及部分实时性要求不高的复杂计算业务
  • Helium DPU负责网络数据转发面和控制面业务,并通过硬件加速协处理器进行加速处理
  • 多块Helium DPU存储的数据通过PCIe共享到同一台服务器,实现资源共享
  • 所有资源由云管平台纳管,完成计算、网络资源的统一管理和按需分配
DPU资源池方案的流量模型

方案特色

降低整体拥有成本,提高算力上限

  • Helium DPU资源池解决方案对比传统纯服务器的解决方案,可大幅度节省客户机房资源的消耗并简化电源管理

  • 在提供同等算力的前提下,DPU资源池解决方案可节省2/3的机架空间占用,缩减2/3的能耗支出及1/2的建设成本

  • 还可大幅度提升单位空间的算力上限。(以处理大容量会话为例,单DPU卡可支持2500万的并发会话,最高处理性能可达80Gbps,单2U服务器插8块卡可提供640Gbps的处理性能以及2亿并发会话。对比纯2U服务器方案有3倍以上的性能提升,可实现有限资源条件下算力的成倍扩展。)

提升数据处理效率,降低转发时延

  • Helium DPU卡采用高性能DPU芯片

  • 集成24核ARMv8处理器及包解析、加解密、压缩解压缩、QoS等硬件加速引擎,提供100Gbps的典型业务处理能力

  • 客户可将网络功能的转发面和控制面卸载到网卡上,同时通过内置的硬件加速引擎进行加速处理,提高数据转发效率,降低转发时延,满足5G时代多元化业务对高性能与低时延的网络要求。

加速业务功能开发,缩短上线周期

  • Helium DPU卡在保证性能和可编程性的同时,降低了应用开发和移植的难度

  • Helium提供网卡侧与主机侧驱动、DPDK/VPP开发套件以及开源的库和API,运行标准的Linux操作系统及容器虚拟化环境

  • 客户在开发应用时无需关注底层开发环境,即可进行应用的快速开发和移植,应用移植周期缩短到1周内

客户价值

降低总体拥有成本

  1. 通过标准物理服务器+DPU 智能网卡替代传统纯服务器的建设方案,可节省2/3机架空间,同时降低1/2的建设成本,节省客户后期能耗支出2/3。
  2. 由服务器CPU完成所有网络设备的管理面功能,智能网卡负责数据面及部分控制面功能,可实现存算分离、资源共享,大幅度提升计算资源管理分配效率,缩短管理配置和资源分配周期,减少客户在运管方面的投入。

提高投资回报率

  1. 通过智能网卡硬件卸载数据面处理业务,实现数据处理效率的提升,为客户业务提供高性能、大带宽、低延时的网络环境;同时采用资源池方案,保证算力扩展更加灵活,客户业务不必受限于网络和计算资源瓶颈,实现快速发展。
  2. 解决方案基于开源开放的生态及全套的软件开发环境,业务应用移植周期小于1周,可保证客户业务快速上线,避免因开发周期过长造成的损失,保证对市场需求的及时响应,提高投资回报率。

应用场景

  • DPU资源池应用场景-边缘计算

    边缘计算

    5G时代基础网络设施迎来又一波现代化改造,随着物联网、智能驾驶等业务的兴起,算力在边缘的需求愈演愈烈,运营商及云服务商纷纷将工作负载及服务从核心迁移到边缘。但边缘机房受限于空间、能耗等限制,无法进行大规模的算力扩展,只能承载有限的计算业务,无法满足日益增长的算力需求。

    采用DPU资源池方案承载5G边缘网络业务,可降低边缘机房运营成本,同时提供更高效的算力扩展。此外,DPU资源池方案还可满足超大带宽、超低延时、海量接入的边缘网络要求,赋能IoT、智能驾驶、VR/AR等边缘需求业务。

  • DPU资源池应用场景-云计算

    云计算

    云计算场景下,云服务商采用CPU软件模拟的方式实现虚拟网络及虚拟网络功能。这种实现方式虽然保证了云计算对资源灵活管理和分配的需求,但也极大的提高了“数据中心税”。并且软件模拟实现的网络功能性能较低,如需保证高性能的网络服务,又必须增加设备投入,带来成本的增加。

    采用DPU资源池方案,硬件卸载云网OVS及VNF,由Helium DPU卡进行加速处理,可以有效降低“数据中心税”,实现超高性能、按需扩展的云计算网络服务。

  • DPU资源池应用场景-网络可视化

    可视网络前端

    随着各行各业客户线上业务的发展壮大,业务对网络的监管与安全需求进一步提升,为可视网络部署带来更多挑战。为满足后端系统的监控需求,输出定制化的数据源,可视网络前端通常需要部署高级功能设备来进行深度业务处理,比如去重、脱敏、关键字匹配等。但传统高级业务处理与基本汇聚分流绑定的方案,带来了大量的资源浪费,且无法实现高级功能业务的按需分配及灵活扩展。

    采用DPU资源池方案,将可视网络前端的高级功能业务进行池化,分解到Helium DPU卡上完成,可以实现高级功能业务的独立部署、按需分配、灵活扩展,降低客户总体拥有成本。

  • DPU资源池应用场景-运营商信令关联打标

    运营商信令关联打标

    运营商信令监测业务需要对5G移动核心网的各接口的信令协议进行解码及跟踪识别,并以此为基础,提取和还原指定的信令报文。传统的信令解决方案通常采用集成高性能计算模块的框式分流设备进行一体化处理,但该解决方案存在一系列问题。

    Helium DPU卡通过搭载我司智能分流操作系统,可支持丰富的移动互联网特性,支持3GPP、3GPP2规范中的相关信令报文的识别和分流处理:

    • 4G网络S11口、S1-MME/S1-U/S6a等接口协议的识别
    • 5G网络N2/N3/N4/N8/N11/N12等接口协议的识别

    Helium DPU单卡业务处理能力可达80Gbps,2U服务器最多支持插8块卡,整机最高可提供640Gbps的信令处理能力。采用DPU资源池方案处理运营商信令业务,可提供更高的性能、更低的建设成本、更低的功耗以及更灵活的扩展性。

    对星融元产品感兴趣?

    立即联系!

    返回顶部

    © 星融元数据技术(苏州)有限公司 苏ICP备17070048号-2