开放网络的先行者与推动者—星融元
加入我们技术支持(Support)  TEL:(+86)4000989811

星智AI网络—基于LLM大模型的Rail Only网络

星智AI网络—基于LLM大模型的Rail Only网络

Asterfusion星智AI网络解决方案

与传统方案相比,星智AI网络消除了跨GPU服务器不同GPU卡号之间的连接,只保留了与GPU相连的Leaf层交换机,将原本用于上连Spine的端口全部用于下连GPU,进一步提高Leaf交换机连接效率,并且这种网络架构仍然可以通过转发实现不同HB域之间的通信。

轻松组建智算中心万卡网络

  • 在不影响数据传输性能的情况下,精简网络架构,极大降低用户网络建设成本;

  • 将网络转发路径跳数降低至1跳,大大减少业务时延;

  • 简化网络结构,降低运维以及故障排查难度。

Rail-only架构图

以32768个GPU,128端口交换机组网为例:
  • CLOS层数:1层(Rail Only)
  • 交换机需要:256台
  • 光发射器数量:65536
  • 网络成本最大可降低:75%

方案优势

  • 增加网卡数量

    提升单机网络带宽

    1. 增加网卡的数量,初期业务量少,可以考虑CPU和GPU共用,后期给CPU准备单独的1到2张网卡,给GPU准备4或8张网卡;
    2. 提升单机网卡带宽,同时需要匹配主机PCle带宽和网络交换机带宽,星融元200G、400G以太网交换机将配合网卡确保数据传输高带宽。
    网卡速率40G100G200G400G
    PCIe3.0*83.0*164.0*164.0或5.0*16
    交换机Serdes4*10G4*25G4*50G8*50G
  • 借用RDMA技术

    应用RDMA网络(RoCE)

    1. 借助RDMA技术减少GPU通信过程中的数据复制次数,优化通信路径,降低通信时延。
    2. 通过Easy RoCE一件下发复杂的RoCE相关配置(PFC、ECN等),帮助用户降低运维复杂度。
  • 用于文章的配图

    减少网络拥塞

    1. 减少网络侧时延提高GPU使用效率:超低时延~400ns;
    2. 通过DCB协议组减少网络拥塞:PFC、PFC WatchDog、ECN构建全以太网零丢包低时延网络;
    3. 双网分流: CPU的流量与GPU流量彻底分离开,减少不同网络流量的占用和干扰;

更多资料请前往资源中心

 

Helium智能网卡打造高性能算力资源池

Helium智能网卡打造高性能算力资源池

服务器CPU负责管理面业务及部分实时性要求不高的复杂计算业务,Helium DPU 卡负责网络数据转发面和控制面业务,多块Helium DPU 卡存储的数据通过PCIe共享到同一台服务器,实现资源共享所有资源由云管平台纳管,完成计算、网络资源的统一管理和按需分配。

相关产品

方案背景

虚拟化技术的发展及通信技术的更新迭代,加速了5G、AI、元宇宙、IoT等技术的落地和广泛应用,同时也带来了海量数据处理、大带宽、高性能等业务需求,这些都对现有的数据中心网络和算力体系带来了挑战。

  • 网络加速

    随着业务量的增长,网络带宽向200G、400G、800G发展,存储也逐渐进化成全闪分布式存储,在这种情况下,软件模拟实现的虚拟网络性能逐渐无法满足网络加速需求,成为数据中心整体性能扩展的瓶颈。

  • 算力扩展

    通过分布式系统扩大计算集群规模成为数据中心提升算力的主要手段,然而扩大计算集群规模又会带来机房空间、供电、散热、运维管理等一系列的成本大幅增加。

  • 降低成本

    以扩展通用服务器数量的方式来提高算力及虚拟网络性能,不可避免的带来了更高的建设成本和能耗成本支出。

  • 降低能耗

    在保证高性能算力基础设施的稳步建设下,逐年要求更低的PUE值,这就要求数据中心建设需要进一步考虑如何降低能源消耗。

打造以DPU为核心的数据中心算力体系

CPU为核心的算力体系

  • 任何数据都需要经过CPU计算、调度,算力扩展受限于CPU核数、主频限制

  • 数据I/O路径过长,数据处理速度以及整体计算性能较低

  • 软件模拟实现的虚拟网络消耗了大量CPU内核,带来了高额的“数据中心税”

  • 后摩尔定律时代,采用增加服务器数量的方式扩展算力,大幅增加建设成本与能耗成本


DPU为核心的数据中心算力体系

  • DPU成为数据处理的核心,接手CPU不擅长的数据处理业务,算力扩展不再受CPU性能限制

  • DPU加速处理I/O任务,缩短传输距离,提高数据传输效率

  • 硬件卸载虚拟网络及虚拟网络功能,降低CPU负载,消除数据中心税

  • 扩展算力可采用扩展DPU卡的方式,减少服务器部署数量,降低数据中心总体拥有成本

Helium DPU资源池解决方案

Helium DPU资源池解决方案概述

方案概述

Helium DPU资源池解决方案采用标准服务器+多块Helium DPU卡的形式为客户打造高性能算力资源池。其中DPU卡负责网络数据转发及大部分计算类业务,服务器CPU完成控制面以及实时性要求不高的复杂计算业务,并且将原本独立部署在各个服务器的网络功能池化到各块DPU卡上,进而实现优化资源分配,简化运维管理的目标。

DPU资源池方案的流量模型

方案架构

  • 服务器CPU负责管理面业务及部分实时性要求不高的复杂计算业务
  • Helium DPU负责网络数据转发面和控制面业务,并通过硬件加速协处理器进行加速处理
  • 多块Helium DPU存储的数据通过PCIe共享到同一台服务器,实现资源共享
  • 所有资源由云管平台纳管,完成计算、网络资源的统一管理和按需分配

方案特色

降低整体拥有成本,提高算力上限

  • Helium DPU资源池解决方案对比传统纯服务器的解决方案,可大幅度节省客户机房资源的消耗并简化电源管理

  • 在提供同等算力的前提下,DPU资源池解决方案可节省2/3的机架空间占用,缩减2/3的能耗支出及1/2的建设成本

  • 还可大幅度提升单位空间的算力上限。(以处理大容量会话为例,单DPU卡可支持2500万的并发会话,最高处理性能可达80Gbps,单2U服务器插8块卡可提供640Gbps的处理性能以及2亿并发会话。对比纯2U服务器方案有3倍以上的性能提升,可实现有限资源条件下算力的成倍扩展。)

提升数据处理效率,降低转发时延

  • Helium DPU卡采用高性能DPU芯片

  • 集成24核ARMv8处理器及包解析、加解密、压缩解压缩、QoS等硬件加速引擎,提供100Gbps的典型业务处理能力

  • 客户可将网络功能的转发面和控制面卸载到网卡上,同时通过内置的硬件加速引擎进行加速处理,提高数据转发效率,降低转发时延,满足5G时代多元化业务对高性能与低时延的网络要求。

加速业务功能开发,缩短上线周期

  • Helium DPU卡在保证性能和可编程性的同时,降低了应用开发和移植的难度

  • Helium提供网卡侧与主机侧驱动、DPDK/VPP开发套件以及开源的库和API,运行标准的Linux操作系统及容器虚拟化环境

  • 客户在开发应用时无需关注底层开发环境,即可进行应用的快速开发和移植,应用移植周期缩短到1周内

客户价值

  • 降低总体拥有成本

    1. 通过标准物理服务器+DPU 智能网卡替代传统纯服务器的建设方案,可节省2/3机架空间,同时降低1/2的建设成本,节省客户后期能耗支出2/3。
    2. 由服务器CPU完成所有网络设备的管理面功能,智能网卡负责数据面及部分控制面功能,可实现存算分离、资源共享,大幅度提升计算资源管理分配效率,缩短管理配置和资源分配周期,减少客户在运管方面的投入。
  • 提高投资回报率

    1. 通过智能网卡硬件卸载数据面处理业务,实现数据处理效率的提升,为客户业务提供高性能、大带宽、低延时的网络环境;同时采用资源池方案,保证算力扩展更加灵活,客户业务不必受限于网络和计算资源瓶颈,实现快速发展。
    2. 解决方案基于开源开放的生态及全套的软件开发环境,业务应用移植周期小于1周,可保证客户业务快速上线,避免因开发周期过长造成的损失,保证对市场需求的及时响应,提高投资回报率。

应用场景

  • DPU资源池应用场景-边缘计算

    边缘计算

    5G时代基础网络设施迎来又一波现代化改造,随着物联网、智能驾驶等业务的兴起,算力在边缘的需求愈演愈烈,运营商及云服务商纷纷将工作负载及服务从核心迁移到边缘。但边缘机房受限于空间、能耗等限制,无法进行大规模的算力扩展,只能承载有限的计算业务,无法满足日益增长的算力需求。

    采用DPU资源池方案承载5G边缘网络业务,可降低边缘机房运营成本,同时提供更高效的算力扩展。此外,DPU资源池方案还可满足超大带宽、超低延时、海量接入的边缘网络要求,赋能IoT、智能驾驶、VR/AR等边缘需求业务。

  • DPU资源池应用场景-云计算

    云计算

    云计算场景下,云服务商采用CPU软件模拟的方式实现虚拟网络及虚拟网络功能。这种实现方式虽然保证了云计算对资源灵活管理和分配的需求,但也极大的提高了“数据中心税”。并且软件模拟实现的网络功能性能较低,如需保证高性能的网络服务,又必须增加设备投入,带来成本的增加。

    采用DPU资源池方案,硬件卸载云网OVS及VNF,由Helium DPU卡进行加速处理,可以有效降低“数据中心税”,实现超高性能、按需扩展的云计算网络服务。

  • DPU资源池应用场景-网络可视化

    可视网络前端

    随着各行各业客户线上业务的发展壮大,业务对网络的监管与安全需求进一步提升,为可视网络部署带来更多挑战。为满足后端系统的监控需求,输出定制化的数据源,可视网络前端通常需要部署高级功能设备来进行深度业务处理,比如去重、脱敏、关键字匹配等。但传统高级业务处理与基本汇聚分流绑定的方案,带来了大量的资源浪费,且无法实现高级功能业务的按需分配及灵活扩展。

    采用DPU资源池方案,将可视网络前端的高级功能业务进行池化,分解到Helium DPU卡上完成,可以实现高级功能业务的独立部署、按需分配、灵活扩展,降低客户总体拥有成本。

  • DPU资源池应用场景-运营商信令关联打标

    运营商信令关联打标

    运营商信令监测业务需要对5G移动核心网的各接口的信令协议进行解码及跟踪识别,并以此为基础,提取和还原指定的信令报文。传统的信令解决方案通常采用集成高性能计算模块的框式分流设备进行一体化处理,但该解决方案存在一系列问题。

    Helium DPU卡通过搭载我司智能分流操作系统,可支持丰富的移动互联网特性,支持3GPP、3GPP2规范中的相关信令报文的识别和分流处理:

    • 4G网络S11口、S1-MME/S1-U/S6a等接口协议的识别
    • 5G网络N2/N3/N4/N8/N11/N12等接口协议的识别

    Helium DPU单卡业务处理能力可达80Gbps,2U服务器最多支持插8块卡,整机最高可提供640Gbps的信令处理能力。采用DPU资源池方案处理运营商信令业务,可提供更高的性能、更低的建设成本、更低的功耗以及更灵活的扩展性。

更多资料请前往资源中心

 

云化园区网络解决方案

云化园区网络解决方案

用Spine-Leaf、Arp-to-Host、分布式网关等云数据中心领域先进的技术理念,对园区的底层网络架构进行了全面的变革。相较于传统组网方案,星融元的全三层横向扩展组网方案可降低园区建设运营成本40%以上。

相关产品

方案背景

SDN控制器的云化园区网络的建设与星融元云化园区网络对比图

园区网络正在逐步跨入万物互联的物联网时代,各类智能终端的爆炸式增长和数字经济下的创新应用对园区网络提出更严苛的要求。市面常见云化方案思路多是围绕一个综合性的SDN控制器进行整个园区网络的建设——虽然对外呈现了一个光鲜亮丽的SDN控制器,但底层仍然是僵化、复杂、臃肿的传统网络架构。云化改造不够彻底,传统园区网络架构的带来的不便之处并未得到改善,例如:

  • 复杂的安全策略增删
  • 广播风暴定位
  • WIFI频繁掉线
  • 网络扩容困难等等

方案亮点

园区网络方案架构图

  • 园区网络多级Spine-Leaf架构

    多级Spine-Leaf架构

    破除网络性能瓶颈,网络更易扩展

    在云计算和大数据旺盛的带宽需求驱动下,云数据中心网络早已转型为无阻塞的多级Clos结构(Leaf-Spine),而在当下万物互联的物联网时代,云化园区网络亦采用了早已成熟的多级Clos结构。

    并且,随着园区规模的从小到大,这个多级的Clos网络能够从一级横向扩展至多级,使得网络能够接入的终端数量从几十个扩展到几十万个不等,扩展的过程中原有的网络架构完全保持不变。

  • 全三层路由组网图

    全三层路由组网

    压缩二层域,根除广播风暴

    通过一系列技术手段,我们将二层广播域压缩至交换机的每一个物理端口。终端仅和其所连的接入层Leaf接口上的网关IP进行二层通信,网关负责完成后续的三层路由转发——这从根源上彻底阻断了二层广播风暴发生的可能性,也阻断了依赖二层通信的网络病毒的传播路径。

  • 去堆叠/MC-LAG/STP 示意图

    去堆叠/MC-LAG/STP

    充分利用带宽,不增加运维难度

    传统园区网络架构下,为避免网络环路引入了以生成树(STP)为代表的一系列防环协议,但其核心思想都是人为阻塞一部分端口,冗余下来的链路只能做闲置备份。虽然后来出现了堆叠、MC-LAG等新技术,但因技术原理复杂,给运维部门带来了额外的工作量和故障风险。

    在星融元新一代云化园区网络下,多级CLOS架构是天然无环路的,配合轻量级的等价多路径路由(ECMP)机制,可以在保证最高链路利用率和最低复杂度的前提下实现组网高可靠。

  • 轻量级的路由隔离方案

    轻量级的路由隔离方案

    更贴合业务,轻松实现一网多用

    在星融元的云化园区方案中,我们的思路是使用轻量级网络虚拟化技术进行隔离,让多种业务可以复用一张物理网络。而对于超大规模、网络空间复杂且重叠的园区网络,也可以完全复制云网中主流的VXLAN技术方案。

  • 接入层的分布式网关

    接入层的分布式网关

    更高效的园区漫游

    星融元云化园区网络在全三层组网的基础上借鉴了云网中分布式网关的概念,即:在每一台接入层交换机上都运行统一的分布式网关,并且自动学习和同步了漫游终端的IP/MAC信息。如此一来,终端漫游过程中既不会有业务断连,流量也无需到某个集中式网关上“兜圈子”。

  • 软硬解耦的开放式网络整体产品图

    软硬解耦的开放式网络

    网络可随业务的发展灵活调整

    传统园区网络中各种私有的网络协议、沉重的机框设备搭载着封闭的网络操作系统、网络无法随着业务的发展进行灵活的调整。

    星融元的云化园区网络是一个全面解耦的开放式网络,采用全盒式设备的精简组网模式,搭载以开源开放的SONiC为内核而设计的网络操作系统——AsterNOS。相关阅读:AsterNOS是一款怎样的网络操作系统?

客户价值

  • 园区网络使用者

    • 上网更流畅、更稳定
    • 跨楼层/楼栋移动,WiFi不掉线,体验类比4G/5G网络
  • 园区网络工程师

    • 除IP地址以外,同一层设备配置相同,开局自动部署上线,运维简单少背锅
    • 网络环路、广播风暴以及复杂的STP/堆叠技术,统统不复存在
  • 园区建设运营方

    • 极简运维降低了运维技能要求和人才招聘难度
    • 高可靠组网+100%带宽利用率,无广播风暴更省心
    • 软硬解耦,自主可控,避免单一厂商锁定

新办公区网络建设

相关阅读

 

全以太网超低时延HPC网络方案

全以太网超低时延HPC网络方案

HPC高性能计算提供了真正意义上的低时延、零丢包、高性能的网络。

相关产品

业务痛点

HPC高性能计算对网络的诉求,高吞吐和低时延成为两个重要的关键词。同时为了实现高吞吐和低时延,业界一般采用RDMA替代了TCP协议,实现时延的下降和降低对服务器CPU的占用率。但RDMA协议对网络丢包非常敏感,所以无损就成为网络的重要需求之一。

基于对“HPC高性能计算的网络需求”和“RDMA技术”的分析和理解,星融元Asterfusion推出了CX-N系列超低时延云交换机,为HPC高性能计算提供了真正意义上的低时延、零丢包、高性能的网络。

方案亮点

  • 使用RoCEv2,降低传输协议时延

    在业界支持RDMA的各类网络层协议中,RoCEv2 的性能较好、部署成本低、兼容性强。星融元Asterfusion CX-N系列云交换机搭建的超低时延无损以太网能够很好地承载RoCEv2,并基于RoCEv2打造一张低时延、零丢包、高性能的HPC高性能计算网络。
  • 超低时延交换芯片,降低节点延迟

    星融元Asterfusion CX-N系列云交换机从底层交换芯片到上层的各种协议栈皆面向低时延场景深度优化,可提供 Port to Port ~400ns 的转发时延,全速率下(10G~400G)转发时延相同,满足HPC场景下对于超低时延和高吞吐量网络的需求。
  • 使用PFC高优先级队列,确保存储流量不丢包

    PFC是暂停机制的一种增强,PFC允许在一条以太网链路上创建8个虚拟通道,为每条虚拟通道指定一个优先等级并分配专用的资源(如缓存区、队列等等),并允许单独暂停和重启其中任意一条虚拟通道而不影响其他。从而可为指定链路创建无丢包类别的服务。
  • 使用ECN拥塞控制算法,消除网络拥塞

    ECN(Explicit Congestion Notification,显式拥塞通知)是构建无损以太网的重要手段,能够提供端到端的流量控制,降低网络中的延迟与抖动,进而提升高性能计算集群的性能。
  • Asteria SDN云网控制器,保证网络万无一失

    AFC将网络中的设备状态,链路情况,以及告警信息等数据按照时间、资源、性能类型分类以图表的形式展现出来。支持多项数据的统计功能,使客户对整体网络有一个全面直观的了解,全面把控网络状况。

应用场景

HPC高性能计算

CX-N系列云交换机和IB交换机客户现场测试对比,时延带宽等性能指标基本一致。

HPC高性能计算,由于需要大量的运算而可用的资源有限,一台通用的计算机无法在合理的时间内完成运算工作。HPC高性能计算通过将多个单元的计算能力进行整合,能够有效地克服这些限制。

星融元Asterfusion CX-N系列超低时延云交换机构建的超低时延无损以太网,通过将RDMA运行在传统以太网上构建的网络达到了InfiniBand专用交换机的性能,帮助高性能计算方案突破网络瓶颈,为高性能计算集群提供了真正意义上的低时延、零丢包、高性能的网络。

 

一套配置模板自动化部署-云化园区解决方案-星融元

自动化部署

星融元-云化园区网络解决方案

  • 云化园区网络设备的配置优化

    分层简化配置

    传统园区网络中,往往是“一个设备、一个配置”,即每一台网络设备的配置都是不同的。对于较大规模、结构复杂的网络来说,网络配置和配置的维护、变更是网络管理员所面临的巨大挑战之一,面对复杂的网络结构、众多的网络设备、多个版本的网络配置文件,稍有不慎就会因为错误配置引发网络故障。

    云化园区网络架构追求极简的另一个有力例证就是将网络设备的配置改进为“一层设备、一个配置”。
    简单来说,通过创新的设计,云化园区网络架构彻底规避了“同层设备、配置不同”的问题,在一个二级三层的Clos网络中,无论有几十台还是上百台网络设备,只需要维护三个网络配置即可,同层设备在配置方面的差异性,完全通过软件设计上的创新和初始配置的自动化屏蔽了。在云化园区网络中,网络配置的数量不再被网络设备的总数量所决定,而是只跟网络的层数相关,将配置管理工作带给网络运维的复杂度降低了2-3个数量级,帮助网络的拥有者大幅度降低运维的综合成本。

  • 云化园区网络的零配置部署机制

    零配置部署

    云化园区网络架构引入了在服务器、云网络运维体系中广泛使用的零配置部署机制。

    在零配置部署机制中:

    • 网络管理员在管理服务器上部署文件传输系统的服务器端,并将网络操作系统镜像和按照规划生成的网络配置管理文件存放在指定目录下;
    • 云化园区网络的每台交换机上都运行着开源软件ONIE(Open Network Install Environment,开放网络安装环境),ONIE在交换机加电开机时自动运行并连接到管理服务器,按照预先设置的规则申请特定的网络操作系统镜像和对应的配置文件;
    • 管理服务器将系统镜像和配置文件传送到交换机后,交换机将自动加载新获得的网络操作系统镜像,并根据配置文件完成系统的初始配置;
    • 以上申请、加载、配置的过程均不需要网络管理员介入,完全自动化地完成,试想,对于一个有着成百上千台交换机的网络来说,零配置部署机制对网络升级、变更所带来的效率提升是非常可观的。
 

云原生环境-云化园区解决方案-星融元

云原生操作系统

星融元-云化园区网络解决方案

  • AsterNOS示意图

    开放的网络操作系统

    开放的网络操作系统是开放网络架构的灵魂,它使得网络管理员能够以SDN(Software Defined Network,软件定义网络)、IBN(Intention-Based Network,基于意图的网络)和NetDevOps的方式运维开放的网络。

    星融元的开放网络操作系统AsterNOS

    • 通过图形化界面将网络部署、变更的意图提交给网络控制器,即可自动化完成对所有网络设备的配置,即避免了繁琐的逐设备的命令行配置,又能够有效避免人工操作引入的人为错误,从而提升网络的整体健壮性;
    • 网络管理员无需再在每台网络设备上维护纷繁复杂的配置文件,而是好像维护代码一样在服务器上完成对网络配置文件的变更管理、版本管理、模拟上线运行等工作,并且网络启动时配置文件自动完成加载,无需管理员手工干预;
    • 将日常运维网络的各种软件工具,以容器化的形式运行到开放网络操作系统中去,即提升了网络运维效率,又节省了网络运维的成本(不再需要部署软件工具的物理服务器);
    • 将开源世界中的各种软件集成到现有的网络运维体系中去,并且将它们与网络操作系统紧密的融合在一起,创造出前所未有的网络运维方法;
    • 甚至,网络管理员能够通过调用开放网络操作系统提供的各类API,在各种基础网络功能之上编制出符合自身业务需求的“新”网络功能/设备来,从而真正让“应用定义网络”;
    • 更为重要的是,当园区网络与数据中心网络使用同一个网络操作系统时,将对网络运维带来运维效率提升、运维人员减少、设备备件统一等诸多便利之处。
  • AsterNOS的软件编程接口能力

    开放的编程接口

    借助于开放网络操作系统的软件编程接口能力,在云化园区网络中,各种网络业务与应用可以通过软件编程的方式自动、按需地调度网络,网络管理员甚至可以开发自有的网络应用以满足各种业务和应用的需求,让“应用定义网络”成为现实。

 

全三层组网消除二层广播风暴-云化园区解决方案-星融元

全三层组网,消除二层广播风暴

星融元-云化园区网络解决方案

大部分交互逻辑建立在广播基础上的以太网工作在网络参考模型的二层(Layer 2,简写为L2),是一种高效的通信协议。为这种高效支付的代价是,当在一定范围内(例如,跨越两台以上的交换机)部署以太网时,需要将广播在不同的交换机之间传播,由此则带来了潜在的广播风暴风险;为了规避这种风险,又出现了类似于STP(Spanning Tree Protocol,生成树协议)及其各种相关的协议和保护机制。由此,大规模部署的二层以太网结构变得越来越复杂、健壮性变得越来越差,建设和维护成本都高居不下。

究其根本原因,基本可以认为是(大范围的二层)广播导致了这一切的发生。更为严峻的是,很多网络安全漏洞,都是利用以太网的广播机制工作的。那么,在不破坏以太网基础工作原理的基础之上,如何解决这个问题?


云化园区网络架构解决这个问题的方法非常简单,也非常优雅:将L2的工作范围限制在接入终端和其所连接接入Leaf的端口之间,在确保以太网能正常工作的前提下,最大限度地压缩L2区域,彻底消除以太网广播在网络中的传播,从而将广播带来的各种复杂度、脆弱性和安全风险从根源上消除掉。

抛弃L2的L3 IP Fabric

如图所示,一旦以太网报文进入到接入Leaf的物理端口,L2就会被彻底终结,取而代之的是一个基于IP的网络。IP工作在网络参考模型的三层(Layer 3,简写为L3),这个协议在设计之初就充分地考虑了环路规避、多路径转发、高可靠、故障自愈等因素,因此在L2广播中面临的各种挑战,在L3的世界里天然不存在。而且,L2转L3的处理只发生网络侧,对于每一个接入终端来说是完全透明的,接入终端无需为此做出任何调整。借用云网络中的概念,我们也可以用IP Fabric来指代这样的园区网络的主体。

可以看到,在云化园区网络中,管理员只需要根据不同的业务需求设置不同的L3子网以隔离不同的业务,而无需配置和维护复杂的各种STP、全局VLAN、广播抑制等L2功能。尤为重要的是,经过如此的简化,网络的可靠性和健壮性是不降反升的。

抛弃L2的L3 IP Fabric

 

精简网络架构-云化园区解决方案-星融元

精简高效的云化园区网络架构

星融元-云化园区网络解决方案

  • 多级CLOS架构

    如下图所示,在采用了开放网络架构的云化园区网络中,全部采用CLOS结构的组网模型

    星融元云化园区网络采用CLOS结构的组网模型

    以一个园区为例:

    1、从楼层到整个园区,是个三级/四层的Clos网络(Leaf-Spine结构的网络):

    • 在楼层范围内,接入层交换机作为Leaf(也可称为接入Leaf),楼层汇聚交换机作为Spine(也可称为楼层Spine),构成第一级的Clos网络;
    • 在楼栋范围内,楼层汇聚交换机作为Leaf,楼栋汇聚交换机作为Spine(也可称为楼栋Spine),构成第二级的Clos网络;
    • 在园区范围内,楼栋汇聚交换机作为Leaf,园区汇聚交换机作为Spine(也可称为园区Spine),构成第三级的Clos网络;

    2、随着园区规模的从小到大,这个多级的Clos网络能够从一级横向扩展至多级,使得网络能够接入的终端数量从几十个到几十万个不等,并且,扩展的过程中,原有的网络架构完全保持不变,新扩展的模块与原有模块架构完全一致,从而最大限度地降低了维护的复杂度;

    3、基于其横向扩展能力,这个多级Clos网络完全采用盒式的单芯片交换机来搭建,彻底抛弃了传统网络架构中各种规模的框式设备,从而在最大限度上避免了框式网络硬件带来的高昂成本;

    4、在图中所示的三级Clos网络中,任意两个终端之间的通信可保证在1跳(最优情况)到7跳(最坏情况)之内完成,并且因为路由结构的设计,所有的网络通信会充分利用所有的物理线路,因此网络通信质量是高性能、高可靠且可以预测的,从而在最大限度上确保了网络提供服务的质量。

  • 传统架构园区网络与云化园区网络对比图

    无环路

    • 利用Clos结构,云化园区网络是一个天然无环的网络,因此,相较于同样规模的传统架构园区网络,无需浪费掉一半的线路资源,即,在同等线路带宽的投入下,云化园区网络可接入终端的数量是传统园区网络的一倍(或者,在同等接入终端数量的前提下,云化园区网络所需要投入的带宽资源是传统园区网络的一半);
    • 如前所述,借助IP协议的各种L3能力,无环的云化园区网络能够做到超大规模,网络中交换机的数量不再受STP的理论限制,几百台、上千台的交换机组成的云化园区网络能够接入几十万的终端,组建超大规模的园区网络;
    • 最后,当将网络中各种额外的复杂因素去除掉以后,整个网络的建设与运维难度都会大幅度降低,节省网络建设者的综合成本。
  • 云化园区网络架构中抛弃堆叠方案

    去堆叠

    在云化园区网络架构中,我们也彻底的抛弃了堆叠方案,采用基于L3能力实现的一种可靠度更高、复杂度约等于零的方案:

    • 接入终端并不需要为此方案做出任何调整,依然是通过两条(或多条)的线路、采用通用的Bond技术,上连到不同的接入Leaf上去;
    • 接入Leaf通过使用ARP学习、32位主机路由、BGP同步等功能,利用L3网络天然的高可靠、多路径能力,达到跟传统堆叠一样的效果;
    • 因为不涉及复杂的堆叠软件的开发,因此系统的稳定性非常高,不会因为复杂的堆叠逻辑引入潜在的Bug,因此是一个可靠性更高的方案;
    • 利用L3网络的ECMP负载分担能力,可以充分利用交换机之间的所有带宽传递报文,使得网络性能更高;
    • 对于网络管理员来说,不需再陷入到堆叠复杂的组网逻辑、纷繁的设备配置、脆弱的状态同步等机制中无法自拔。
 

全闪分布式存储网络解决方案

全闪分布式存储网络解决方案

通过方案级的优化设计,助力全闪分布式存储突破性能瓶颈。

相关产品

方案背景

当分布式存储的存储介质,从HDD发展到SSD+HDD,再到如今支持NVMe协议的高性能SSD,分布式存储的性能也随之大幅提升。存储介质的快速更迭,以及分布式存储系统层面的不断更新,让网络变成了全闪分布式存储的性能瓶颈。低时延、零丢包、高性能的存储网络,已成全闪分布式存储突破性能瓶颈的关键。

IB网络方案与超低时延无损以太网方案对比图

方案亮点

  • 使用RoCEv2,降低传输协议时延

    为存储集群引入RDMA技术,能够提高存储节点带宽,降低延迟、抖动和CPU的消耗。在几类RDMA网络中,RoCEv2的性能较好、部署成本低、成熟案例多,在全闪分布式存储中引入RoCEv2可以有效降低传输协议的处理时延。

  • 超低时延交换芯片,降低网络转发时延

    星融元Asterfusion CX-N系列云交换机,具备业界领先的超低时延能力,可满足分布式存储这种时延敏感型应用,对“集群规模庞大、IO路径较长的存储网络”提出的超低时延需求,可大幅降低存储业务在网络转发上的时延,提升分布式存储的性能。

  • 使用PFC高优先级队列,确保存储流量不丢包

    为缓解分布式存储网络中一对多的流量模型带来的丢包问题,使用PFC(Priority-based Flow Control,基于优先级的流量控制)为不同队列的流量提供逻辑隔离,让存储业务使用高优先级队列,降低存储流量丢包率,保障存储业务的稳定性。

  • 使用ECN拥塞控制算法,消除网络拥塞

    为了消除分布式存储网络中的拥塞情况,使用ECN(Explicit Congestion Notification,显式拥塞通知)进行网络拥塞控制,避免报文重传,降低网络延迟与抖动,进而提升存储集群的性能。

  • 高密100G接口,两层组网架构,降低节点间通信跳数

    得益于高密高性能端口的规格设计,我们可以选用不同规格的CX-N系列云交换机搭建出各种规模的Spine-Leaf架构的网络。在这样的网络架构中,任何两台服务器之间的通信不超过三台交换机,进一步降低了存储流量的转发时延。

应用场景

CX-N超低时延交换机真实场景测试数据

全闪分布式存储的前后端存储网

CX-N超低时延交换机在客户真实场景的测试数据:端到端性能全面超越IB交换机

星融元Asterfusion CX-N系列云交换机构建的超低时延无损以太网,通过诸多方案级的优化设计,帮助全闪分布式存储突破网络瓶颈。为全闪分布式存储集群提供了真正意义上的低时延、零丢包、高性能的存储网络,让存储集群的性能大幅提升。

 

能源互联网信息流的可视化解决方案

能源互联网信息流的可视化解决方案

通过星融元Asterfusion构建的网络可视交换平台,简化流量管理系统,帮助提升能源互联网信息化建设水平。

相关产品

方案背景

  • 采集装置跨区部署
    导致交叉管理

    采集装置部署在站的边界,主要采集站内的网络安全相关的数据,同时又要采集站外调度数据网的网络设备的流量,而站外网络设备归属于信通部门管辖,按照设备“谁管辖,谁调用”的原则,为了避免交叉管理,建议增加流量镜像设备实现“专管专用”。

  • 数据源分散
    导致采集装置端口不足

    监控系统设备种类繁多,虽然经过了站控层交换机的汇聚,但是由于安全分区的管理,双网双套的部署,数据源端口数量仍然比较多,再加上如果有新增设备部署,会导致扩展能力严重不足。

  • 数据量大
    导致采集装置性能不足

    监控系统7*24小时的连续运转,采集了大量的监控数据,如果不做任何区分,一股脑对采集来的数据进行安全分析,会增加采集装置的性能负载,降低后端态势感知系统运行效率形成一个个“信息孤岛”,使得大量分析信息散落在网络各处,互不相通,无法做到全网全局管理,增加了网络设备的整体管理和运维成本。

  • 数据上送能力不足

    随着态势感知系统在全站部署的逐步完善,采集装置需要将安全分析报文上送给多个主站后端系统,虽然传统交换设备可以实现报文的复制,但还是以交换为主,对报文复制和预处理的能力不足。

方案亮点

  • 为采集装置提供统一的流量汇聚

    星融元Asterfusion通过高密度接口,对来自不同网络区域的流量数据进行N:1的汇聚,解决采集端口不足的问题,简化监测装置网络部署的复杂程度,并提升系统的可扩展性。

  • 为后端系统提供线速的流量复制

    星融元支持对安全分析报文进行线速处理,并通过GRE隧道封装,实现路由转发,帮助监测装置以1:N的复制实现纵向和横向数据的轻松上送,同时支持源端口标记,区分来自不同区域的数据,便于后端进行回溯分析。

  • 星融元网络可视交换平台组网图及功能覆盖

    不只是“汇聚分流”,还能够进行报文处理

    贴合电力行业数据中心数据流量网络可视化需求,满足流量汇聚、复制、负载均衡、同源同宿等基本汇聚分流功能外,还可以根据后端旁路安全工具需要,对采集报文进行去重、截短、SSL解密、报文切片重组、TCP乱序重组等处理,为后端旁路安全工具提供定制化数据源。

应用场景

电力网络安全监控系统

通过部署可视交换平台实现流量统一采集和线速转发

电网数据中心可视化系统

通过部署可视交换平台简化网络架构,卸载后端性能负担。

 

对星融元产品感兴趣?

立即联系!

返回顶部

© 星融元数据技术(苏州)有限公司 苏ICP备17070048号-2