标签: 解决方案
为简化无损以太网的部署和运维,星融元推出“一键RoCE”
关注星融元

故事是这样的
甲方爸爸李工是一名存储行业资深的网络工程师,多年的工作经验让他在服务器上玩得起飞,交换机方面,平时使用的多是 IB 交换机,只会插插线。自从发现IB交换机越用越不爽之后,转向了RoCEv2低时延无损以太网解决方案。但是对接过程中李工也发现,无损以太网络香是真香,但是配置方面也真心不太懂,简直一个大写的懵。


星融元的“一键RoCE”
RoCEv2技术支持在以太网上承载RDMA协议,实现RDMA over Ethernet,但需要网络侧支持无损以太网。目前,星融元网络操作系统AsterNOS使用标准的PFC+ECN来实现无损以太网。在以太网交换机上配置PFC、ECN功能,需要用户熟悉QoS机制、配置逻辑和相关命令行。
对此,星融元针对RoCEv2场景的配置需求进行设计规划,推出一键RoCE,实现了业务级的命令行封装,以达到RoCEv2场景下最佳的可维护性和可用性。
继提供高性价比低时延交换机产品替代方案后,在产品的使用和运维上,星融元进行了网络部署的升级,降低工程师们的运维复杂度,让用户聚焦于业务。
一键启用PFC和ECN,完成无损网络配置
没有一键RoCE配置命令行时,一线实施和运维工程师配置无损网络或者取消配置,需要分别修改PFC和ECN的配置。通常情况下,要配置PFC和ECN,需要工程师理解QoS的配置逻辑和步骤,这对工程师有着一定的网络知识要求。
有了一键RoCE配置命令行后,工程师可以通过一条命令行完成无损网络配置,不需要再使用原子级的命令行,对PFC和ECN进行配置。
无损网络的配置和运行状态,集中展示
在以前运维无损网络时,如果想要进行网络异常定位或者运行状态检查,通常需要到不同命令行视图下进行执行多次show命令,以确定当前的队列映射关系、Buffer使用情况、PFC和ECN在哪个队列中被启用、各种门限的数值、PFC和ECN所在队列的吞吐量、Pasue和CNP报文的触发次数等信息。
现在工程师可以通过show roce命令打印全局的RoCE信息、端口的RoCE信息和计数,以及对RoCE相关计数进行统一清零。
不同业务场景下的参数调优
通过一键RoCE命令行,可以快速配置无损网络,当业务场景不满足于设备提供的默认模板配置时,工程师仍然可以通过qos命令行精细化地调试PFC和ECN的各项参数,让当前业务场景的性能达到最优。
一键RoCE的可应用场景
简化高性能计算和存储网络的部署
一键RoCE的使用对于需要高性能网络传输的应用程序非常有帮助,如高性能计算、存储、大数据分析和人工智能、云计算等领域。它可以提供比传统以太网更高的吞吐量和更低的延迟,从而为这些领域的应用程序提供更高的性能和效率。
高性能计算和存储业务场景中,工程师通常对业务非常熟悉,集中精力在服务器侧的配置调优,对于网络,通常提出的要求是“需要一张高可用、高性能的无损网络”。针对这种情况,高性能计算和存储工程师可以通过一键RoCE命令行,快速完成无损网络配置部署。
这种业务级命令行的封装,将多个原子级命令行进行组合,简化配置流程,节省工程师的时间和精力去完成更有价值的业务侧优化。
定位无损网络的瓶颈和故障
show roce业务级命令行将多个原子级命令行组合成一个语义完整的业务命令,将多个命令的输出信息整合在一起。
在排查网络故障时,可以使用show roce一次性查询和无损网络相关的所有配置信息、运行状态,而不需要逐个查询原子级命令行。从而简化故障排除流程,提高故障排除效率。
图片未来,随着云计算、大数据和AIGC行业的不断发展,对高性能网络传输技术的需求将会越来越大。一键RoCE作为一种快速部署RDMA网络的解决方案,将会在未来得到更广泛的应用。
相关文章
【客户案例】脊叶架构(Spine-Leaf)的云化园区网络部署实践
关注星融元

前言
各行业数字化转型进程加快,作为基础设施的园区网络也面临着升级压力。为此,星融元通过将先进成熟的云网络建设理念引入园区场景,推出了“云化园区网络解决方案”,帮助客户网络实现架构级的深层优化。
星融元云化园区网络解决方案介绍
案例一: 国内某大型互联网公司 总部园区,生产环境稳定运行两年多
需求背景
传统园区网络架构的复杂、臃肿给国内某大型互联网公司的总部园区网络使用体验和日常运维带来许多挑战,客户公司希望持续探索优化方案,全面改造园区网络。以该公司总部园区内某楼栋为例,一栋楼共6层,每层楼约1000人。
- 平均每个用户约3个终端,日常有接近20000个终端的接入需求;
- 网络必须安全可靠,避免出现广播风暴;
- 终端在楼层内或跨楼层移动时,网络不能掉线。
方案介绍

- 每层楼部署20-30台盒式交换机组建Spine-Leaf架构的端到端路由网络,多个楼层使用更高规格的Super Spine互联;
- 全路由网络隔绝广播风暴,并通过ECMP实现关键设备和链路的冗余,无需使用复杂的传统堆叠技术;
- 所有Leaf层交换机运行高性能的分布式网关,实现终端全网无缝漫游。
案例二: 国内某芯片设计公司 新办公区网络建设,兼容现网的局部云化
需求背景
客户公司近期将新增一层办公空间。新办公区约1000平米,员工约100人,新办公区网络需要重新规划和设计,其中用户区终端数约500个,服务器区服务器数量约40台。
- 新网络要与原有网络相互兼容和互通,用户网络和服务器网络2层隔离,3层互通,它们之间的互访流量必须经过FW访问控制;
- 服务器主要对内提供服务,但对部分用户要做到服务器的访问控制策略,并且需要双上行到不同接入交换机保障高可靠;
- 公司访客只能访问互联网,无法访问内部网络资源;
- 改善办公区无线网络体验不佳的困扰,并尽可能简化运维工作。
方案介绍
新办公区网络建设
- 用户区使用2+6台盒式交换机组建Spine-Leaf架构的端到端路由网络,合理布局规划20个无线AP部署点位,接入6台运行分布式网关的Leaf交换机,构建大二层漫游域;
- 服务器区使用2+2台盒式交换机组建Spine-Leaf架构的端到端路由网络,每个服务器双上行到一对Leaf保证高可靠;
- 新办公区通过跨楼层光纤和旧办公区互联,防火墙负责访问控制。新办公区网络中的Spine/Leaf节点均可以配置ACL访问控制策略,如部分User不能访问服务器;每个无线AP配置两个SSID,分别作为访客网和办公网,访客网单独划分VLAN,通过ACL策略实现访客网只能访问互联网,无法访问内网资源;基于云化网络中的IPSG、DAI、DHCP Snooping等原生安全机制和802.1x 终端认证进一步确保接入安全;
- 全网设备统一集群管理,无需额外控制器,方便日常操作和运维。
客户价值总结: 好用、灵活、省钱
好用
- 高速联网,不卡顿:PC、手机等终端无障碍接通,带宽无瓶颈,无线用户漫游不掉线,速率有保障
- 稳定可靠,零投诉:架构更可靠,关键设备有冗余;原生安全,终端接入无风险
灵活
可扩展:横向水平扩展,点位灵活扩容;新功能需求可编程,保护既有投资
更开放:和传统园区网络无缝对接,兼容性好;没有技术锁定和厂商锁定
省钱
降低建设成本:设备选型实用、通用,少花冤枉钱;减少备件库存,释放周转资金
降低运维成本:网络设备免配置,运维人员去专业化;故障处理流程标准化,维护人员可复用
相关文章
无缝连接云端世界:揭秘云数据中心中不可或缺的DCI互通之道!
关注星融元

云数据中心里,为什么需要DCI互通?
云化数据中心,网络资源通过虚拟化技术形成资源池,实现业务与物理网络解耦,通过网络虚拟化,物理网络资源可以被分成多个虚拟网络资源,从而提高网络资源的使用效率。
虚拟网络资源根据业务需求进行分配和调度,可以更好地利用网络资源。此外,虚拟网络资源的快速部署和迁移可以提高业务的灵活性和可用性。
伴随着用户业务规模的扩大和范围的增加,用户可能需要在多个地理位置建立数据中心以满足业务需求。这些数据中心需要进行互联和资源共享。一些应用程序可能需要在多个数据中心之间进行迁移、复制、备份等操作,而另一些应用程序可能需要快速在不同的数据中心之间进行负载均衡和容灾切换,总结下来具体诉求如下:
业务跨DC部署
客户某些业务可能是跨DC部署的,比如客户可能会针对某大型网站划一个独立的VPC,这个VPC可能会跨多个DC,所以在这个VPC内部流量就有跨Fabric互通的需求,同时路由和防火墙需要进行隔离。
业务之间的互通
客户针对不同的业务会划分不同的VPC,不同VPC可能会部署在不同的DC中,业务之间如果有互通的需求,就要求VPC之间能跨DC进行L3互通(VPC之间互通一般为L3互通,如果需要L2互通则需要将VM划分到同一个VPC中)。
业务容灾/多活
业务容灾和多活主要分为两种方式,首先针对比较新的业务系统,客户自己可以通过GSLB(全局负载均衡)的方式进行容灾和多活,具体方式是两个DC同时部署相同的业务,业务相同同时IP地址不同,这样两套系统可以进行容灾处理。这种方式对网络没有什么特别的诉求,但是针对比较旧的一些系统,会要求迁移到容灾中心后,IP地址不能变化,这种情况下,就需要支持跨DC的二层互通。
Multi-Fabric跨DC解决方案解锁无限可能
为了解决这些问题,星融元推出了跨DC解决方案Multi-Fabric使用VXLAN、BGP-EVPN等技术对L2和L3网络进行扩展。这样,用户的应用程序就可以在多个数据中心之间进行迁移、负载均衡、网络容灾切换等操作,而无需担心网络问题,帮助管理多个数据中心之间的网络和资源,提高业务的可扩展性和可靠性。
Multi-Fabric方案简介
使用Multi-Fabric方式的DCI互通,如图所示,在本方案中:

- DCI Leaf间推荐使用eBGP建立VXLAN隧道,在DC内使用eBGP建立VXLAN隧道。
- 如果同时有DCI L2&L3互通需求时,DCI Leaf采用双活部署,这样可以使DCI Leaf专注于DCI网络和数据中心网络之间的数据转发,而Border Leaf专注于数据中心网络和外部网络之间的数据转发。
- L2互通需求:DCI之间有L2互通需求,需要手动开启L2互通功能,建议DCI Leaf分设独立部署。为了避免广播风暴、MAC地址表项限制、环路问题,在没有L2互通需求时L2互通功能默认未开启。
物理网络说明
DCI互联线路
- 直连链路(裸光纤或者DWDM);
- 企业自有的或者电信运营商的单租户/多租户layer 3 WAN服务;
PS:建议使用能够通过EVPN自动建立VXLAN隧道的链路,类似光纤互联网(Fiber Internet) 等无法运行EVPN的线路,不推荐使用。
Underlay路由设计

Multi-Fabric方案通过在DCI Leaf之间建立eBGP对等体发布Overlay路由,创建VXLAN隧道,对中间Inter-Site Network(站点间网络)的要求只需能够打通Underlay路由,无需感知Overlay网络。DCI Leaf通过Inter-Site Network传递Underlay路由:
Underlay网络设计说明
- Fabric内、DCI Leaf间的Underlay路由推荐使用eBGP,三层路由可达即可;
- 同一个DCI Leaf组VTEP IP相同;
- 同一个DCI Leaf组BGP的Router-ID不同;
- DCI Leaf双活设备组内部两台设备之间通过三层互联,跑动态路由协议;
Overlay路由设计
通过建立三条VXLAN隧道可以支持跨数据中心L2互通和L3互通:
- L2互通时,不同的二层通过不同的二层VNI进行区分,通过RD/RT进行喜好选择;
- L3互通时,不同VPC通过VNI进行隔离,保证跨数据中心VM之间的通信和隔离,通过VPC中RD/RT值进行路由喜好选择。

Overlay网络设计说明
- Fabric内、DCI Leaf间的Overlay路由推荐使用eBGP EVPN;
- DCI Leaf设备上通过BGP EVPN对等体所属的水平分割组,避免BUM流量转发出现环路(DCI Leaf节点收到BUM流量后,不会再转发给属于同一水平分割组的设备,避免因重生成而产生的环路)以及Fabric内重复路由;
- DCI Leaf设备上根据网络需求开启L2互通、L3互通功能,进行BGP EVPN路由重生成;
DCI Leaf路由通告
- Type3路由通告,该类型路由在VXLAN控制平面中主要用于VTEP的自动发现和VXLAN隧道的动态建立。作为BGP EVPN对等体的VTEP,通过Type3路由互相传递二层VNI和VTEP IP地址信息。创建一个头端复制表,用于后续BUM报文在Fabric内部及Fabric之间转发。
- 租户VPC互通的网段路由,通过路由重分发功能将BGP EVPN Type5前缀路由从源端站点的DCI Leaf扩散给目的端站点的DCI Leaf。
- 租户VPC发布的主机路由(Subnet跨Fabric延展场景),通过BGP EVPN Type2 IRB类型路由发布32位主机路由,通过route-map使用明细路由进行引流。
DCI Leaf MAC地址通告
- 主机MAC地址通告,要实现同子网主机的二层互访,两端VTEP需要相互学习主机MAC。作为BGP EVPN对等体的VTEP之间通过MAC重分发功能交换Type2 MAC路由,可以通过相互通告已经获取到的主机MAC。
相关文章
校园网升级改造,“底层云化”才能少走弯路
关注星融元

终端数量和网络带宽需求激增
老旧校园网架构复杂,扩容困难
出口安全设备重床叠架
单点故障引发大范围网络崩溃
校园内网接入终端多样化
私设IP、非法终端接入防不胜防!
校园无线网覆盖不佳,终端漫游频频掉线,形同虚设
策略配置手动逐个增改,广播风暴难以定位……
一波未平一波又起,IT运维团队“压力山大”!
校园网改造漫漫长路,修修补补何时到头?
这一次我们从底层网络架构入手,通过引入云数据中心长期践行的先进技术理念,直击问题根源!接下来我们将从核心架构,无线网络设计、出口安全和内网接入安全等角度介绍 面向校园的云化园区网络解决方案。
云化校园网的核心架构
网络作为学校的重要基础设施之一,稳定性、可靠性和扩展性是用户群的基本诉求。从旧时代一路走来的传统校园网架构背负了过多的历史包袱,基于技术发展水平等因素,一些低效和不便在所难免。
今天,随着技术进步和实践,我们已经可以抛弃传统三层拓扑,在校园网采用更加先进的多级Clos架构(Spine/leaf)——以盒式交换机进行full-mesh的分布式组网,各网络节点用三层BGP路由互联,运行多路径负载分担(ECMP)充分利用链路带宽。
了解更多:下一代园区网络,用Leaf/Spine架构替代传统“接入-汇聚-核心”三层架构

基于高性能ASIC的三层硬件转发效率与二层转发相差无几,其中接入交换机(Leaf)只存储本地终端的路由表,大大减轻了表项压力
- 架构天然无环:采用Spine/leaf架构,拓扑天然无环路,所有设备独立部署,无需为破环/防环耗费精力
- 彻底消除广播风暴:最大程度压缩二层区域、一个端口就是一个广播域,每个终端之间天然二层隔离,根除广播风暴
- 统一BGP路由:结构单一但策略丰富, 实现高效的统一管理
- 云化集群”超堆叠”替代传统堆叠:逻辑简单,网络更稳定更易扩展;无需额外配置,无需横向互联,支持热升级
了解更多:下一代园区网络,何必再有“堆叠”?
分布式的校园无线网
在校园网的无线建设部分,除了应对高带宽需求和高并发流量的挑战,无缝漫游、多场景信号覆盖和部署能力需重点关注。
无线漫游传统的实现方案有两种:一是尽可能将需要漫游的区域规划在一个二层网络里,但二层网络越大越不安全,二是通过在新旧网关之间建立隧道,而代价就是复杂的配置和低效的流量转发路径。
得益于底层云化的网络架构,云化校园网中的业务网关分布式地部署在每一台接入交换机设备(Leaf)上,形成了大二层漫游域,AP漫游前后的业务报文直接在本地接入交换机以最短路径转发,无需建立隧道“兜圈子”。

- 漫游无需重新DHCP获取IP,无需重新认证
- 漫游信息自动同步,毫秒级切换,上层业务无感知
- 25G高速上行,适应海量终端数据并发接入
- 只需在网络初始化时完成一次网关配置
了解更多:下一代园区网络,“分布式网关”实现更高效的无线漫游!
我们推荐使用主流高性能的无线控制器AC+瘦AP的部署方式组网,配合规格丰富的无线网络产品和针对不同业务需求的合理规划,实现全场景的WiFi6覆盖。


校园网络安全设计
园区出口安全
为提升网络安全,校园网和校园数据中心出口区域一般会部署多台安全设备,然而传统串接部署易发单点故障,运维困难,扩展性差,极易成为网络瓶颈。
星融元SFC 2.0智能安全资源池网络架构 将串接的传统网络出口架构改为“物理单臂旁挂,逻辑串接”。
- 支持安全资源以主主、主备或集群模式部署
- 提供简明的可视化界面进行编排、配置、监控

接入终端安全控制
校园网用户以学生居多,安全意识淡泊容易产生不规范上网行为,导致网络校园网络安全事件频发,病毒、攻击软件均可能造成攻击数据流,影响整网网络正常使用。
除了出口安全架构的改造,我们还需要通过一系列接入安全控制技术保障所有接入终端的合法性,不同类型的终端需要匹配不同的认证机制,防止未经授权的非法终端获取上网权限。星融元云化校园网络支持多终端的认证方式。
- 有线终端采用802.1x认证
- 打印机、摄像头等哑终端采用MAB认证
- 无线终端采用Portal认证
此外,底层云化后的校园网本身还具有一定的内生安全特性,例如:交换机将主动跟踪任何接入终端与DHCP服务器之间的交互过程,并自动学习设备信息,非法终端产生的网络流量将在接入端口被直接丢弃,不再依赖手动配置安全策略。

轻量控制器,极简运维管理
市面上常见的校园网改造方案里往往会引入一个集中式SDN控制器,管理员借助Web界面的拖拉点拽操作即可完成整网运维和部署。但方便的背后也暗藏隐患:网络出现故障只能依赖控制器,一旦控制器自身故障,则问题排查将无从下手。
在云化校园网中,控制器只承担简单的状态查看和配置管理工作,路由计算、 QoS策略/安全策略下发、接入安全检测等任务分布式地由每个交换机上自主计算完成,既简化了人工运维的工作量,也缩小了单点故障的影响面,提升网络的健壮性。

云化校园网还引入了在服务器、云网络运维体系中广泛使用的开局零配置部署机制(ZTP)。对于一个大规模校园网络来说,ZTP对网络升级、变更所带来的效率提升是非常可观的。

而对于偏小规模的校园网可以采用轻量灵活的带内网络管理——通过集成在交换机操作系统内部的软件模块,建立设备集群。管理员登录到集群中任何一台设备,就能管理和配置集群内的所有成员,不用额外布线,也不依赖带外网络和管理平台。

星融元云化校园网整体架构

更多云化园区解决方案相关信息,请持续关注星融元官方公众号。
相关文章
客户案例:高性能、大规模、高可靠的AIGC承载网络
关注星融元

客户是一家AIGC领域的公司,他们通过构建一套完整的内容生产系统,革新内容创作过程,让用户以更低成本完成内容创作。
客户网络需求汇总
| RoCE的计算网络 | RoCE存储网络 |
|---|---|
| 1.不少于600端口200G以太网接入端口,未来可扩容至至少1280端口 | 1.不少于100端口200G以太网接入端口,未来可扩容至至少240端口 |
| 2. 全网无收敛(1:1收敛比),全线速交换 | 2. 带宽收敛比不大于3:1 |
| 3. 支持RoCE实现无损以太网 | 3. 支持 RoCE 实现无损以太网 |
整网方案设计的思路
高性能
AIGC承载网络需要具备高宽带的特性,以支持快速的数据传输和处理。生成内容可能涉及大规模的文本、图像或视频数据,因此需要具备高带宽的网络连接,以便快速传输数据到计算资源节点进行处理;此外,AIGC承载网络需要实现低时延的要求,以确保生成内容的实时性和响应性。在用户上传任务或请求后,网络需要迅速响应并进行任务分配或资源调度。
大规模
AIGC承载网络需要能够处理大量的用户请求和任务,并同时支持多个用户的并发访问。因此,网络架构需要具备高度的可扩展性和负载均衡能力。例如,采用分布式计算和分布式存储技术,使得网络可以横向扩展,自动调节资源分配以应对不断增长的用户需求。
高可用
AIGC承载网络需要具备高可用性,以确保服务的连续性和稳定性。由于AIGC是基于人工智能技术的,其生成过程可能需要较长的时间和大量的计算资源。因此,网络需要具备容错机制和故障恢复策略,以应对硬件故障、网络中断或其他意外情况。
整体方案架构


计算网络设计方案一:整网 1:1 无收敛
不考虑GPU的8个接口的接入方式,8个接口接入1台或多台ToR

- 交换机 10 Leaf + 20 ToR= 30 台,提供640个接入端口(20*32=640),每台GPU服务器8端口,可以最大可接入GPU服务器 80台
- 接入侧和Fabric内部互联均可以使用200G的AOC(含两端的200G光模块),其中接入侧600条,Fabric侧600条,合计1200条
方案一的扩展性

- 基于该架构,最多可以接入64台ToR,最大可以扩展到2048个200G接口接入,满足1280接口接入的扩展性要求
计算网络设计方案二:整网 1:1 无收敛
考虑GPU的8个接口的接入方式,8个接口接入到8台Leaf,每8台Leaf作为一个分组

- 交换机 13 Leaf + 24 ToR = 37 台,按600个接入端口(75台GPU服务器),每组8个ToR接入25台GPU服务器,3组ToR接入75台
- 每组ToR接入25台GPU服务器,下行接入带宽为200*200GE,因此,上行也需要至少是200*200GE带宽,每台ToR到每台Leaf为2条200G,总上行带宽为2*13*8*200GE,满足1:1收敛要求
- 接入侧和Fabric内部互联均可以使用200G的AOC(含两端的200G光模块),其中接入侧600条,Fabric侧624条,合计1224条
方案二的扩展性

- 基于该架构,最多可以接入8组ToR ,每组8个ToR接入32台GPU服务器,8组ToR接入256台
- 最大可以扩展到2048个200G接口接入,满足1280接口接入的扩展性要求
存储网络设计方案:整网 3:1 收敛

- 交换机 2 Leaf + 3 ToR = 5 台,提供最大144个接入端口(满足100个接入需求)
- 如果不考虑Leaf高可靠部署,也可以单Leaf接入
- 接入侧和Fabric内部互联均可以使用200G的AOC(含两端的200G光模块),其中接入侧100条,Fabric侧36条,合计136条
存储网络扩展性

- 交换机 2 Leaf + 5 ToR = 7 台,提供最大240个接入端口(满足240个接入的扩展需求)
星融元方案价值与优势
⇘ 超低TCO、超高性价比
相较于IB方案,大幅度降低用户的网络TCO,同时确保超高性能
⇘ 横向平滑扩容、1:1收敛无阻塞
无收敛的网络设计确保无阻塞的大容量网络,按需横向扩展
⇘ 整网RoCEv2
基于CEE/DCB能力,提供可与IB媲美的性能和同样无损的网络服务
⇘ 开放网络操作系统
星融元网络操作系统AsterNOS,SONiC企业级发行版,支持灵活的功能扩展、在线升级
⇘ 无缝对接云管
AsterNOS 利用简单易用的REST API,可轻松让第三方的云平台/控制器快速纳管
⇘ 专家级服务
专业、全面、可靠的研发、方案与服务团队,为客户提供小时级的快速响应服务