Skip to main content
开放网络的先行者与推动者—星融元
加入我们技术支持(Support)  TEL:(+86)4000989811

标签: 解决方案

天翼云:“百万IOPS”助推政企上云


关注星融元


随着数字化转型的加速,越来越多的企业选择了业务上云。众所周知,不论是政企关键/核心业务中的大型数据库、NoSQL、AI训练,还是互联网业务中的游戏、渲染等场景,对数据读写IOPS和时延有极高的要求。作为全球领先的云服务商,天翼云拥有200万+客户,整合中国电信的平台资源,天翼云以“云网融合、安全可信、绿色低碳、生态开放”四大优势向客户提供公有云、私有云、专属云、混合云、边缘云全栈云服务,很好地满足了政府机构、大中小企业数字化转型需求。

天翼云logo

业务飞速发展考验天翼云基础网络设施

多数业务上云早期的方案大多采用物理机+本地盘的方式,这种方式虽然满足了用户的性能需求,但受限于单台服务器的存储资源,一方面可靠性无法得到保障,不仅无法容忍double fault(双点失效),即使单点故障也无法容忍;另一方面也导致了容量难以扩展。

为此,中国电信天翼云推出完全自主研发的“百万IOPS”X系列云硬盘,与上一代极速型SSD、超高IO云硬盘相比,X系列云硬盘带宽、时延、IOPS等规格指标提升了2~10倍。在提供本地盘级别的性能体验的同时,还提供高达99.9999999%的数据持久性与99.975%的业务可用性,完美满足了关键业务、核心数据库、内存数据库(持久化)、AI训练等场景对存储的性能可靠性及扩展性需求。

对天翼云这样庞大的云来说,除了解决存储问题,还迫切需要一张能够支持大规模分布式存储的网络来满足业务需求,为此,天翼云业务团队做了大量的洞察和分析,也对业界各大云服务商当前提供的解决方案做了深入研究,选定了 Asterfusion 超低时延以太网解决方案

最终,天翼云基于其自研存储引擎LAVA发布了的X系列云硬盘搭配上星融元全球超低时延交换机形成极具优势的分布式存储解决方案,在性能、可靠性、扩展性、开放性四方面均取得了重大技术突破——“百万IOPS”,“百微秒时延”,性能容量“按需扩展”,满足用户开放网络需求。

天翼云海报

低时延、大规模分布式存储网络便捷业务上云用户管理

低时延无损:构建零丢包以太网

TCP协议栈在接收发送报文时,内核需要做多次上下文的切换,每次切换需要耗费5-10微秒。另外还需要至少三次的数据拷贝和依赖CPU进行协议工作,这导致仅仅协议上处理就会带来数10微秒的固定时延,同时增加CPU的负载。

CX664D-N 64*200G高密度大带宽交换机凭借全球最低时延——400ns时延与RDMA—RoCEv2技术,配合天翼云X系列云盘全自研L-RDMA协议减少了GPU通信过程中的数据复制次数,从而大幅降低CPU开销,提升数据传输效率。同时,为了避免网络丢包对分布式存储的影响,Asterfusion云网设备支持“一键无损”方案,通过一键式配置不但支持PFC、ECN等无损网络协议构建低时延零丢包以太网络,还能减轻用户运维复杂度。

RDMA架构图

设备高可靠:业务持续不中断

为避免部件故障或设备版本升级造成业务中断,Asterfusion针对设备的关键部件,如电源、风扇等,均进行了冗余备份,单个部件发生故障不影响业务的稳定性和连续性,所有模块支持热插拔,故障部件替换轻松便捷无需开关机。

解决方案上,与过去用户网络采用堆叠,每次设备进行版本升级或者故障替换时业务都会中断的情况不同,Asterfusion“去堆叠”技术提供的两种接入方式(MC-LAG、ARP to HOST)满足用户不同需求下的灵活选择,在网络侧提高系统可靠性和业务持续性。

去堆叠组网图

灵活易扩展:性能容量“按需扩展”

中国近年来整体云服务市场规模持续增大,给天翼云的存储扩展性提出高要求,Asterfusion云网络的整体架构设计完全遵循了业界最领先公司广泛部署和使用的Scale-wide架构(按需自由扩展架构),将原本封闭在大型机架式网络设备中的CLOS交换架构开放到网络拓扑设计当中,帮助用户在只采用盒式网络设备的前提下仍然能够搭建出大规模的扁平化云网络,使用户在享受高性能、按需自由扩展的同时,最大限度地降低云网络的TCO。

合作共赢:共享开放生态

天翼云基于自身核心优势,与产业链上下游合作伙伴加强合作,不断丰富产业生态,在网络的选择上也同样如此。区别于传统黑盒交换机,Asterfusion云网交换机硬件基于开源开放OCP标准,以开源开放的SONiC、SAI为内核构建的网络操作系统,打破传统黑盒网络设备软硬件一体的封闭架构,帮助用户解决传统黑盒网络设备的封闭性、锁定性问题,满足用户以及业务对网络开放的需求。

以开源开放的SONiC、SAI为内核构建的网络操作系统

作为中国TOP3云计算服务市场的重要参与者之一,天翼云依托自身技术创新优势,凭借众多政企客户群,正持续助推更多政府机构和企业实现数字化转型。天翼云 “百万IOPS”X系列云硬盘采用了Asterfusion的CX664D-N交换机,为全网200万+客户的业务上云提供优性能、高可靠、易扩展、强开放的网络基础设施环境,最终将惠及用户,更加安心上云。

企业数字化转型推动社会经济发展已然成为时代之大势,天翼云顺势而为, “百万IOPS”X系列云硬盘的公测将有利于企业加快信息化、数字化、智能化转型,有助于企业降本增效。未来,天翼云将持续以领先算力服务助推数字经济发展。

相关阅读:开源网络操作系统AsterNOS:星融元开放网络背后的的力量

相关文章

事务级 REST API 在网络管理中的应用


关注星融元


什么是REST API?

REST(Representational State Transfer,也称RESTful)API是一种架构风格,用于构建网络应用程序和服务之间的通信,是基于HTTP协议的一种应用程序接口。它提供了一组规范和约定,使得不同应用程序之间可以进行数据的传输和交互。还将应用程序的功能暴露为一组资源,每个资源都有一个唯一的标识符(URI),通过HTTP方法(如GET、POST、PUT、DELETE等),可以对这些资源进行操作和访问。同时,REST API使用轻量级的JSON或XML格式进行数据的传输,使得它易于理解、扩展和集成到不同的平台和语言中。

使用REST API的好处有以下几点:

↦ 灵活性和可扩展性:REST API提供了一种基于标准HTTP协议的通用接口,可以在不同的平台和语言之间进行交互。

↦ 简化集成:REST API使用轻量级的数据交换格式(如JSON或XML),易于理解和解析。这使得与其他系统和服务进行集成变得更加容易。无论是与内部系统还是与第三方服务进行集成,REST API提供了一种简单而直观的方式来实现系统之间的数据传输和交互。

↦ 跨平台和跨设备支持:由于REST API使用标准的HTTP协议,因此可以在各种设备和平台上进行访问和使用。这意味着无论是在桌面计算机、移动设备还是其他嵌入式系统上,都可以轻松地使用REST API进行通信和操作。

什么是事务级REST API?

事务级REST API是REST API的一个扩展,相比于原子级REST API它引入了事务性操作的概念,支持对设备进行批量配置操作,能够帮助用户简化运维难度。

事务级REST API的成功案例

事务级REST API的部署案例

如上图,国内领先的第三方中立数据中心服务商用户部署示例,该托管云用户是中国领先的互联网基础设施服务提供商之一,主要提供IDC、云计算、网络加速、CDN和安全服务,2022年新增了托管AI业务需求,采用BGP-EVPN、VXLAN、MC-LAG等技术构建可靠的大二层网络满足生产网络稳定性需求。

在实施部署时,因设备数量较多,需要配置大量MC-LAG、EVPN、VXLAN等协议,用户苦恼不已。

用户认为:使用CLI手动执行这些操作会耗费大量时间和精力,并且CLI可能需要用户记住复杂的命令和参数,对于他们非技术同事来说不太友好。但是使用原子级REST API,无法很好的保证数据一致性和完整性,且无法进行批量操作。

而事务级REST API的出现很好的满足了用户需求,在之后的实施部署与运维过程中,用户总结出了事务级REST API以下好处:

  • 数据一致性和完整性:用户可以放心进行复杂的网络配置更改,确保所有更改都一致地应用于系统,避免配置错误或中断导致的网络不稳定。
  • 自动化和批量操作:REST API允许用户编写脚本或程序来自动执行各种操作。这对于需要进行大量配置更改、批量操作或定期任务的用户来说非常实用。
  • 可视化和友好的界面:REST API支持通过Web界面或开发应用程序的方式进行访问。提供了直观和用户友好的界面,使得配置和管理变得更加可视化和易于操作。
  • 灵活性和可定制性:通过REST API,用户可以根据自己的需求自定义请求和操作。他们可以选择只调用需要的API端点和功能,而不必受限于预定义的CLI命令。这种灵活性和可定制性使得用户能够更好地适应他们的具体需求和工作流程。

事务级REST API配置下发示例

使用星融元CX-N低时延交换机事务级REST API,可以轻松进行批量配置(同时进行多VRF、多VLAN、VXLAN等配置),节省用户时间与精力,保障数据一致性,提高运维效率。

事务级REST API配置下发示例

星融元CX-N低时延交换机,您网络管理的完美选择。利用我们强大的事务级REST API,您将体验到前所未有的灵活性、可靠性和高效率。

相关文章

【客户案例】私有云边界网络部署实践


关注星融元


业务背景

在私有云的业务场景中,常见的通信中包含了同VPC内虚机互访、不同VPC之间的虚机互访、VPC访问Underlay资源、VPC访问Internet资源、VPC提供服务,被Internet访问、VPC与专线网络之间互访等;实际应用中,大多数云业务通信场景都需要依赖安全、NAT、负载等边界设备组合使用来实现,云承载网络中与边界设备对接的Leaf节点我们通常定义为Border角色。私有云网络设计图

云网络中的Border角色如何与防火墙、负载均衡为典型的边界设备进行对接实现不同VPC租户业务需求,是私有云网络设计中一个关键问题。

Border边界网络对接方案简介

在星融元私有云网络解决方案中,CX-N系列交换机作为Border角色支持VLAN与VXLAN之间、VXLAN与VXLAN之间的映射和封装转换;采用“共享VTEP+物理横联设计”和“不同VTEP+无横连设计”两种基础架构设计,并可以进行混合部署使用;

Border共享VTEP方式
实现一:Border共享VTEP方式
Border区分VTEP方式
实现二:Border区分VTEP方式

客户案例

01、客户需求

  • 承载网的Border设备与边界两台防火墙、边界出口路由器旁挂对接,同时保证设备和链路层面的高可用性;
  • 承载网的Border设备同时下挂OSS存储,作为OSS存储的接入网关。

02、Border组网架构设计

Border组网架构设计

物理连接:两台Border与两台防火墙、两台边界路由器做Full Mesh全互联,两台Border之间建立横联线路,同时OSS主机链路聚合双上行对接两台Border设备。

<Border部署方案一>

Border部署方案

两台Border共享同一个VTEP地址,并组建MC-LAG系统,设置Monitor-Link上行口联动所有下行端口,Border端口放通相关的业务VLAN,并在设备内部创建VLAN虚接口作为面向防火墙和边界路由器的分布式互联地址、以及作为OSS主机的分布式网关。(该方案适用于防火墙双主部分主备场景以及采用静态路由方式的对接场景

<Border部署方案二>

Border部署方案两台Border配置不同的VTEP地址,利用物理三层接口以及三层子接口和边界防火墙和边界路由器对接;同时组建MC-LAG系统,设置Monitor-Link上行口联动与OSS主机相连的下行端口,Border与OSS主机相连端口放通OSS业务VLAN,并在设备内部创建VLAN虚接口作为OSS主机的分布式网关。(该方案适用于防火墙主备场景以及采用动态路由协议的对接场景

VPC承载:

Border建立L3 VXLAN与VLAN的映射关系,同一对L3 VXLAN和VLAN对应的L3VNI虚接口和VLAN虚接口会绑定至一个相同的VRF,该VRF承载并隔离对应的VPC流量;

流量转发:

Border在对应的VRF中将VXLAN报文重新封装成VLAN报文发送至防火墙,防火墙依据VLAN tag识别此报文所属VPC;Border从防火墙收到VLAN报文,匹配云内主机路由条目将带有VLAN封装的报文按照映射关系重新封装成VXLAN报文通过VXLAN隧道发送至云内的Leaf节点;对于VM虚机访问Border下挂OSS资源的流量,Border会在本地做跨VRF的转发进行实现。

相关文章

工信部新政策发布,算力基础设施建设即将提速!


关注星融元


前言:算力是集信息计算力、网络运载力、数据存储力于一体的新型生产力,主要通过算力基础设施向社会提供服务。算力基础设施对于实现数字化转型、培育未来产业,以及形成经济发展新动能等方面具有重要作用。

《算力基础设施高质量发展行动计划》的公告

其中,提升算力的高效运载能力是一大重点建设任务,行动计划中指出了如下几方面的具体要求:

一是优化算力高效运载质量。探索构建布局合理、泛在连接、灵活高效的算力互联网。增强异构算力与网络的融合能力,实现计算、存储的高效应用;促进数据处理器(DPU)、无损网络等技术的研发与应用。

二是强化算力接入网络能力。逐步实现城区重要算力基础设施间时延不高于1ms,大力提升边缘节点灵活高效的入算能力。

三是提升枢纽网络传输效率。推动算力网络国家枢纽节点直连网络骨干节点,逐步建成集群间一跳直达链路,国家枢纽节点内重要算力基础设施间时延不高于5ms。

四是探索算力协同调度机制。鼓励各方探索打造多层次算力调度框架体系,探索实现算力的一体化调度应用。

星融元系列化产品方案,助力算力基础设施建设

星融元作为新一代云网络架构的解决方案提供商,致力于为云时代的IT基础设施提供软硬解耦、软件开源、硬件开放、芯片可编程的全栈网络解决方案,为私有云、存储、安全、高性能计算、智慧园区等生态伙伴提供中立开放、功能易扩展的网络连接能力,并以应用场景为中心智能优化运维成本。

全以太超低时延承载网,实现数据中心高性能无损传输

星融元CX-N系列云交换机构建的无损以太网络达到了InfiniBand专用交换机的性能,且功能扩展升级和兼容性有显著优势,供货周期更短。

  • 10G-400G全速率下的超低时延转发,Port to Port最低400ns
  • 支持RoCEv2,降低传输协议时延
  • 支持 PFC / ECN / ETS / DCBX 数据中心高级特性

相关阅读:
HPC场景下CX-N交换机对比IB交换机时延测试报告
【客户案例】AIGC承载网设计实践

CX-N-低时延以太网场景

高性能DPU算力资源池,降低机房建设和能耗成本50%

Helium DPU资源池解决方案采用标准服务器+多Helium DPU卡的形式为客户打造高性能算力资源池。

  • DPU卡卸载网络数据转发及大部分计算类业务,服务器CPU只需完成控制面以及实时性要求不高的复杂计算业务
  • 多块DPU网卡存储的数据通过PCIe共享到同一台服务器,实现资源共享
  • 所有资源支持云管平台纳管,完成计算、网络资源的统一管理和按需分配

DPU资源池解决方案图

相关阅读:基于开源DPU资源池,破解边缘云算力扩展难题

可编程算网融合硬件平台,加速边界网关创新应用开发

借助可编程ASIC提供的大表项资源和线速转发能力,可扩展的DPU模块的高性能处理器+大容量内存,该平台可灵活应对多场景下的网络业务功能需求(例如数据中心互联的云边界网关、NFV网关、分布式INT等等),大大缩短定制化开发周期。

边界网关的架构图

全流量采集网,提供Pbps级别的网络可视化能力

随着网络规模的扩展,传统网络监测系统的分散部署模式正逐渐被抛弃,取而代之的是网络架构上的全新升级——通过建设统一的流量采集网,实现流量的统一采集、统一处理、统一分发。

网络架构升级

相关阅读:新型数据中心建设中的“第三张网”——独立的流量采集网

开放云网架构解决方案提供商

开放云网架构解决方案提供商

相关文章

面向移动医疗的新一代分布式无线网络


关注星融元


随着医疗信息化建设实践的深入,越来越多的医疗机构开始借助网络信息技术改善其运营及管理模式,为患者提供更高质量、更高效率、更加安全体贴的医疗服务。移动医疗便是在此背景下产生的新业务需求。

常见的移动医疗场景

  • 住院部:移动查房、智能输液、生命体征监测、特殊患者监控手环
  • 母婴监护:婴儿防盗脚环、病床智能监控
  • 门诊急诊:护士分诊台上网、智能导诊、影像报告查询、消毒机器人
  • 行政办公区:笔记本移动办公、会议室无线上网

移动医疗场景的四大网络挑战

针对这些新需求,传统的院内网络基础设施往往难以为继。来自医疗行业的客户向我们反馈了几类核心需求,希望能通过网络改造升级的方式重点解决。

无线信号覆盖和无线漫游

医院病房内、护士站、走廊、分诊台等区域实现无线覆盖,保障移动护理系统稳定运行,无信号盲点;医护需要手持PDA查房,不能因终端移动发生网络中断。

物联网融合

院内引入的众多物联网设备例如婴儿防盗脚环、智能输液、智能体温贴等设备依赖于Bluetooth、ZigBee等专用协议,众多协议不能互通,也不支持跟无线网统一管理,容易造成一定的重复建设。

高带宽和高并发

院内存在大量的PACS影像查询及数字病房多业务终端上网需求,为此需要提升无线接入带宽和并发量,为医务工作者和患者提供稳定、可靠的网络服务。

多场景的部署和网络安全

门诊大厅、住院部病房、过道走廊、室外等不同场景对AP的部署要求各不相同,此外,医院内流动人员众多,提供网络服务的同时也要严格防范和控制各类网络安全隐患。

面向移动医疗的新一代分布式无线网络

星融元将云计算领域的先进技术和理念引入到医院信息化建设中,推出了面向医疗行业的新一代云化网络解决方案——基于方案中先进架构和理念实现的分布式无线网络可为移动医疗提供灵活、可靠的网络支撑。

深入底层架构的全面变革,星融元发布云化园区网络解决方案

终端零感知的云漫游网络

不同于传统的无线漫游方案,星融元的云漫游网络无需在新旧网关之间建立隧道,也免除了与传统无线漫游相关的大量复杂的网络配置和维护工作。

终端零感知的云漫游网络

星融元的云漫游网络基于高性能分布式网关来实现——分布式网关指的是将业务网关分布式地部署在每一台接入交换机设备上。分布式网关形成了大二层漫游域,漫游前后的业务报文可直接在本地接入交换机以最短路径转发,并且漫游范围可以扩展至全网。

  • 漫游无需重新DHCP获取IP,无需重新认证,保证移动医疗服务的持续稳定
  • 漫游信息自动同步,毫秒级切换,上层业务无感知,安全控制策略继续有效
  • 只需在网络初始化时完成一次网关配置,简化IT运维

WiFi与物联网的融合部署:融合式无线AP

星融元分布式无线方案中采用了支持低功耗蓝牙5.0、Zigbee等物联网协议以及Wi-Fi6的无线AP,可将医院物联网设备所使用的专用网络和通用网络相融合,院方不必再为新增的物联网设备单独购置网络硬件,降低了建设成本。

WiFi与物联网的融合部署:融合式无线AP

更高接入带宽、更大并发数

方案中采用了高密度接入端口和25G上行链路的交换机,配合高并发用户数的无线AP,可满足会议室和大型研讨会活动、日常影像查询和门诊候诊区域的网络高并发需求。

园区网设备概览

云化园区网络整体解决方案

新一代园区网络解决方案-医疗行业

超高可靠

  • 天然无广播风暴,全网多路径负载分担
  • 全盒式交换机组网,网络复杂度更低

相关阅读:精简高效的新一代云化园区组网架构

原生安全

  • 丰富的原生安全机制,终端接入无风险
  • 出口安全设备池化,高效利用安全资源

相关阅读:出口网络架构升级方案 SFC 2.0

极简运维

  • 轻量级的网络集群管理
  • 同层设备业务配置相同,上线即插即用

相关阅读:云化园区网络实现极简运维

相关文章

为简化无损以太网的部署和运维,星融元推出“一键RoCE”


关注星融元


故事是这样的

甲方爸爸李工是一名存储行业资深的网络工程师,多年的工作经验让他在服务器上玩得起飞,交换机方面,平时使用的多是 IB 交换机,只会插插线。自从发现IB交换机越用越不爽之后,转向了RoCEv2低时延无损以太网解决方案。但是对接过程中李工也发现,无损以太网络香是真香,但是配置方面也真心不太懂,简直一个大写的懵。

日常交流-微信截图

星融元的“一键RoCE”

RoCEv2技术支持在以太网上承载RDMA协议,实现RDMA over Ethernet,但需要网络侧支持无损以太网。目前,星融元网络操作系统AsterNOS使用标准的PFC+ECN来实现无损以太网。在以太网交换机上配置PFC、ECN功能,需要用户熟悉QoS机制、配置逻辑和相关命令行。
对此,星融元针对RoCEv2场景的配置需求进行设计规划,推出一键RoCE,实现了业务级的命令行封装,以达到RoCEv2场景下最佳的可维护性和可用性。

继提供高性价比低时延交换机产品替代方案后,在产品的使用和运维上,星融元进行了网络部署的升级,降低工程师们的运维复杂度,让用户聚焦于业务。

一键启用PFC和ECN,完成无损网络配置

没有一键RoCE配置命令行时,一线实施和运维工程师配置无损网络或者取消配置,需要分别修改PFC和ECN的配置。通常情况下,要配置PFC和ECN,需要工程师理解QoS的配置逻辑和步骤,这对工程师有着一定的网络知识要求。
有了一键RoCE配置命令行后,工程师可以通过一条命令行完成无损网络配置,不需要再使用原子级的命令行,对PFC和ECN进行配置。

无损网络的配置和运行状态,集中展示

在以前运维无损网络时,如果想要进行网络异常定位或者运行状态检查,通常需要到不同命令行视图下进行执行多次show命令,以确定当前的队列映射关系、Buffer使用情况、PFC和ECN在哪个队列中被启用、各种门限的数值、PFC和ECN所在队列的吞吐量、Pasue和CNP报文的触发次数等信息。

现在工程师可以通过show roce命令打印全局的RoCE信息、端口的RoCE信息和计数,以及对RoCE相关计数进行统一清零。

不同业务场景下的参数调优

通过一键RoCE命令行,可以快速配置无损网络,当业务场景不满足于设备提供的默认模板配置时,工程师仍然可以通过qos命令行精细化地调试PFC和ECN的各项参数,让当前业务场景的性能达到最优。

一键RoCE的可应用场景

简化高性能计算和存储网络的部署

一键RoCE的使用对于需要高性能网络传输的应用程序非常有帮助,如高性能计算、存储、大数据分析和人工智能、云计算等领域。它可以提供比传统以太网更高的吞吐量和更低的延迟,从而为这些领域的应用程序提供更高的性能和效率。

高性能计算和存储业务场景中,工程师通常对业务非常熟悉,集中精力在服务器侧的配置调优,对于网络,通常提出的要求是“需要一张高可用、高性能的无损网络”。针对这种情况,高性能计算和存储工程师可以通过一键RoCE命令行,快速完成无损网络配置部署。

这种业务级命令行的封装,将多个原子级命令行进行组合,简化配置流程,节省工程师的时间和精力去完成更有价值的业务侧优化。

定位无损网络的瓶颈和故障

show roce业务级命令行将多个原子级命令行组合成一个语义完整的业务命令,将多个命令的输出信息整合在一起。
在排查网络故障时,可以使用show roce一次性查询和无损网络相关的所有配置信息、运行状态,而不需要逐个查询原子级命令行。从而简化故障排除流程,提高故障排除效率。

图片未来,随着云计算、大数据和AIGC行业的不断发展,对高性能网络传输技术的需求将会越来越大。一键RoCE作为一种快速部署RDMA网络的解决方案,将会在未来得到更广泛的应用。

相关文章

【客户案例】脊叶架构(Spine-Leaf)的云化园区网络部署实践


关注星融元


前言

各行业数字化转型进程加快,作为基础设施的园区网络也面临着升级压力。为此,星融元通过将先进成熟的云网络建设理念引入园区场景,推出了“云化园区网络解决方案”,帮助客户网络实现架构级的深层优化。


星融元云化园区网络解决方案介绍

深入底层架构的全面变革,星融元发布云化园区网络解决方案

案例一: 国内某大型互联网公司 总部园区,生产环境稳定运行两年多

需求背景

传统园区网络架构的复杂、臃肿给国内某大型互联网公司的总部园区网络使用体验和日常运维带来许多挑战,客户公司希望持续探索优化方案,全面改造园区网络。以该公司总部园区内某楼栋为例,一栋楼共6层,每层楼约1000人。

  1. 平均每个用户约3个终端,日常有接近20000个终端的接入需求;
  2. 网络必须安全可靠,避免出现广播风暴;
  3. 终端在楼层内或跨楼层移动时,网络不能掉线。

方案介绍

国内某大型互联网总部办公园区

  1. 每层楼部署20-30台盒式交换机组建Spine-Leaf架构的端到端路由网络,多个楼层使用更高规格的Super Spine互联;
  2. 全路由网络隔绝广播风暴,并通过ECMP实现关键设备和链路的冗余,无需使用复杂的传统堆叠技术;
  3. 所有Leaf层交换机运行高性能的分布式网关,实现终端全网无缝漫游。

案例二: 国内某芯片设计公司 新办公区网络建设,兼容现网的局部云化

需求背景

客户公司近期将新增一层办公空间。新办公区约1000平米,员工约100人,新办公区网络需要重新规划和设计,其中用户区终端数约500个,服务器区服务器数量约40台。

  1. 新网络要与原有网络相互兼容和互通,用户网络和服务器网络2层隔离,3层互通,它们之间的互访流量必须经过FW访问控制;
  2. 服务器主要对内提供服务,但对部分用户要做到服务器的访问控制策略,并且需要双上行到不同接入交换机保障高可靠;
  3. 公司访客只能访问互联网,无法访问内部网络资源;
  4. 改善办公区无线网络体验不佳的困扰,并尽可能简化运维工作。

方案介绍

新办公区网络建设

  • 用户区使用2+6台盒式交换机组建Spine-Leaf架构的端到端路由网络,合理布局规划20个无线AP部署点位,接入6台运行分布式网关的Leaf交换机,构建大二层漫游域;
  • 服务器区使用2+2台盒式交换机组建Spine-Leaf架构的端到端路由网络,每个服务器双上行到一对Leaf保证高可靠;
  • 新办公区通过跨楼层光纤和旧办公区互联,防火墙负责访问控制。新办公区网络中的Spine/Leaf节点均可以配置ACL访问控制策略,如部分User不能访问服务器;每个无线AP配置两个SSID,分别作为访客网和办公网,访客网单独划分VLAN,通过ACL策略实现访客网只能访问互联网,无法访问内网资源;基于云化网络中的IPSG、DAI、DHCP Snooping等原生安全机制和802.1x 终端认证进一步确保接入安全;
  • 全网设备统一集群管理,无需额外控制器,方便日常操作和运维。

客户价值总结: 好用、灵活、省钱

好用

  • 高速联网,不卡顿:PC、手机等终端无障碍接通,带宽无瓶颈,无线用户漫游不掉线,速率有保障
  • 稳定可靠,零投诉:架构更可靠,关键设备有冗余;原生安全,终端接入无风险

灵活

可扩展:横向水平扩展,点位灵活扩容;新功能需求可编程,保护既有投资

更开放:和传统园区网络无缝对接,兼容性好;没有技术锁定和厂商锁定

省钱

降低建设成本:设备选型实用、通用,少花冤枉钱;减少备件库存,释放周转资金

降低运维成本:网络设备免配置,运维人员去专业化;故障处理流程标准化,维护人员可复用

相关文章

无缝连接云端世界:揭秘云数据中心中不可或缺的DCI互通之道!


关注星融元


云数据中心里,为什么需要DCI互通?

云化数据中心,网络资源通过虚拟化技术形成资源池,实现业务与物理网络解耦,通过网络虚拟化,物理网络资源可以被分成多个虚拟网络资源,从而提高网络资源的使用效率。

虚拟网络资源根据业务需求进行分配和调度,可以更好地利用网络资源。此外,虚拟网络资源的快速部署和迁移可以提高业务的灵活性和可用性。

伴随着用户业务规模的扩大和范围的增加,用户可能需要在多个地理位置建立数据中心以满足业务需求。这些数据中心需要进行互联和资源共享。一些应用程序可能需要在多个数据中心之间进行迁移、复制、备份等操作,而另一些应用程序可能需要快速在不同的数据中心之间进行负载均衡和容灾切换,总结下来具体诉求如下:

业务跨DC部署

客户某些业务可能是跨DC部署的,比如客户可能会针对某大型网站划一个独立的VPC,这个VPC可能会跨多个DC,所以在这个VPC内部流量就有跨Fabric互通的需求,同时路由和防火墙需要进行隔离。

业务之间的互通

客户针对不同的业务会划分不同的VPC,不同VPC可能会部署在不同的DC中,业务之间如果有互通的需求,就要求VPC之间能跨DC进行L3互通(VPC之间互通一般为L3互通,如果需要L2互通则需要将VM划分到同一个VPC中)。

业务容灾/多活

业务容灾和多活主要分为两种方式,首先针对比较新的业务系统,客户自己可以通过GSLB(全局负载均衡)的方式进行容灾和多活,具体方式是两个DC同时部署相同的业务,业务相同同时IP地址不同,这样两套系统可以进行容灾处理。这种方式对网络没有什么特别的诉求,但是针对比较旧的一些系统,会要求迁移到容灾中心后,IP地址不能变化,这种情况下,就需要支持跨DC的二层互通。

Multi-Fabric跨DC解决方案解锁无限可能

为了解决这些问题,星融元推出了跨DC解决方案Multi-Fabric使用VXLAN、BGP-EVPN等技术对L2和L3网络进行扩展。这样,用户的应用程序就可以在多个数据中心之间进行迁移、负载均衡、网络容灾切换等操作,而无需担心网络问题,帮助管理多个数据中心之间的网络和资源,提高业务的可扩展性和可靠性。

Multi-Fabric方案简介

使用Multi-Fabric方式的DCI互通,如图所示,在本方案中:

Multi-Fabric方式的DCI互通

  • DCI Leaf间推荐使用eBGP建立VXLAN隧道,在DC内使用eBGP建立VXLAN隧道。
  • 如果同时有DCI L2&L3互通需求时,DCI Leaf采用双活部署,这样可以使DCI Leaf专注于DCI网络和数据中心网络之间的数据转发,而Border Leaf专注于数据中心网络和外部网络之间的数据转发。
  • L2互通需求:DCI之间有L2互通需求,需要手动开启L2互通功能,建议DCI Leaf分设独立部署。为了避免广播风暴、MAC地址表项限制、环路问题,在没有L2互通需求时L2互通功能默认未开启。

物理网络说明

DCI互联线路

  • 直连链路(裸光纤或者DWDM);
  • 企业自有的或者电信运营商的单租户/多租户layer 3 WAN服务;

PS:建议使用能够通过EVPN自动建立VXLAN隧道的链路,类似光纤互联网(Fiber Internet) 等无法运行EVPN的线路,不推荐使用。

Underlay路由设计

Underlay路由设计

Multi-Fabric方案通过在DCI Leaf之间建立eBGP对等体发布Overlay路由,创建VXLAN隧道,对中间Inter-Site Network(站点间网络)的要求只需能够打通Underlay路由,无需感知Overlay网络。DCI Leaf通过Inter-Site Network传递Underlay路由:

Underlay网络设计说明

  • Fabric内、DCI Leaf间的Underlay路由推荐使用eBGP,三层路由可达即可;
  • 同一个DCI Leaf组VTEP IP相同;
  • 同一个DCI Leaf组BGP的Router-ID不同;
  • DCI Leaf双活设备组内部两台设备之间通过三层互联,跑动态路由协议;

Overlay路由设计

通过建立三条VXLAN隧道可以支持跨数据中心L2互通和L3互通:

  • L2互通时,不同的二层通过不同的二层VNI进行区分,通过RD/RT进行喜好选择;
  • L3互通时,不同VPC通过VNI进行隔离,保证跨数据中心VM之间的通信和隔离,通过VPC中RD/RT值进行路由喜好选择。

Overlay路由设计

Overlay网络设计说明

  • Fabric内、DCI Leaf间的Overlay路由推荐使用eBGP EVPN;
  • DCI Leaf设备上通过BGP EVPN对等体所属的水平分割组,避免BUM流量转发出现环路(DCI Leaf节点收到BUM流量后,不会再转发给属于同一水平分割组的设备,避免因重生成而产生的环路)以及Fabric内重复路由;
  • DCI Leaf设备上根据网络需求开启L2互通、L3互通功能,进行BGP EVPN路由重生成;

DCI Leaf路由通告

  • Type3路由通告,该类型路由在VXLAN控制平面中主要用于VTEP的自动发现和VXLAN隧道的动态建立。作为BGP EVPN对等体的VTEP,通过Type3路由互相传递二层VNI和VTEP IP地址信息。创建一个头端复制表,用于后续BUM报文在Fabric内部及Fabric之间转发。
  • 租户VPC互通的网段路由,通过路由重分发功能将BGP EVPN Type5前缀路由从源端站点的DCI Leaf扩散给目的端站点的DCI Leaf。
  • 租户VPC发布的主机路由(Subnet跨Fabric延展场景),通过BGP EVPN Type2 IRB类型路由发布32位主机路由,通过route-map使用明细路由进行引流。

DCI Leaf MAC地址通告

  • 主机MAC地址通告,要实现同子网主机的二层互访,两端VTEP需要相互学习主机MAC。作为BGP EVPN对等体的VTEP之间通过MAC重分发功能交换Type2 MAC路由,可以通过相互通告已经获取到的主机MAC。

相关文章

校园网升级改造,“底层云化”才能少走弯路


关注星融元


终端数量和网络带宽需求激增
老旧校园网架构复杂,扩容困难
出口安全设备重床叠架
单点故障引发大范围网络崩溃
校园内网接入终端多样化
私设IP、非法终端接入防不胜防!
校园无线网覆盖不佳,终端漫游频频掉线,形同虚设
策略配置手动逐个增改,广播风暴难以定位……
一波未平一波又起,IT运维团队“压力山大”!


校园网改造漫漫长路,修修补补何时到头?

这一次我们从底层网络架构入手,通过引入云数据中心长期践行的先进技术理念,直击问题根源!接下来我们将从核心架构,无线网络设计、出口安全和内网接入安全等角度介绍 面向校园的云化园区网络解决方案。

云化校园网的核心架构

网络作为学校的重要基础设施之一,稳定性、可靠性和扩展性是用户群的基本诉求。从旧时代一路走来的传统校园网架构背负了过多的历史包袱,基于技术发展水平等因素,一些低效和不便在所难免。

今天,随着技术进步和实践,我们已经可以抛弃传统三层拓扑,在校园网采用更加先进的多级Clos架构(Spine/leaf)——以盒式交换机进行full-mesh的分布式组网,各网络节点用三层BGP路由互联,运行多路径负载分担(ECMP)充分利用链路带宽。

了解更多:下一代园区网络,用Leaf/Spine架构替代传统“接入-汇聚-核心”三层架构

三层BGP路由互联,全网多路径负载分担

基于高性能ASIC的三层硬件转发效率与二层转发相差无几,其中接入交换机(Leaf)只存储本地终端的路由表,大大减轻了表项压力
  • 架构天然无环:采用Spine/leaf架构,拓扑天然无环路,所有设备独立部署,无需为破环/防环耗费精力
  • 彻底消除广播风暴:最大程度压缩二层区域、一个端口就是一个广播域,每个终端之间天然二层隔离,根除广播风暴
  • 统一BGP路由:结构单一但策略丰富, 实现高效的统一管理
  • 云化集群”超堆叠”替代传统堆叠:逻辑简单,网络更稳定更易扩展;无需额外配置,无需横向互联,支持热升级

了解更多:下一代园区网络,何必再有“堆叠”?

分布式的校园无线网

在校园网的无线建设部分,除了应对高带宽需求和高并发流量的挑战,无缝漫游、多场景信号覆盖和部署能力需重点关注。

无线漫游传统的实现方案有两种:一是尽可能将需要漫游的区域规划在一个二层网络里,但二层网络越大越不安全,二是通过在新旧网关之间建立隧道,而代价就是复杂的配置和低效的流量转发路径。

得益于底层云化的网络架构,云化校园网中的业务网关分布式地部署在每一台接入交换机设备(Leaf)上,形成了大二层漫游域,AP漫游前后的业务报文直接在本地接入交换机以最短路径转发,无需建立隧道“兜圈子”。

分布式的校园无线网

  • 漫游无需重新DHCP获取IP,无需重新认证
  • 漫游信息自动同步,毫秒级切换,上层业务无感知
  • 25G高速上行,适应海量终端数据并发接入
  • 只需在网络初始化时完成一次网关配置

了解更多:下一代园区网络,“分布式网关”实现更高效的无线漫游!

我们推荐使用主流高性能的无线控制器AC+瘦AP的部署方式组网,配合规格丰富的无线网络产品和针对不同业务需求的合理规划,实现全场景的WiFi6覆盖。

AP应用场景

校园网设备概览

校园网络安全设计

园区出口安全

为提升网络安全,校园网和校园数据中心出口区域一般会部署多台安全设备,然而传统串接部署易发单点故障,运维困难,扩展性差,极易成为网络瓶颈。

星融元SFC 2.0智能安全资源池网络架构 将串接的传统网络出口架构改为“物理单臂旁挂,逻辑串接”。

  • 支持安全资源以主主、主备或集群模式部署
  • 提供简明的可视化界面进行编排、配置、监控

SFC 2.0智能安全资源池网络架构

接入终端安全控制

校园网用户以学生居多,安全意识淡泊容易产生不规范上网行为,导致网络校园网络安全事件频发,病毒、攻击软件均可能造成攻击数据流,影响整网网络正常使用。

除了出口安全架构的改造,我们还需要通过一系列接入安全控制技术保障所有接入终端的合法性,不同类型的终端需要匹配不同的认证机制,防止未经授权的非法终端获取上网权限。星融元云化校园网络支持多终端的认证方式。

  • 有线终端采用802.1x认证
  • 打印机、摄像头等哑终端采用MAB认证
  • 无线终端采用Portal认证

此外,底层云化后的校园网本身还具有一定的内生安全特性,例如:交换机将主动跟踪任何接入终端与DHCP服务器之间的交互过程,并自动学习设备信息,非法终端产生的网络流量将在接入端口被直接丢弃,不再依赖手动配置安全策略。

内生安全特性

轻量控制器,极简运维管理

市面上常见的校园网改造方案里往往会引入一个集中式SDN控制器,管理员借助Web界面的拖拉点拽操作即可完成整网运维和部署。但方便的背后也暗藏隐患:网络出现故障只能依赖控制器,一旦控制器自身故障,则问题排查将无从下手。

在云化校园网中,控制器只承担简单的状态查看和配置管理工作,路由计算、 QoS策略/安全策略下发、接入安全检测等任务分布式地由每个交换机上自主计算完成,既简化了人工运维的工作量,也缩小了单点故障的影响面,提升网络的健壮性。

控制器界面

云化校园网还引入了在服务器、云网络运维体系中广泛使用的开局零配置部署机制(ZTP)。对于一个大规模校园网络来说,ZTP对网络升级、变更所带来的效率提升是非常可观的。

开局零配置部署机制

而对于偏小规模的校园网可以采用轻量灵活的带内网络管理——通过集成在交换机操作系统内部的软件模块,建立设备集群。管理员登录到集群中任何一台设备,就能管理和配置集群内的所有成员,不用额外布线,也不依赖带外网络和管理平台。

偏小规模的校园网

了解更多:下一代园区网络,“接线上电”级别的极简运维

星融元云化校园网整体架构

星融元云化校园网整体架构

更多云化园区解决方案相关信息,请持续关注星融元官方公众号。

相关文章

客户案例:高性能、大规模、高可靠的AIGC承载网络


关注星融元


客户是一家AIGC领域的公司,他们通过构建一套完整的内容生产系统,革新内容创作过程,让用户以更低成本完成内容创作。


客户网络需求汇总

RoCE的计算网络 RoCE存储网络
1.不少于600端口200G以太网接入端口,未来可扩容至至少1280端口1.不少于100端口200G以太网接入端口,未来可扩容至至少240端口
2. 全网无收敛(1:1收敛比),全线速交换2. 带宽收敛比不大于3:1
3. 支持RoCE实现无损以太网3. 支持 RoCE 实现无损以太网

整网方案设计的思路

高性能

AIGC承载网络需要具备高宽带的特性,以支持快速的数据传输和处理。生成内容可能涉及大规模的文本、图像或视频数据,因此需要具备高带宽的网络连接,以便快速传输数据到计算资源节点进行处理;此外,AIGC承载网络需要实现低时延的要求,以确保生成内容的实时性和响应性。在用户上传任务或请求后,网络需要迅速响应并进行任务分配或资源调度。

大规模

AIGC承载网络需要能够处理大量的用户请求和任务,并同时支持多个用户的并发访问。因此,网络架构需要具备高度的可扩展性和负载均衡能力。例如,采用分布式计算和分布式存储技术,使得网络可以横向扩展,自动调节资源分配以应对不断增长的用户需求。

高可用

AIGC承载网络需要具备高可用性,以确保服务的连续性和稳定性。由于AIGC是基于人工智能技术的,其生成过程可能需要较长的时间和大量的计算资源。因此,网络需要具备容错机制和故障恢复策略,以应对硬件故障、网络中断或其他意外情况。

整体方案架构

AIGC承载网方案架构图

AIGC承载网方案架构图

计算网络设计方案一:整网 1:1 无收敛

不考虑GPU的8个接口的接入方式,8个接口接入1台或多台ToR

计算网络设计方案

  • 交换机 10 Leaf + 20 ToR= 30 台,提供640个接入端口(20*32=640),每台GPU服务器8端口,可以最大可接入GPU服务器 80台
  • 接入侧和Fabric内部互联均可以使用200G的AOC(含两端的200G光模块),其中接入侧600条,Fabric侧600条,合计1200条

方案一的扩展性

计算网络方案一的扩展性

  • 基于该架构,最多可以接入64台ToR,最大可以扩展到2048个200G接口接入,满足1280接口接入的扩展性要求

计算网络设计方案二:整网 1:1 无收敛

考虑GPU的8个接口的接入方式,8个接口接入到8台Leaf,每8台Leaf作为一个分组

计算网络设计方案2

  • 交换机 13 Leaf + 24 ToR = 37 台,按600个接入端口(75台GPU服务器),每组8个ToR接入25台GPU服务器,3组ToR接入75台
  • 每组ToR接入25台GPU服务器,下行接入带宽为200*200GE,因此,上行也需要至少是200*200GE带宽,每台ToR到每台Leaf为2条200G,总上行带宽为2*13*8*200GE,满足1:1收敛要求
  • 接入侧和Fabric内部互联均可以使用200G的AOC(含两端的200G光模块),其中接入侧600条,Fabric侧624条,合计1224条

方案二的扩展性

计算网络设计方案2的扩展性

  • 基于该架构,最多可以接入8组ToR ,每组8个ToR接入32台GPU服务器,8组ToR接入256台
  • 最大可以扩展到2048个200G接口接入,满足1280接口接入的扩展性要求

存储网络设计方案:整网 3:1 收敛

存储网络设计方案

  • 交换机 2 Leaf + 3 ToR = 5 台,提供最大144个接入端口(满足100个接入需求)
  • 如果不考虑Leaf高可靠部署,也可以单Leaf接入
  • 接入侧和Fabric内部互联均可以使用200G的AOC(含两端的200G光模块),其中接入侧100条,Fabric侧36条,合计136条

存储网络扩展性

存储网络设计方案的扩展性

  • 交换机 2 Leaf + 5 ToR = 7 台,提供最大240个接入端口(满足240个接入的扩展需求)

星融元方案价值与优势

超低TCO、超高性价比
相较于IB方案,大幅度降低用户的网络TCO,同时确保超高性能

横向平滑扩容、1:1收敛无阻塞
无收敛的网络设计确保无阻塞的大容量网络,按需横向扩展

整网RoCEv2
基于CEE/DCB能力,提供可与IB媲美的性能和同样无损的网络服务

开放网络操作系统
星融元网络操作系统AsterNOS,SONiC企业级发行版,支持灵活的功能扩展、在线升级

无缝对接云管
AsterNOS 利用简单易用的REST API,可轻松让第三方的云平台/控制器快速纳管

专家级服务
专业、全面、可靠的研发、方案与服务团队,为客户提供小时级的快速响应服务

相关文章

对星融元产品感兴趣?

立即联系!

返回顶部

© 星融元数据技术(苏州)有限公司 苏ICP备17070048号-2