Skip to main content
开放网络的先行者与推动者—星融元
加入我们技术支持(Support)  TEL:(+86)4000989811

标签: 其他

星融元高性能私有云网络解决方案


关注星融元


背景与需求

客户的IT建设面临着以下几个问题:

  • 随着公司规模日趋发展壮大,目前已经有北京、西安、苏州、武汉、长沙等多个研发中心,研发队伍不断壮大,截止2021年研发人员数量已经达到120多人。大多数研发仍然在个人PC上进行开发,涉及到交换机操作系统的编译,一次编译需要好几个小时,开发效率很低。
  • 公司目前在公有云和公司内部机房部署了不少应用,如BUG管理平台、文档管理平台、源码管理平台、企业官方网站、ERP系统、网盘系统,这些应用分散,占用的资源大多还需要额外付费,维护起来也比较麻烦。

针对以上问题,客户决定建设一套自己的私有云网络环境。通过私有云来分配较高配置的虚机满足研发的快速编译需求;通过将企业的IT应用迁移到私有云来节省不必要的开支,并实现统一运维和管理;

Asterfusion解决方案

私有云分成两个区域,一个区域为线上使用环境,主要满足研发虚机分配和客户IT应用部署的需求;

另外一个区域为测试演示环境,主要满足产品测试需求和客户演示需求。同时两个区域相互可达。

客户私有云共分为两期实现:

  • 一期线上使用环境主要满足研发虚机使用需求,迁移部分应用,测试演示环境满足基本的组网测试需求。
  • 二期主要扩容测试环境,通过加入更多的星融元网络设备,完成更多虚机支撑、业务覆盖全面的的数据中心组网环境。

客户私有云一期网络拓扑图

图1:客户私有云一期网络拓扑图

图1为私有云一期网络拓扑,CX532 设备做Spine,CX306 设备做Leaf

  • 线上使用区域:2台Spine,2台Leaf,15台服务器。
  • 测试演示区域:2台Spine,4台Leaf,10台服务器。

1RU的标准机身,Asterfusion CX5系列下一代云交换机可以提供32个100G/40G高速以太网接口,向下接入服务器和/或向上连接到骨干层的Spine交换机。其具体款型:CX532P整机交换容量为6.4Tbps。

在1RU的标准空间内,Asterfusion CX3系列下一代云交换机可以提供48个10G或25G以太网接口,向下接入服务器,同时提供6个100G/40G高速以太网接口,向上连接到骨干层的Spine交换机。其具体款型:CX306P-48S和CX306P-48T的整机交换容量为2.16Tbps,CX306P-48Y的整机交换容量为3.6Tbps。

无论是线上区域还是测试区域,Spine和Leaf的端口密度都完全满足需求,并为后期扩容提供冗余空间。

在本案例中主要用到了CX306支持的以下高级功能:

  • 最大支持64路基于权重的ECMP(实现流量的负载均衡,保证网络转发的高性能)。
  • 支持EVPN,可实现VXLAN隧道自动建立、虚拟网络路由动态传播 、分布式网关、非对称IRB、对称IRB。
  • 支持LAG/LACP,最大256个聚合组,每聚合组最大128个接口。
  • 支持静态路由 / BGP / MP-BGP。
  • 支持命令行 / WebUI / Controller / 集中管理 / REST API。

针对一期测试设备种类较少,覆盖功能不全面,客户私有云二期在测试演示环境又增加了一些网络设备。主要增加了防火墙和border-leaf边缘出口交换机。

私有云二期测试演示环境扩容后网络拓扑图

图2:私有云二期测试演示环境扩容后网络拓扑图

图2是客户私有云二期演示环境扩容后的网络拓扑图。X532做Spine,X308、X312、X306做Leaf。服务器4台部署Openstack云平台,2台做INT网络监测方面的测试,1台做Firewall、其余3台做裸金属。

二期主要设备类型:Spine -X532,Leaf-X308,Leaf-X312,Leaf-X306

测试演示环境扩容后能够覆盖更多的网络设备,能够演示更多的网络功能。

另外,星融元的网络设备都可以通过星融元控制器AFC来进行统一配置管理。

星融AFC控制器主界面

图3:星融AFC控制器主界面

AFC(星融元控制器)覆盖主要功能:

  • 整网拓扑自动绘制,拓扑中展示流量的来源、去向,拓扑中带宽占比TOP10设备展示
  • 整网输入输入流量建模并AI分析
  • 整网设备数量、类型展现,整网端口使用情况、整网实时输入输出流量折线图概览、历史峰值、平均值
  • 整网规则余量、整网策略(融合规则)配置,支持搜索某一融合策略并显示该策略途径设备的拓扑
  • 支持RestAPI导出第三方接口
  • 支持快照功能,包括流量快照、拓扑快照、策略快照等
  • 支持AAA、TACACS认证、用户管理、日志、告警、系统设置
  • 支持设备批量升级、配置导入导出
  • 支持登录设备自带WEB
  • X86服务器部署、计划最多支持100台设备的管理

客户的私有云管平台线上环境采用平安自研的云管平台PA_Stack。如下图4是PA_Stack的运营管理员主界面,可以看到目前的虚机资源分配情况。

星融私有云管平台主界面

图4:星融私有云管平台主界面

客户私有云管平台测试演示环境采用开源的OpenStack(Rocky版本),同时星融元基于该版本开发了Networking-AFC插件。通过将L2/L3网络功能(网络overlay)卸载至CX交换机上,提高云环境下计算节点的性能。插件依赖于AFC软件,通过该软件所提供接口配置CX交换机。

特色亮点与客户价值

高密度的高速接口设计

在1RU的标准空间内CX3系列下一代云交换机可同时交付48个10G/25G以太网端口和6个100G/40G高速以太网端口,最大程度上提升了空间、能源的使用效率,降低TCO(总拥有成本)的同时获得更高的ROI(投资回报)。

按需自由扩展的扁平化云网络

在 Scale-wide 的云网络中,不需要再为价格高昂的框式 Spine 交换机支付超额的成本,并且将网络的规划、部署、调整、优化、扩展的主动权牢牢掌握在自己手中。CX系列构建的扁平云网络极大地简化了云网络基础架构的复杂性,同时具备超强的横向扩展能力,使云计算 Pay-as-you-grow 的基本理念在云网络中得以体现。

转发平面集成线速的NFV

在可编程交换芯片的支持下,星融元 创造性地将云计算常用的NFV(网络功能虚拟化)特性在CX系列的转发平面中编程实现,从而进一步提升了云网络的使用效率。CX系列云交换机目前支持的NFV功能包括:四层SLB(服务器负载均衡)、NAT(网络地址转换)、DDoS(分布式拒绝服务)攻击流量识别与统计。

易用、多样的网络操作系统支撑二次开发

基于对网络应用的深刻理解,星融元在提供的网络操作系统AsterNOS之上开发了从操作系统内核适配、驱动适配、接口适配、虚拟化网络协议、高可靠控制协议等多种功能特性,以改善开源的SONiC/SAI和Stratum/gNMI/gNOI的可用性、易用性。

与云计算无缝融合的云网络

运行在每一台CX系列云交换机上的 AsterNOS 是星融元基于纯粹的 SDN 理念为云计算时代设计开发的一款开放、智能、易用、高性能的网络操作系统。Asteria Fabric Controller (AFC) 是星融为云计算环境设计开发的Cloud SDN Controller,是一个面向云中业务与应用的Cloud SDN 平台。

相关文章

智能开放、超高性能、超低时延, 星融元数据中心网络解决方案重新定义网络基础设施


关注星融元


随着数据流量的不断增长,特别是大数据时代到来后,各行业业务产生的流量激增,数据中心面临着来自应用和数据的网络压力也在“狂飙”。数据中心亟待解决数据中心之间的海量数据高速迁移问题,消除数据中心间的带宽瓶颈,大幅提升数据中心间的带宽利用率等问题。大数据的时代来临,数据中心网络重要性日益显现。

构建一个智能开放、超高性能、符合业务需求的数据中心网络对支撑业务的发展尤为重要,星融元基于多年在开放网络领域的积累,能够为不同用户构建不同规模不够特性的数据中心网络。

构建中小规模的数据中心

在数据中心规模不大,但对大缓存或超低时延有强烈需求的场景中,如提供视频、搜索服务等场景对大缓存有要求,而提供高频交易、AI等高性能计算应用对超低时延有要求,可使用CX564P-N。

和CX308P-48Y-N构建Spine-Leaf扁平化组网,极大地简化了云网络基础架构的复杂性,同时具备超强的横向扩展能力,大幅度降低云网络的TCO(Total Cost of Ownership),使云计算Pay-as-you-grow的基本理念在云网络中得以体现。

该应用的组网使用CX564作为Spine层、CX308P-48Y-N作为Leaf层的两层架构搭建按需自由扩展的扁平化云数据中心网络,两层之间全部采用100G进行互联,采用25G光纤连接具备25G接口的服务器,可实现3072台服务器的接入。


图1: 中小规模数据中心的典型组网

如上图,具体的数量与交换能力分析如下:

设备型号交换层交换机/16 * 100GE线卡数量
CX564P-NSpine8/64
CX308P-48Y-N(8 * 100GE + 48 * 25GE)Leaf64
合计72
交换容量8 * 6.4T = 51.2T/数据中心
可接入服务器64 / 2 *48 = 1536/数据中心
收敛比1.5:1
接入效率1536 / 72 = 21服务器/交换机

构建超大规模、高性价比的数据中心

随着视频、社交网络、大数据分析等数据密集型业务的迅猛发展,云数据中心的流量呈现出指数级的增长态势,势必要求服务器的部署数量达到数万级的规模,对网络也提出了超大规模建设的需求。如图所示,仅通过低成本的1U盒式设备就可以满足大规模的组网需求,用户不需要再为价格高昂的框式核心交换机支付超额的成本,并且将网络的规划、部署、调整、优化、扩展的主动权牢牢掌握在自己手中。

该应用的组网使用CX532P-N作为Fabric层和Spine层、CX308P-48Y-N作为Leaf层、采用三层CLOS架构搭建超大规模的云数据中心网络,各层之间全部采用100G进行互联,采用25G光纤连接具备25G或者10G接口的服务器,可实现24576台服务器的接入。

图2: 超大规模、高性价比数据中心的典型组网

如上图,具体的数量与交换能力分析如下:

设备型号交换层交换机/16 * 100GE线卡数量
CX532P-N(32 * 100GE)Fabric8交换网 * 16/交换网 = 128
Spine32接入模块 * 8/接入模块 = 256
CX308P-48Y-N(8 * 100GE + 48 * 25GE)Leaf32接入模块 * 16/接入模块 = 512
合计896
交换容量16 * 32 * 100GE = 512.T/交换网,
8 * 51.2T = 409.6T/数据中心
可接入服务器16 *48 = 768/接入模块
32 * 768 = 24,576/数据中心
收敛比1.5:1
接入效率24,576 / 896 = 27服务器/交换机

构建超低时延无损以太网承载分布式存储集群

云计算、大数据、物联网以及人工智能,这些热议的技术话题,已逐步落地并大规模应用推广。在这样的技术背景下,数据规模将会持续保持着爆炸式的增长趋势,因此对大容量存储的需求也在急剧增加。随着高可靠性、高扩展性、高性能的全闪分布式存储的普及,许多对存储性能要求比较高的业务场景也开始使用分布式存储。但是,想要将SSD的性能完全发挥出来,不仅需要在存储软件层面进行优化,还需要一张低时延、零丢包、高性能的存储网络。

分布式存储集群部署场景中,用户可使用CX-N系列云交换机根据上层业务需求的不同,选择进行单归或双归接入,存储后端网将单独使用一张物理网,以保证分布式存储集群能够快速无阻塞地完成多副本同步、故障后数据重建等任务,而存储前端网和业务网则共用一张物理网。通过CX-N系列云交换机,配合具有RoCEv2功能网卡对整网流量进行统一规划,构建一张超低时延无损以太网承载分布式存储集群,能够有效的提高用户网络效率,进一步提升分布式存储的性能和效率。

图3: 存算分离场景的网络架构

构建大规模高性能计算低时延无损以太网络

伴随着 5G、大数据、物联网、AI 等新技术融入人们生活的方方面面,可以预见,在未来二三十年间人类将迈入基于数字世界的万物感知、万物互联、万物智能的智能社会。数据中心算力成为新的生产力,数据中心目标也从原有的资源规模向算力规模转变,算力中心的概念被业界广泛接受。数据中心向算力中心演进,网络是数据中心大算力的重要组成部分,提升网络性能,可显著改进数据中心算力能效比。为了满足大算力的需求,多个计算机协同工作,采用十台、百台,甚至成千上万台计算机“并行工作”。各个计算机之间需要互相通信,并对任务进行协同处理。因此,随着业务需求的变化用户对互联网络性能要求越来越高,计算和网络深度融合成为趋势,这就需要建立一套对时延、带宽等有着严格要求的高速网络。

CX-N系列云交换机采用了标准以太网协议和开放软硬件技术,支持无损以太网技术和网络无损防拥塞技术,充分满足用户在HPC应用下对网络带宽、时延等的高要求,为用户构建大规模高性能低时延的无损网络。

图4: 高性能计算无损以太网

构建承载多业务的融合增强型以太网

CX-N系列云交换机可为云数据中心构建超低时延、零丢包、超高性能、业务可视的融合增强型以太网CEE,承载RDMA的以太网能同时支撑高性能计算业务、存储业务和普通业务的路由转发,在保证业务需求的同时,不但能够帮助用户简化网络复杂度,降低用户运维难度,还能帮助用户有效降低TCO的同时获得更高的ROI。

图5: 承载多业务的融合增强型以太网典型组网

相关文章

星融元:浅谈RDMA与低时延网络


关注星融元


网络的发展好像在各方面都是滞后于计算和存储,时延方面也不例外,网络传输时延高,逐渐成为了数据中心高性能的瓶颈。

数据中心进行高性能分布式并高性能计算时的过程会产生数据流,形成了占据70%流量的东西向流量。这些流量,一般为通过TCP/IP网络传输。所以如果能够提升服务器之间的TCP/IP传输速率,,那么数据中心的性能自然也会跟着提升。

于是,RDMA的作用开始发挥了,并广泛应用于高性能(HPC)科学计算中。随着数据中心高带宽、低时延的发展需求,RDMA也开始逐渐应用于某些要求数据中心具备高性能的场景中。

RDMA( Remote Direct Memory Access,远程直接地址访问技术 )是一种新的内存访问技术,RDMA将服务器应用数据直接由内存传输到智能网卡(固化RDMA协议),由智能网卡硬件完成RDMA传输报文封装,这样就可以让服务器直接高速读写其他服务器的内存数据,而不需要经过操作系统/CPU耗时的处理。具体看如下:

RDMA的内核旁路机制允许应用与网卡之间的直接数据读写,规避了TCP/IP的限制,将协议栈时延降低到接近1us。RDMA的内存零拷贝机制,无需在应用程序内存和操作系统中的数据缓冲区之间复制数据。这样的传输不需要CPU、缓存或上下文切换器完成任何工作,大幅度降低了消息传输中的处理延迟,同时传输与其他系统操作并行进行,提高了网络传输的性能。

传统模式和RDMA模式的对比

图1:传统模式和RDMA模式的对比

通过对比传统模式和RDMA模式对发送和接收数据的处理过程,RDMA技术最大的突破在于给数据中心通信架构带来了低时延、超低的CPU和内存资源占用率等特性。

低时延主要体现在RDMA的零拷贝网络和内核旁路机制。零拷贝网络网卡可以直接与应用内存相互传输数据,消除了在应用内存与内核内存之间的数据复制操作,使传输延迟显著降低。内核内存旁路机制使应用程序无需执行内核内存调用就可向网卡发送命令。在不需要任何内核内存参与的条件下,RDMA请求从用户空间发送到本地网卡,再通过网络发送给远程网卡,这就减少了在处理网络传输流时内核内存空间与用户空间之间环境切换的次数,降低了网络时延。

超低CPU和内存资源占用率主要体现在应用程序可以直接访问远程内存,而不占用远程服务器中的任何CPU资源,远程CPU中的缓存资源也不会被访问的内容填满,服务器可以将几乎100%的CPU资源和内存资源提供给计算或其他的服务,节省了服务器资源占用的同时,提高了服务器数据处理带宽。

基于对“HPC高性能计算的网络需求”和“RDMA技术”的分析和理解,星融元Asterfusion推出了CX-N系列超低时延云交换机

使用RoCEv2,降低传输协议时延

目前RDMA的网络层协议有三种选择,分别是InfiniBand、iWarp(internet Wide Area RDMA Protocol)、RoCE(RDMA over Converged Ethernet)。

RoCE,允许应用通过以太网实现远程内存访问的网络协议,也是由IBTA提出,是将RDMA技术运用到以太网上的协议。同样支持在标准以太网交换机上使用RDMA,只需要支持RoCE的特殊网卡,网络硬件侧无特殊要求。目前RoCE有两个协议版本,RoCEv1和RoCEv2,RoCEv2是一种网络层协议,可以实现路由功能,允许不同广播域下的主机通过三层访问,是基于UDP协议封装的。但由于RDMA对丢包敏感的特点,而传统以太网又是尽力而为存在丢包问题,所以需要交换机支持无损以太网。

在这几类RDMA网络中,RoCEv2的性能较好、部署成本低。星融元Asterfusion CX-N系列云交换机搭建的超低时延无损以太网能够很好地承载RoCEv2,并基于RoCEv2打造一张低时延、零丢包、高性能的HPC高性能计算网络。

网络融合大趋势下的RDMA

图2:网络融合大趋势下的RDMA

超低时延交换芯片,降低网络转发时延

星融元Asterfusion CX-N系列云交换机,具备业界领先的超低时延能力,可满足高性能计算三大典型场景的低时延网络的需求以及对紧耦合场景中“对于各计算节点间彼此工作的协调、计算的同步以及信息的高速传输有很强的依赖性”提出的超低时延需求。使用 CX-N系列云交换机搭建的高性能计算网络,可大幅降低业务的处理时延,提升高性能计算性能。

使用PFC高优先级队列,提供无损网络

PFC是暂停机制的一种增强,PFC允许在一条以太网链路上创建8个虚拟通道,为每条虚拟通道指定一个优先等级并分配专用的资源(如缓存区、队列等等),允许单独暂停和重启其中任意一条虚拟通道而不影响其他虚拟通道流量的传输,保证其它虚拟通道的流量无中断通过。这一方法使网络能够为单个虚拟链路创建无丢包类别的服务,使其能够与同一接口上的其它流量类型共存。

PFC的工作机制

图3:PFC的工作机制

使用ECN拥塞控制算法,消除网络拥塞

ECN(Explicit Congestion Notification,显式拥塞通知)是构建无损以太网的重要手段,能够提供端到端的流量控制。通过使用ECN功能,网络设备一旦检测到出现了拥塞,会在数据包的IP头部ECN域进行标记。被ECN标记过的数据包到达它们原本要到达的目的地时,拥塞通知就会被反馈给流量发送端,流量发送端再通过对有问题的网络数据包进行限速来回应拥塞通知。从而降低网络延迟与抖动,进而提升高性能计算集群的性能。

ECN的工作机制

图4:ECN的工作机制

  1. 发送端服务器发送IP报文标记ECN。
  2. 交换机在队列拥塞的情况下收到该报文,修改报文ECN字段并转发。
  3. 接收端服务器收到被标记的拥塞报文,正常处理该报文。
  4. 接收端产生拥塞通告,周期发送CNP(Congestion Notification Packets)报文,要求报文不能被网络丢弃。
  5. 交换机收到CNP报文后正常转发该报文。
  6. 发送服务器收到被标记的CNP报文,解析后使用对应的数据流限速算法进行限速。

相关文章

它,边缘计算/雾计算场景下的“迷你神器”?


关注星融元


在1U、半机架宽的整机空间中,它能提供与基于 x86 的服务器相似的处理能力,但成本、功耗和占用空间都要更低。

从边缘计算说起

假如“雾计算”这个说法对你有点陌生,那我们不如还是从热门点的“边缘计算”说起吧,其实他俩差不太多!

本质上说,边缘计算和云计算都是为了处理数据的计算问题而诞生的,只是两者实现的方式不同。谈及边缘计算的优势,就要讲到这个逃不过的”典中典”案例——无人驾驶。为了实现“无人驾驶”的目标,一台这样的汽车会有成百上千个传感器,每驾驶8个小时它们就会产生数十TB的数据。然而这些数据大多数并不重要,如果将其全量传输到云端无疑是对宝贵带宽的极大浪费。另外,无人驾驶要求系统必须对数据进行实时的反应,从道路安全的角度上来说低延时的重要性不言而喻。  

边缘计算则正好解决了这个问题:在靠近数据源头的位置对数据进行初步处理,经过计算后只把重要的计算结果传到云端,从而大大节约了带宽资源。同时还能利用边缘算力实时地分析和处理一部分关键数据,降低了延迟。

边缘计算

根据Gartner的报告[1],到 2029 年,全世界可能有多达 150 亿台物联网(IoT)设备连接到企业基础架构。这些设备都将生成大量原始运营数据,部署场景遍布各行各业,他们都需要进行转换、汇总和分析,以便于进行实时的网络运维管理以及后续的大数据分析。

雾计算是什么?

从字面意义解读,“雾”是比“云”更贴近地面的存在。对应的,夹在云数据中心和各类接入设备之间的就是网络的边缘层,即所谓的“雾”。

根据Cisco 的定义[2],“雾计算”主要使用边缘网络中的设备。这些设备可以是传统网络设备(比如早已部署在网络中的路由器,交换机,网关等等),也可以是专门部署的本地服务器。

而“边缘计算”侧重于“雾计算”中“局域网内处理能力”的理念,也就是说,它比“雾计算”离资产硬件更近一些。一个可能不甚精确的类比:如果说“边缘计算”是把算力下沉到类似于无人驾驶汽车这样的终端之上,那么“雾计算”就是在无人驾驶公路边构建的微型服务站。两者根据不同需求分别向云端上报信息。

相对于云端的集中式计算,使用这类分散在边缘的算力有着如下显著优势:

  • 低延迟:数据是在靠近数据源处理的,与遥远的云或数据中心相比,它们减少了来回发送数据所需的时间,可以实时或接近实时地进行分析。
  • 低带宽消耗:数据处理发生在边缘,也不需要高带宽来处理和发送数据。
  • 容错性高:暂时失去与云端的连接也没有问题,边缘本身具备算力,依旧可以继续工作。

让雾接上 “ 地气 ”

传统观念中,我们好像习惯把网络视为连接各项资源的纯粹的“管道”,相比于存储和计算的飞速发展,网络仿佛缺少了一种面向业务的想象力。

可如果把格局打开,让边缘网络叠上算力buff,我们能做什么呢?

OK,现在我们就以这款ET1600来看看,“雾”是如何“接地气”的…

星融元ET1600系列开放计算平台基于 Marvell OCTEON SoC(多核ARMv8 处理器)

与其说是边缘网络设备,其实我更愿意称其为“ARM架构的白盒服务器”

在1U、半机架宽的整机空间中,它能提供与基于 x86 的服务器相似的处理能力,但成本、功耗和占用空间都要更低。

  • 高性能智能业务处理单元:内置的网络专用协议处理器,可支持对采集流量进行灵活的数据包解析、报文编辑、协议处理等操作
  • 最多8 x 1GE copper接口、2 x 10GE SFP+接口和4 x 1GE SFP接口、1 USB 3.0
  • ET1600系列采用了业界领先的低功耗芯片组和先进的板级设计工艺;在保证芯片拥有高速处理性能的同时,其典型功耗仅为30W
  • 采用精简的硬件架构设计并使用成熟通用的处理芯片,整个系统通过严苛的环境试验,可稳定地工作在0~40℃环境中

如何把它耍起来呢?我们浅举几例实际应用。

比如,作为出口网络防火墙。

当发生链路故障时, ET1600可以直接连接到出口网络,因为它包含一组 Bypass 端口,可以直接绕过故障链路,而不会造成断点。运行网络操作系统后,ET1600可以支持安全流量控制功能。作为硬件防火墙的ET1600可以缓解软件防火墙带来的网络性能低下的问题,同时也具有成本低、功耗低、体积小等优点。

当ET1600搭载了用于深度业务处理的智能可视操作系统FusionNOS后…

1、网络可视化(NPB)前端

ET1600可进行流量聚合、分发、过滤、数据包预处理等功能,简化后端分析系统中的数据包处理,提高网络可视化系统的整体运行效率。

2. 安全态势感知前端

ET1600交换机可作为前端探针,根据IP、TCP、UDP等协议从采集的流量中提取元数据;它还可以为后端大数据系统提供Kafka格式的日志,用于完整的网络安全分析。

迷你神器的背后…更重要的是基于ARM的开放计算生态

FusionNOS-Framework是星融元Asterfusion为客户预装在像ET1600这样(以ARM为核心)的硬件平台上的底层基座操作系统。客户可以在其上直接开发上层应用程序来满足快速演进的市场需求。如果已经有现成的x86上应用软件,仅需简单编译便可迅速部署。

FusionNOS-Framework 为开放计算的开发者提供了一个开箱即用、灵活敏捷的基础开发环境,帮助开放计算的系统供应商快速、高效地完成所定义产品从概念验证、开放直到上线运维的完整过程。

除了ET1600,星融元还有性能更高的开放计算平台ET3000A系列,以及算网融合硬件平台X3-T系列。

相关文章

如何通过带内网络遥测(INT)技术实现精细实时的网络运维?


关注星融元


星融元通过提供AFF(Asteria Fabric Foresight)云网智能遥测系统搭配可编程云网交换机产品,构建了一套遵循INT技术的解决方案,能够在不影响设备的性能和功能的情况下,实现更高精度的网络数据监控;在转发业务流量的同时,将网络的即时性能、状态、参数收集并记录下来,在网络的出口发送给运营分析系统,用来精准分析物理网络的健康状况,让运维人员快速、精准地掌握全网设备的实时运行状态,帮助提升响应速度和运维效率。

带内网络遥测 VS. 传统网络运维模式

1、传统网络——基于CLI、SNMP机制的被动运维模式

在INT技术出现之前,数据中心多采用SNMP、NetFlow、sFlow之类的协议进行网络数据的采集监控。

1、SNMP(Simple Network Management Protocol,简单网络管理协议) :可以采集到网络设备的CPU、内存、日志等信息,但缺点是无法采集到网络数据流量,无法判断链路拥塞情况。这种Pull拉取式的模式已无法满足当今云数据中心需求。SNMP本质是工作在设备内部的一个 server,snmp 的 客户端要定期地到这个 server 里面去拿指定的数据。 server 是运行在设备的控制面,如果要通过控制面去采集一些数据面的信息的话,会导致设备的性能大打折扣。

2、NetFlow、sFlow:后续出现的高级采集协议,有NetFlow、sFlow等,可以实现网络数据流量的采样和推送,但其推送的是原始数据,不能直观地显示网络情况;而且是按照一定比例采集的,不能反映整个网络链路的流量全貌,所以不能预测流量和拥塞,sFlow通过设定的采样比采集端口数据,采样比越大,收集的数据量越少,采样比越小,收集的数据量越多越详细。缺点也很明显,采集的流量在端口流量比较小的情况下,反映网络状况不是很准确,尤其是在端口各种流量比较丰富的情况下,就可能会漏掉部分流量。

  • 通过拉(pull)模式来获取设备的监控数据,故障定位缓慢;
  • 采集精度粗略,只能做到分钟级别的采集,监控到的网络节点数据并不准确;
  • 缺乏对设备队列状态信息的查询,故障定位不详细

这种被动响应的网络监控方式,故障定位迟缓、粗略,使得管理效率越来越低,已无法跟上时代的步伐,满足不了数据中心云网络运维需求。

2. 带内网络遥测(INT,In-band Network Telemetry)——更实时、全面、精细的运维模式

INT是通过数据面业务进行网络状况的收集、传送、上传的。通过名称我们可以看出两个技术关键点。“带内”意味着可以从传输网络内部收集信息,而不是通过额外搭建的业务网以及实际端口收集;“遥测”,表现在测量网络的数据并且远程上报的特点。对比上述传统技术,INT的特点优势一目了然:

  • INT采用主动推(push)模式:制定完规则后,网络设备主动推送运维人员所需要的数据。
  • INT无需控制层面干预:采集过程无需控制层面干预,减轻设备负担。
  • INT可实现纳秒级时间戳:INT协议本身支持纳秒级时间戳从而采集的数据精度高。
  • INT实现快速响应:在数据平面芯片内部进行采集,响应时间非常快。

目前,INT已成为了当代大型数据中心运营的关键组成部分,能实现整网的流量可视化,通过对网络设备的数据进行远程高速采集和监控,提供更实时、更全面和更精细的网络监管能力,从而帮助加速网络故障排除、预测网络容量增长和评估网络性能的潜力。

INT如何实现?

1、INT的头部报文格式

正确类型的遥测数据使网络运营商能够主动解决网络盲点并保持其业务系统高效运行。所以,我们不妨先了解下INT的头部报文格式。

INT的头部报文格式

  • Ingress-port(9bit):报文入端口号
  • Egress-port(9bit): 报文出端口号
  • Queue_id(5bit):报文出端口队列号
  • Queue_occupany(19bit):队列占用率
  • Timestamp(32bit): 报文出端口时间戳

INT的头部报文格式

  • D(1bit):指原始报文是否在本交换机被Drop
  • Q(1bit):指原始报文出队列上是否存在拥塞
  • F(1bit):指INT采集是否是通过ACL匹配识别
  • Seq_number(32bit):该报文计数,报文发送INT数据的个数
  • Timestamp(32bit): 报文入端口时间戳

2、INT数据包的传递

知悉了头部数据包内容,下面我们看下带内网络遥测架构数据包的传递过程。

INT数据包的传递

在带内网络遥测架构中,交换设备转发处理携带遥测指令(Telemetry instructions)的数据包。当遥测数据包经过该设备时,这些遥测指令告诉具备网络遥测功能的网络设备应该收集并写入何种网络状态信息。

一般来说,一个INT过程涉及3个功能节点:

  • 交换机-1充当INT source,负责指出需要收集信息的流量和要收集的信息
  • 交换机-2作为支持INT遥测的设备
  • 交换机-3作为终点负责将收集到的信息上报给监控设备或者系统

通过上述信息,我们不难发现:INT可以精准地描述一个报文在交换机里的运作情况。这是传统的遥测技术比如Snmp,sFlow所无法实现的,它体现的是网络在转发业务那一瞬间最真实的情况,在当今数据中心呈现“高速率、大规模、多接入、不可预期”的特点下,INT技术无疑更加满足运维人员的实际需求。

星融元基于可编程交换芯片的INT方案

星融元通过提供AFF(Asteria Fabric Foresight)云网智能遥测系统 搭配可编程云网交换机产品,构建了一套遵循INT技术的解决方案,能够在不影响设备的性能和功能的情况下,实现更高精度的网络数据监控;在转发业务流量的同时,将网络的即时性能、状态、参数收集并记录下来,在网络的出口发送给运营分析系统,用来精准分析物理网络的健康状况,让运维人员快速、精准地掌握全网设备的实时运行状态,帮助提升响应速度和运维效率。


SSL加密原理

  1. 精细运维:纳秒级别的监控粒度、一针见血反映网络状况。
  2. 快速定位:远程预警方式快速告知客户详细网络故障信息。
  3. 释放资源:采用订阅上报机制,通过设备的交换芯片转发INT流量,不占用设备CPU开销

数据中心的“天眼”,告诉你什么叫网络监控世界的内卷


关键词


关注星融元

前段时间,有客户咨询我们,他们在处理日常业务的过程中,偶尔感知到数据传输丢失、突发高时延等故障问题。客户的数据中心内部有上千台的交换机,依靠人工排查问题,不仅定位难,而且耗费时间也长,严重影响业务连续性。所以怎么才可以快速定位到具体故障设备,甚至具体故障端口,然后进行故障修复呢?

在超大规模的数据中心里,故障的精准定位是一个普遍存在的网络运维难题。

落后的传统运维模式

大型数据中心,既有由交换机、路由器等物理硬件组成的物理Underlay网络,也有在Underlay网络上为业务或用户构建逻辑隔离的虚拟Overlay网络空间,其网络架构复杂,技术堆栈层次多,对故障的识别、海量策略的下发等网络运维工作带来极大困难。特别是一些对网络时延要求较高的业务, 如高性能计算、人工智能等,业务交互关系更复杂,数据交换更频繁,网络架构更加复杂,对故障的响应时间和定位速度要求极高。

但是当前的网络运维还是以人工为主,当故障一旦出现后,通常要一台台地识别,不仅工作量巨大,甚至会对整个网络产生影响,阻碍业务的正常开展。同时,传统网络基于CLI、SNMP机制的被动运维模式:通过拉模式来获取设备的监控数据,故障定位缓慢;采集精度粗略,只能做到分钟级别的采集,监控到的网络节点数据并不准确;缺乏对设备队列、端口状态信息的查询,故障定位不详细。这种被动响应以及故障定位迟缓、粗略的网络监控方式,管理效率越来越低,已无法跟上时代的步伐,无法满足数据中心网络运维要求。

因此,面对大规模、高性能的网络监控需求,用户需要一种全新的工具,让网络运维更加智能化。

针对传统网络运维方面的种种挑战,星融元在充分了解客户痛点的基础上,将实现客户的网络运维的智能可视化放在重要位置:设计和研发了一款智能网络运维产品——AFF(Asteria Fabric Foresight)云网智能遥测系统,具备网络状态实时监控,网络质量全面感知、网络故障快速定位等功能,帮助用户在星融元为其搭建的网络里,从容解决来自网络运维方面的难题。

AFF云网智能遥测系统

AFF(Asteria Fabric Foresight)云网智能遥测系统,遵循INT(Inband Network Telemetry,带内网络遥测)技术,能够在不影响设备的性能和功能的情况下,实现更高精度的网络数据监控;能够快速、精准地掌握全网设备的实时运行状态,帮助用户提升响应速度和运维效率,告别过往问题发生时的束手无策。

INT作为一种混合测量技术,是一种借助数据面业务进行网络状况的收集、携带、整理、上报的技术。两个关键技术点:第一点是Inband(带内),意味着借助数据面的业务流量,而不是像很多协议那样专门使用协议报文来完成协议想要达到的目的,第二点就是Telemetry(遥测),具备测量网络的数据并远程上报的特点。

1、精细运维

即便是在规模不断增大的数据中心网络,也可以做到纳秒级别的监控粒度,能够完整、准确地反映网络状况,据此预估可能发生的故障。并通过WEB页面清晰完整地展现全网设备的连接拓扑,帮助用户对整体网络质量有全面直观的了解,为用户的网络优化提供有力的数据依据。

2、快速定位

在复杂的网络中,能够帮助用户快速地定位故障,达到纳秒级的故障定位速度,并通过远程预警方式快速告知客户详细网络故障信息;同时当用户需要回溯故障详情时,可以通过系统日志精准定位故障设备,从而大幅减轻了运维工作人员的压力。

3、释放资源

AFF基于INT遥测技术,采用订阅上报机制,通过设备的交换芯片转发INT流量,不占用设备CPU开销;此外,AFF可以直接在生产业务网络环境中进行部署,使用现有的网络链路直接传输INT流量,无需对生产网络环境进行复杂的改动,节省部署成本。

AFF与AFC的智能联动

AFF是星融元为了让客户的网络管控和智能运维更加一体化而研发的一项高级扩展功能,该功能基于星融元自研的SDN云网控制器AFC(Asteria Fabric Controller)。AFC是星融元自研的一款面向各行业云数据中心等应用场景,提供网络设备的智能管控及配置自动下发等功能的SDN云网控制器。

用于AFF的应用场景拓扑图

通过为AFF设计全面的REST API接口,AFF可以与AFC无缝对接,智能联动,为客户提供一个全网健康状态可见的网络分析平台。即便在一个数据中心有成千上万台的星融元交换机,如果想要进行一个时延阈值的设置,只需通过AFC,一键下发配置策略即可,可以极大减轻运维人员的工作难度,帮助客户在业务部署中,减少设备配置的复杂度,提高业务的上线速度。并且面对AFF上报的故障问题,通过AFC可以对业务流量的转发路径进行快速调整,避开故障设备或故障端口,保障业务流量的正常转发。

AFF的出现解决了云网环境中由于网络设备数量过于庞大,从而给运维人员带来的网络故障定位难、运维时间成本高、工作效率低等难题;实现了全网设备健康状态的可视化,提升了网络监控数据的实时性和精确度,保障业务稳定、可靠运行。AFF也让星融元的云网络解决方案功能更加完整,服务更加全面,从网络的搭建,再到网络的管控和运维,一站式全网健康管理,网络质量尽在掌控之中。

相关文章

星融元可编程交换机帮助用户享用开放网络技术红利


关注星融元


近日,SONiC宣布成为Linux基金会正式项目。SONiC社区从2017年开放以来,社区成员快速增长,当前已经在云计算、企业和金融科技网络的数百万个终端上运行。

选定SONiC,研发AsterNOS

事实上,星融元是中国最早参与SONiC社区、并积极向社区贡献缺陷修复和软件特性代码的公司之一。从SONiC诞生之初,星融元就选择开源网络操作系统作为构建全栈开放网络的发展引擎,推出以SONiC为内核的AsterNOS开源开放网络操作系统。

几年来,随着研发队伍不断发展壮大,AsterNOS经过持续更新迭代,已经升级到4.0版本,其软件特性和芯片支持不断完善扩充,在稳定性和易用性方面也实现了极大的改进,完成了数万个现场商业部署的拷贝。

1、多场景应用

基于跨芯片平台的AsterNOS,星融元针对不同的应用场景选用最适合的芯片特色能力构建了一系列有特色的硬件平台,通过Teralynx芯片释放低时延的能力,可满足高频交易、大数据分析、AI、5G、 IoT、VR/AR/MR等场景中延时敏感型应用的超低时延需求;利用Tofino P4可编程能力,面向智能网关、限速网关等场景,提高用户设备资源分配的合理化、灵活化。

同时,星融元的一系列开放硬件平台,易被集成,可与其他网络设备一起,帮助用户构建全开放的网络架构,满足运营商、公有云,以及来自金融、电力、政府、能源等不同行业客户在不同场景中的业务需要。举例来说,

构建中小规模的数据中心:在数据中心规模不大,但对大缓存或超低时延有强烈需求的场景中,星融元帮助用户构建简单、具备横向扩展能力的中小规模的数据中心,同时大幅度降低云网络建设投入成本。

构建超大规模、高性价比的数据中心:随着视频、社交网络、大数据分析等数据密集型业务的迅猛发展,云数据中心的流量呈现出指数级的增长态势,势必要求服务器的部署数量达到数万级的规模,对网络也提出了超大规模建设的需求。星融元通过低成本的1U盒式设备就可以满足大规模的组网需求,极大程度减少用户服务器的部署数量和减轻运维工作负担。

构建承载多业务的融合增强型以太网:星融元CX-N系列交换机可为云数据中心构建超低时延、零丢包、超高性能、业务可视的融合增强型以太网CEE,承载RDMA的以太网能同时支撑高性能计算业务、存储业务和普通业务的路由转发,帮助用户降低成本的同时,获得更高的投资回报率。

2、智能化运维

面对云数据中心业务灵活多变,网络环境无法统一配置管控等问题,星融元自研了SDN云网控制器——AFC(Asteria Fabric Controller),接管云管平台下发的网络需求,并对整网的Underlay与Overlay进行管控。

通过AsterNOS与AFC的联合部署,相比较传统方案里——控制器挨个适配每家设备的各种管理接口事实上是一个“不可能的任务”,星融元用户能够对云网进行集中控制、自动化软件安装与升级、一键部署、拓扑自动发现及自动配置。

同时,星融元通过将AsterNOS与OpenStack/Kubernetes集成,云计算环境能够自动化地弹性调度网络,无需再组建庞大的网络运维团队。星融元通过设备上的软件开放性帮用户屏蔽了差异,极大简化了控制器工作,帮助用户将运营成本降到最低。

3、定制化开发

以客户为中心,理解不同客户的需求差异性。星融元除了可以为用户提供稳定的SONiC发行版,还可以针对客户需求提供特性定制开发和应用定制开发:

特性开发:对于需要增强特性、完善特性和开发新特性的用户来说,星融元可以做到根据具体需求,精准提供所需服务。过去,基于用户对于网络虚拟化方面的需求,已帮助用户开发了VXLAN & EVPN,能够将云中的虚拟网络从服务器中卸载出来,直接运行在硬件网络上,方便用户管理和使用;为帮助用户更高效解决网络延迟和阻塞等问题,还增强了QoS特性。

应用定制开发:星融元的AsterNOS可以作为承载开发应用的平台,用户能够在AsterNOS之上进行快速定制开发,从而做到网络对需求的响应时间从数月缩短至数天,大幅提升应用开发的综合竞争力;星融元依靠于自身强大的开发能力,也可以为用户直接提供应用定制开发服务,帮助用户快速解决问题。

4、高质量服务

星融元以客户需求为导向,为用户提供完整和丰富多样的AsterNOS使用文档,既包括产品使用和操作层面上的指导文档,也包括针对不同用户在特定场景下需要组合不同功能模块的配置手册,从而帮助用户更方便、快捷地进行操作和使用。

同时,星融元可以提供线下培训,面对面实操指导。此外,对于那些在社区还未找到答案的技术和研发难题,星融元同样可以及时帮忙解决。通过开放的技术探索环境,星融元在帮助用户解决问题的同时,也实现了自身服务能力的不断完善。
当前,星融元也已经建立了完整的服务平台和流程,集中梳理用户的技术难点和产品需求,通过研究、开发、测试、售前和售后等相关部门评估和解决,合理规划,快速响应。星融元致力于将优质的服务,通过合理高效的方式,回馈给每一个对开放网络感兴趣的用户。
近几年间,拥抱开放网络的公司、用户与日俱增,从数据中心到园区场景、从Underlay网络到Overlay网络、从可编程到低时延到绿色低碳。始于SONiC,持续精耕AsterNOS,星融元正源源不断地为行业输送开放网络的力量,多维度构建全新的云网络模式。开放网络生态正在快速发展和完善,它催动的数字化转型发展,或许远超乎你我的想象。

相关文章

技术揭秘—网络高可靠是怎样炼成的


关键词


关注星融元

SFC2.0智能安全资源池解决方案产生背景:

园区网络的公网出口、内网各区域出口通常会以“串糖葫芦”的方式串接部署各种安全防护设备,防护网络中的各种攻击。一方面,由于串接部署在很大程度上限制了网络出口的性能、增加了单点故障率,另一方面,随着等保2.0正式实施, 对“网络安全”要求提升到新的高度。面对这些新的挑战,星融SFC2.0 智能安全资源池解决方案应运而生,实现了出口安全资源进行了池化和服务化,具备流量按需调度、安全设备弹性扩展和网络高可靠等优点,可根据用户需求进行自动化的服务链编排,对业务流量进行灵活的调度和全面的安全防护。( 详细了解该方案,请点我)

SFC2.0智能安全资源池解决方案部署图

揭秘SFC2.0高可靠技术

SFC控制器可检查安全节点的状态,发现故障将智能地进行异常下线、主备切换和逻辑bypass等,避免网络中断,保证了安全服务能力的持续可用。另外,通过SDN交换机双机部署、安全设备集群部署、安全设备与交换机full-mesh连接等多种机制保障了整个解决方案的可靠性。

1、业务级高可靠-健康检查

健康检查是高可靠的基础,通过健康检查实时发现异常并采取相应措施,才能及时完成业务自动恢复。

针对被检查安全节点的部署模式,健康检查的分为两类:

  1. 安全节点透明模式部署:物理接口的Link状态、LACP协商状态、LLDP协商状态等;
  2. 安全节点在线转发模式部署:ARP、ICMP;(透明模式健康检查同样适用在线转发模式)

透明模式部署的健康检查手段同样适用于在线转发模式部署安全设备。

健康检查模块通过周期性向安全设备发送探测报文检测设备状态。如下图所示,以在线转发模式部署的ARP健康检查方式为例,SDN交换机周期性发送ARP探测报文,能够收到安全设备的应答,则表示该设备运作正常;如果指定次数没有收到安全设备的应答,则表示安全设备运作异常,如下图中WAF设备。

2、设备级高可靠

(1)主备高可靠:

组网结构

在主备模型中,两台SDN交换机主备部署,通过跨主机聚合与出口路由、核心交换互联,承接所有流量。主备模式是通过分配安全节点的权重值实现,默认将所有流量发送到主安全节点,备安全节点standby。激活状态的安全节点可以连接在二虚一系统的任意位置。安全节点支持full-mesh连接,如接口数量紧张,可以只连单台SDN交换机。

异常处理

主备切换:通过ICMP或者链路Link状态等健康检查手段判断安全节点是否正常运作,当主安全节点出现异常时,触发主、备切换,原本引导给主安全节点的流量将自动切换给备安全节点,并生成警告通知。

逻辑Bypass:当同一资源组内所有安全节点均出现异常,逻辑上将Bypass该资源组。有些情况Bypass某资源组后无法保持业务连续性,比如BypassNAT或其他被定义为“必须”资源组的情况,只能保持当前转发路径,并生成警告通知。

(2)双活/集群高可靠:

组网结构

双活/集群组网结构是最为常见的一种部署模式,两台SDN交换机和多台安全设备共同承担业务,同时具有超高的可靠性保障。在这种部署模式下两台SDN交换机双活部署,通过跨主机聚合技术MC-LAG承接所有流量,上行方向与出口路由互联,下行方向与核心交换互联。SDN交换机将流量按照服务链定义,依次负载至安全资源组,安全节点可以部署在两台SDN交换机的任意位置。

集群部署时的负载均衡方式可选,一致性HASH负载均衡方式(对称hash保证非NAT模式会话完整),支持权重分配;策略负载均衡方式(通过策略划分两个路径处理的流量),可以解决NAT前后会话完整性问题。路径中存在NAT节点的情况下,如果链路中的同一安全节点集群无法实现会话通过,那么无法通过HASH负载均衡保证同源同宿,需要通过规则将NAT前后的流量引导给同一个安全节点。

异常处理

SDN交换机将流量依次负载至安全资源组,通过icmp或链路状态检查安全节点的健康状态。

当资源组中一台出现异常时,通过一致性hash仅将异常节点的流量引导给其他成员,原负载至正常节点的流量并不受影响,最大限度保证了业务的连续性,减轻安全节点的工作负担。

一致性hash的工作原理:一致性 hash是hash负载均衡的一种,不同的是仅对异常安全节点的流量进行hash负载,正常节点的流量保持不变)。如图6:输入流量序号为1-7;出现异常前流量编号1、3、4负载给FW1,流量编号2、7负载FW2,流量编号5、6负载给FW3;出现异常后,流量编号2、5、6、7的出接口保持不变,仅将流量编号1、3、4负载给正常的安全节点FW2和FW3,最大限度保证会话完整,减小因重建会话导致的业务震荡。

当资源组中的所有节点出现异常时,通过逻辑bypass跳过该安全资源组。对于某些无法跳过的情形,如图7中的NAT节点跳过以后仍然无法恢复网络,可选保持原流量路径不变,业务中断同时会发出告警信息。

结语

SFC2.0智能安全资源池解决方案,通过以上多种机制保障了网络的高可靠,增强了整套安全防护系统的可靠性,解决了客户必须晚上上线新方案、设备上下线维护等的烦恼。目前在高校、医疗、金融等行业已经积累了广泛的成功案例,切实解决了客户的痛点,帮助用户告别了臃肿、难以扩展、难以运维、不堪重负的网络安全架构。

相关文章

对星融元产品感兴趣?

立即联系!

返回顶部

© 星融元数据技术(苏州)有限公司 苏ICP备17070048号-2