开放网络的先行者与推动者—星融元
加入我们技术支持(Support)  TEL:(+86)4000989811

标签: 产品特性价值

这款国产高性能DPU智能网卡,即将开源!


关注星融元


云数据中心的优化方向:从传统网卡升级到DPU架构的智能网卡

我们知道,各类智能网卡在服务器集群中的大规模部署,可以进一步降低数据中心建设和运营成本,更好地将服务器资源货币化。但仅从网卡层面来看,这个方案还存在不少优化空间。

  • OVS卸载不完全。传统的智能网卡仅负责OVS转发面卸载,但控制面仍是主机CPU处理,所以需要去定义Host CPU的控制面和卸载到网卡上的数据面业务之间的传输接口和协议,实现起来比较复杂,定位问题困难;
  • 虚拟网络功能卸载到网卡的难度大,很多网络功能(例如vLB,vNAT等)仍然在服务器上运行;
  • 无法实现存储加速和扩展,造成了服务器的性能瓶颈;
  • 部分传统网卡根本不具备编程能力,或者对芯片的编程难度大且生态缺失,开发门槛高,难以满足多样且多变的云业务需求。

全开放架构的DPU的智能网卡——星融元 Helium 系列

 Helium EC2004YHelium EC2002P
网络接口4 x 25GE SFP282 x 100GE SFP28
主机接口PCIe x 8 Gen4.0PCIe x 16 Gen4.0
管理口1 x Console Micro USB, 1 x GE RJ451 x Console Micro USB, 1 x GE RJ45

大Server中的小”Server”,帮助卸载服务器CPU负载

Helium 系列智能网卡采用DPU架构,集成了24核ARM和多样化的硬件加速协处理器,性能足够高,可以直接在网卡上运行各种网络功能虚拟化功能,释放宝贵的服务器资源。

Helium的典型业务性能数据参考:

  • 纯转发:100Gbps线速转发(128字节包)
  • OVS卸载性能:80Gbps
  • 5G UPF性能:80Gbps
  • IPsec性能:50Gbps

大Server中的小"Server",帮助卸载服务器CPU负载

高度开源的软件架构, 打造开放兼容、自主可控的生态系统

在通用的高性能硬件平台之上,星融元还提供了一套开放的软件开发环境——标准Linux内核+容器化架构,以及额外的DPDK/VPP开发套件(包含了最佳网络和安全处理所需的所有库和 API)。客户可以不考虑底层支撑框架直接开发上层应用;原先跑在x86上的DPDK应用和其他应用仅需简单编译便可移植到Helium DPU智能网卡上,并且按需组合使用。

标准Linux内核+容器化架构,以及额外的DPDK/VPP开发套件

支持存储加速和远端云盘挂载,满足服务器灵活扩展存储的需求

支持SPDK软件加速、NVMe-oF(TCP)卸载,可缩短存储I/O路径、提高存储读写性能

大幅降低数据中心整体建设和运营成本

以某客户场景为例。在保证总接入用户数量的前提下,引入Helium智能网卡的建设方案相对于纯2U服务器的建设方案在机架空间占用、总功耗、成本上都具有明显优势。其中机架空间节省超过2/3,总功耗节省超过1/2,建设成本节省8万,同时机架平均每U接入的用户数有3倍以上的提升。

Helium DPU智能网卡上的应用性能表现

1、Open vSwitch(OVS)的全卸载

Helium智能网卡采用高性能DPU芯片,具备独立的CPU和内存,可轻松实现百万级流表以及OVS控制面和转发面的全卸载,无缝融入虚拟网络。

包长(字节)流量数最大性能(Gbps)
6410K7
12810K14
25610K19
51210K21
51264K20
5122M18
102410K25

2、硬件加速的网络功能虚拟化(NFV)卸载,性能远超x86服务器软件模拟

通过以下数据可以发现,在提供了更低转发时延和更高流新建会话数的情况下,Helium DPU智能网卡的功耗仅为服务器的1/6,购买成本节省超过1/3。

Helium DPU智能网卡与当前市面上的智能网卡对比

对比FPGA架构智能网卡

 FPGA架构智能网卡Helium DPU 智能网卡
开发难度开发难度较高,需厂商高度支持标准Linux+容器化架构,额外的DPDK软件开发套件,易开发易移植
处理性能集成了多核CPU,但核数有限(最高规格为16核,一般厂家平均为4或者8核),无法承载复杂的控制面功能24核ARM处理器,多种硬件协处理器加速,可支持复杂的控制面业务卸载
采购成本FPGA架构核心器件的成本普遍较高,尤其是支持大容量内存的产品内存可以扩展至64G,千万级会话表,性价比高
功耗对比同规格的产品,功耗偏高同规格的产品,功耗偏低

对比其他SoC架构的智能网卡

  • 采用DPU架构的Helium智能网卡相比于普通的SoC架构网卡集成度更高,性能更强
  • 更多的ARM核、更高的内存,支持复杂的控制面业务卸载以及千万级会话表项
  • 更开放的生态,提供DPDK、VPP开发套件,标准的Linux操作系统,容器虚拟化环境,契合用户自定义的业务需求,覆盖更宽泛的应用场景。

当前,我们在Helium DPU 智能网卡上已经完成了多种场景的功能验证,包括OVS、NVMe-oF(TCP)、LVS、5G UPF、SSL卸载等,保证了高质量、高可靠、高性能的用户体验。

5G UPF卸载

SSL卸载

卸载OVS同时集成第三方应用

关于Helium DPU智能网卡的开源工作

秉承开源开放的理念,星融元现已将Helium DPU智能网卡的产品资料和相关代码开放给生态内广大客户和合作伙伴,期待与您一同探索更多开放网络的应用场景。

开源地址:https://github.com/asterfusion/Helium_DPU

相关文章

 

开源DPU如何加速数据中心网络/安全/存储应用?


关注星融元


数据中心场景下,是什么在侵占服务器的业务算力?

后摩尔定律时代,数据中心服务器算力的增长跟不上带宽的增长,原本用来处理业务的算力被大量浪费在处理网络数据和基础设施业务上(OVS、NFV),通过CPU软件模拟的方式性能已经无法满足需求,服务器性能已经达到瓶颈,市面上不少客户可能会考虑两个选择:

  1. 增加服务器数量;
  2. 为服务器增加一块智能网卡,用于网络业务卸载。显而易见,增加服务器数量需要消耗的成本远大于购买智能网卡需要的成本。

DPU智能网卡实现CPU负载卸载

传统的智能网卡上,首包的处理在CPU上,流表下发到网卡芯片里依旧占用了CPU的资源,并且需要为卸载的业务定义接口和相关的协议,实现起来比较复杂,定位问题难。

而DPU架构的智能网卡上,可以实现全卸载,相互之间没有太多业务接口,定位问题清晰。相当于有专门的计算资源来处理智能网卡相关的控制面,可实现控制面+转发面的全卸载,并且对比FPGA或SoC架构的网卡,DPU的处理性能处于绝对优势。

以云网关接入为例。在保证总接入用户数量的前提下,引入DPU架构智能网卡的建设方案相对于纯2U服务器的建设方案在机架空间占用、总功耗、成本上都具有明显优势。其中机架空间节省超过2/3,总功耗节省超过1/2,建设成本节省8W,同时机架平均每U接入的用户数有3倍以上的提升。

云网接入的数据表

DPU架构的智能网卡——星融元Helium DPU智能网卡现已开源!

Helium DPU 智能网卡的特色

  • 开源开放的生态:通用处理器 + 标准的Linux系统(可适配多版本),并且还提供了全开源的软件开发环境,可以轻松搭载任何基于Linux的自研应用,高度灵活、自主可控
  • 性能&功耗:对比其它网卡厂家采用FPGA或SoC架构的产品,Helium智能网卡采用集成度更高的DPU架构,做OVS或NFV的处理性能处于绝对优势;另外同等性能或更高性能下,Helium智能网卡的功耗更低;
  • 大量的应用场景验证:包括OVS卸载(控制面数据面全卸载)、5G UPF(信令面用户面全卸载)、DPVS卸载、SSL加解密卸载等场景

Helium DPU 智能网卡硬件架构

  • 高性能DPU芯片:24个ARMv8.2核、众多硬件加速协处理器
  • 业务接口:4 x 25GE、2 x 100GE
  • 高速连接:PCIe Gen3.0/4.0 x 16
  • 内存:16GB,可扩展至64GB
  • 存储:64GB EMMC 5.1

Helium DPU 智能网卡的一站式软件开发环境

  • 标准Linux底层基座操作系统(可以定制更换,包括Linux、CentOS、Ubuntu、Debian、中标麒麟等)
  • 标准容器虚拟化环境
  • 开放的库和API(DPDK套件(19.11、20.11、21.11)、VPP、其它网络和安全开发工具)

Helium DPU 智能网卡典型业务性能数据参考

  • 纯转发:128字节数据包100Gbps线速转发
  • OVS卸载性能:80Gbps
  • 5G UPF性能:80Gbps
  • IPsec性能:50Gbps

开源地址:GitHub – asterfusion/Helium_DPU: Helium DPU

实例1:Open vSwitch(OVS)卸载到Helium DPU 智能网卡,同时集成第三方应用

Open vSwitch(OVS)卸载到Helium DPU 智能网卡

  • 可以在网卡上安装各种容器应用功能
  • 同时打通各容器之间、以及容器与VM之间的数据通道

实例2:Helium DPU 智能网卡卸载SSL加解密引擎

Helium DPU 智能网卡卸载SSL加解密引擎

  • 内置硬件加解密引擎
  • SSL加解密:29K TPS;10~20Gbps

实例3:Helium DPU 智能网卡卸载eBPF

Helium DPU 智能网卡卸载eBPF

  • eBPF功能卸载至智能网卡,智能网卡上携带的ARM处理器单独实现一个后端,将中间的eBPF字节码编译成ARM处理器体系结构的指令码,载入网卡RAM(智能网卡包含DRAM,因此MAP也可以被卸载),智能网卡从网卡RAM里载入eBPF程序并运行
  • eBPF处理以后的数据报文以及元数据和统计信息返回给主机应用

实例4:Helium DPU 智能网卡完全卸载5G UPF

Helium DPU 智能网卡完全卸载5G UPF

  • UPF全部功能(信令面和用户面)卸载至智能网卡,与MEC Host无缝融合
  • UPF与MEC逻辑隔离,互不影响,MEC无需重新架构即可获得高性能

相关文章

 

开源的DPU “Helium”,给性能不足的服务器安上“外挂”!


关注星融元


数据中心为什么需要智能网卡?

CPU的算力发展跟不上算力需求,所以人们考虑可以将一部分原本CPU承载的功能卸载到其他专用硬件上去处理(比如网卡),从而释放CPU算力,让其专注于处理关键的(创造经济效益的)用户业务。

但这反过来对于用来卸载CPU的硬件提出了更高要求——不仅仅需要收发流量等转发面的功能了,我们还需要网卡承担起更多元化的功能,把传统网卡转变为“智能网卡”。

传统网卡与智能网卡对比图

智能网卡在数据中心的应用广泛于网络加速、存储加速和安全加速

  • 网络加速:如OVS卸载/VXLAN终结、TCP卸载、GRE/GTP等隧道封装/解封装、可靠UDP、5G UPF加速等;
  • 安全加速:如IPSec、SSL、XDP/eBPF、vFW/vLB/vNAT、DPI、DDoS、压缩/解压缩等;
  • 存储加速:如RDMA卸载、NVMe-oF等。

DPU智能网卡加速后示意图

将智能网卡升级成DPU架构后有什么提升?

传统的智能网卡上,首包的处理在CPU上,流表下发到网卡芯片里依旧占用了CPU的资源,并且需要为卸载的业务定义接口和相关的协议,实现起来比较复杂,定位问题难。而在DPU架构的智能网卡上,可以实现全卸载,相互之间没有太多业务接口,定位问题清晰。相当于有专门的计算资源来处理智能网卡相关的控制面,可实现控制面+转发面的全卸载。

对比市面其他架构的智能网卡

ASIC架构FPGA架构SoC(多核 + ASIC)
性价比高低延时
低功耗
高灵活性
控制面、转发面同时卸载
可编程性差
开发周期长
可编程,但开发复制性高
开源生态不完善
价格高
功耗较高

DPU的架构是把多核处理器+ASIC做到一个芯片上(SoC 是把他们集成到板上,虽然DPU集成度更高但本质上架构类似))

  • 采用通用CPU,易于编程和移植
  • 容器化的部署环境,需要卸载的不同功能放在不同的容器里,就像一个小服务器,可以同时实现多种功能

开源的DPU智能网卡——星融元 Helium DPU智能网卡

当前,秉承着开放网络的理念,星融元已将Helium智能网卡的产品资料和代码开源,诚邀各位合作伙伴共同打造智能网卡行业生态!

Helium智能网卡采用高性能DPU架构设计,提供全开放的软件开发环境,可针对云数据中心、HPC、边缘计算等场景中客户原本跑在x86服务器上的的虚拟网络和虚拟网络功能进行卸载和加速处理,为客户提供更高性能体验的同时降低总体拥有成本。

高性能DPU架构设计图

以NFV(如vFW)为例,对比x86服务器:

通过以下数据可以发现,在提供了更低转发时延和更高流新建会话数的情况下,Helium智能网卡的功耗仅为服务器的1/6,购买成本节省超过1/3。

 处理性能转发时延流心间会话数功耗
2U机架式服务器
2 x Intel Xeon Gold 5118
24核
60G200μs12W350W
Helium 智能网卡
24核
60G100μs15W60W

以云网关接入为例:

在保证总接入用户数量的前提下,引入Helium智能网卡的建设方案相对于纯2U服务器的建设方案在机架空间占用、总功耗、成本上都具有明显优势。其中机架空间节省超过2/3,总功耗节省超过1/2,建设成本节省8W,同时机架平均每U接入的用户数有3倍以上的提升。

接入环境设备配置机架空间总功耗平均每U接入用户注释
1.44Tbps
流量接入
24 x 2U服务器48U,2个42U标准机柜8400W6000单2U服务器典型功耗按350W计算;
单4U服务器典型功耗按500W计算;
Helium智能网卡典型功耗为60W;
单流量牵引交换机典型功耗为430W;
各产品购入成本均取该规格对应的市场均价;
3 x 4U服务器
24 x Helium 智能网卡
1 x 流量牵引交换机
14U,1个42U标准机柜3390W20671

产品特性

  • 4*SFP28接口或2*QSFP28接口,100Gbps典型混合业务处理能力
  • 高性能DPU芯片,24核ARM处理器,集成加解密、压缩解压缩、虚拟化、数据包处理、流量整形协处理引擎
  • 主机侧提供DPDK和VPP开发套件;网卡侧运行标准Linux + 容器虚拟化环境,并提供DPDK和VPP开发套件
  • 大容量状态表和ACL表,最大64GB内存配置,支持千万级会话表
  • 提供PCIe*16 Gen3.0/Gen4.0,支持PCIe在线升级
  • 独立的管理网口

应用场景

  • 网络加速:OVS卸载/VXLAN终结、TCP卸载、GRE/GTP隧道封装/解封装、可靠UDP、5G UPF等
  • 存储加速:NVMe-oF(TCP)、压缩/解压缩等
  • 安全加速:IPSec、SSL、XDP/eBPF、vFW/vLB/vNAT、DPI、DDoS防御等
  • 客户自研场景下个性化应用的开发和移植

相关文章

 

技术分享-P4可编程平台+DPU的负载均衡实现思路


关注星融元


在选择硬件还是软件负载均衡方案时,务必根据实际的场景去考量。我们总结衡量负载均衡性能的关键指标,主要有以下几条:会话表项容量、新建并发处理数量、转发性能。

硬件负载均衡的优势:高性能,功能全面,打包提供安全功能

在定制处理器上运行的独立负载均衡服务器。硬件负载均衡一般都支持全局负载均衡并提供全面的、复杂的负载均衡算法,功能强大;并且基于专用的处理器,吞吐量也能做到很高,可以支持单机百万以上的并发。此外硬件负载均衡往往具备防火墙、防DDOS等安全功能。

硬件负载均衡的问题:昂贵、灵活性差、扩展性差、无法被云平台统一管控

支持硬件负载均衡的专用设备是一个封闭的盒子,当需要进行动态扩容/网络改造时会非常不灵活。举个例子,目前有很多上云的业务希望用云管平台统一管理起来。但是如果是用封闭的硬件负载均衡方案,就无法做到灵活的统一管控。另一个更为实际的因素,价格。专用硬件负载均衡设备价格昂贵,大多数用户负担不起。以F5 的设备为例,一台比较低端的设备在市场价格可达到 30 万左右,如果还需要进行高可靠部署,成本就是翻倍的。

IB交换设备图

软件负载均衡的优势:可在标准硬件上运行,低成本,良好的扩展性

软件负载均衡的问题:性能差、部分情况配置复杂、部署在服务器上大量消耗了服务器性能

显而易见,性能上达不到专用硬件的性能。在做这种软件负载均衡的情况下需要考虑各种各样的接口,业务的配置,这会是非常复杂的情况。并且所有基于软件的负载均衡实现方式都需要部署在我们服务器上,也就意味着消耗服务器 CPU 的性能,造成了我们各种各样的一个厂商成本上升。

基于P4+ DPU可编程平台的的负载均衡实现思路

1、P4+DPU的可编程开放硬件平台(需配合用户自研负载均衡软件)

  • 可提供千万级的会话表项和百万级的高并发
  • 相比专用的负载均衡设备,在设备成本上有非常大的缩减
  • 管理平面、控制平面和数据平面全部可与CloudOS对接

P4+DPU的可编程开放硬件平台

P4+DPU的可编程开放硬件平台的转发过程

负载均衡实现概要

有一个新请求过来,设备首先会去查表,如果命中就直接走硬件的快速转发;如果没有命中就会把请求上送到智能业务处理卡(GHC卡),由其进行转发。与此同时它还会把相关信息发送给CPUCPU会生成详细的会话表项,并把表项的摘要下发到交换芯片中,交换芯片在数据流下次进来的时候直接转发,从而实现智能快速转发和慢速转发的结合。

在实际的负载均衡场景中,往往存在着非常定制化的开发需求。X-T系列硬件平台可提供一款针对开放、可编程网络构建的底层操作系统(AsterNOS-Framework,它作为一站式的综合开发环境,以轻量化的SONiC为内核,将三种异构硬件单元(x86/ARM/P4 Switch ASIC)融合成一个完整的网络系统,可为开发者大大缩短开发周期。

相关链接:https://asterfusion.com/product/x3-t/

2、Helium DPU网卡(Server in Server,卸载服务器上的软件负载均衡)

  • 高性能DPU芯片,多核ARM64、集成多个硬件加速协处理器,拥有百G级的网络连接能力
  • 智能网卡的外挂扩展内存可解决四七层负载均衡对会话表容量的要求
  • 卸载OVS+负载均衡释放服务器集群性能,降低服务器集群压力

卸载服务器上的软件负载均衡

除了标准的Linux以外,Helium DPU网卡还可提供底层基座操作系统FusionNOS-Framework和DPDK开发套件,客户可以此为基础,直接开发上层应用程序。基于x86开发的各种DPDK应用、VPP应用和一般Linux驱动应用,仅需要简单编译就可以迅速移植到Helium DPU网卡上。

提供底层基座操作系统FusionNOS-Framework和DPDK开发套件

各种DPDK应用、VPP应用,仅需简单编译就可以迅速移植到Helium DPU网卡

相关链接:https://asterfusion.com/product/helium_dpu/

相关文章

 

低时延特性媲美Infiniband交换机,星融元发布200GE和400GE新款型


关注星融元


CX-N系列是星融元自主开发的超低时延以太网云交换机,可为云数据中心的高性能计算(HPC)集群、AI大数据分析、高频交易、Cloud OS融合等多种业务提供高性能的网络服务,亦可部署于云化园区网络、运营商网络等多种场景。

超低时延以太网云交换机

  • Port to Port 时延最低可达400ns
  • 搭载功能完备的企业级SONiC发行版 – AsterNOS
  • 支持RoCEv2协议以及各项网络拥塞控制技术,提升
  • 带宽利用率并减少网络传输的延迟、抖动,帮助构建高性价比的无损以太网
  • 全盒式设备,组网灵活易扩展
  • 支持零配置部署和上线,简化运维工作量,降低整体运营成本

星融元硬件与网络操作系统的架构优势

新增200GE/400GE款型

充分满足下一代数据中心高带宽需求

超低时延交换机新增机型及规格

  • 采用业界主流的最新一代低时延可编程芯片,对芯片进行重编程优化
  • 新算法重构上层软件协议,在控制面保持低时延特性
  • 单个盒式交换机提供更多的200GE/400GE接口速率,承担更大的业务吞吐量
  • 精简网络中的交换机数量,降低整体功耗,可将更多资源用于计算和存储业务
  • 促进网络扁平化,TOR交换机之上的跳数更少,延迟更小
  • 配合星融元带内网络遥测(Inband Network Telemetry)方案,实时、精准监测网络运行状态,保障网络稳定运行

性能媲美IB的平价替代之选

真实场景测试:超低时延以太网交换机 VS. Infiniband交换机

以下是在分布式存储网络场景下的对比测试,参与测试的设备同为32x100G规格。对比各项测试结果,我们可以明显看到:星融元的CX532P-N的整体性能优于Mellanox的SB7700,时延更低。

测试结论

在本次存储场景测试中,CX532P-N交换机各项特性可超越Infiniband交换机(SB7700),而作为通用以太网硬件的CX-N系列,成本仅为专用设备的50%左右。

相比建设高性能计算或存储专网,采用CX-N系列构建多网合一的融合增强型以太网可大大降低运维难度和成本投入。

存储场景测试测试结果

测试环境-硬件

存储场景测试环境-硬件

测试环境-软件工具

存储场景测试环境-软件工具

相关文章

 

积极响应客户反馈,SONiC交换机全面支持思科风格命令行


关注星融元


今天,我们不谈产品也不谈方案,想先给大伙分享一个客户「不成功案例」 。

配图

来简单说说背景吧。正如诸位所见,近些年越来越多的新锐科技企业都开始有了业务上云的需求。云成为了支撑业务运转的生产力工具,云上的数据更是企业的宝贵的核心资产。

出于多方面因素,不少公司放弃了公有云方案,考虑构建一个弹性扩展、自主可控的私有云。但这无疑向云基础设施提出了严苛要求。例如云网络,就得具备低时延,高可靠、易扩展等特性才能轻松承载大批量的AI分析业务等等……当然,还需兼顾到自主建云的性价比。


D公司是国内一家创新文化浓厚的互联网科技企业,在业务上云的需求驱动下他们决定“取法乎上”——跳过所谓的”传统网络转型阶段”,直接对标海内外的云计算大厂,通过采用早已在头部大云中规模部署的SONiC方案,将开放开源的网络技术快速应用到自己的数据中心。
于是,专精于此的星融元很自然地进入到D公司的视野当中。

取得联系后,星融元的CX系列产品顺利部署到客户现场,并且最终的测试结果也十分喜人:CX系列交换机完全可以满足客户理想中的云网络需求!

不料,客户在最后关头犹豫了!
然后给星融元发了一张“好人卡”。
“你们的产品真的很好,但……”

D公司后来也解释了他们的顾虑:原生SONiC的命令行是Linux/Python风格的,而公司内部运维团队的技术能力都是建立在Cisco风格命令行基础之上。这一来所产生的学习成本,让他们不得不重新思索开放网络这件事。

寥寥几句,却引发了星融元产品和研发团队的深刻反思。
做一款最好用的企业级SONiC发行版一直是我们的使命和目标。这些年来,我们一直领先社区为AsterNOS开发了丰富的软件特性,适配了几乎所有主流商用交换芯片,并为网络自动化提供了全量的操作编程API,让AsterNOS变得更为强大、稳定……但相较而言,对于SONiC NOS在人机交互层面存在的巨大提升空间,的确显得重视不足。

意外的挫败令人无比遗憾,但也将市场的真实需求摆到了我们跟前:D公司运维团队现状绝非个例,当前IT基础设施建设转型变革的道路上,多的是这般 「心向往之而身不可至 」的尴尬。让更多的网络工程师轻松地把SONiC用起来,是推动开放网络从概念阶段走向方案落地当中不可或缺的一环。

于是星融元快速启动了针对AsterNOS命令行风格的开发工作。

KLISH(Kommand Line Interface SHell) 是一个在 Unix 系统上实现 Cisco 方式的命令行接口框架。基于SONiC开放解耦的灵活架构,开源的 Klish 已被集成到sonic-mgmt-framework 容器中作为命令行界面工具,通过AsterNOS所提供的API,我们可以很快地完成这项工作并适配到不同硬件平台。

KLISH是一个在Unix系统上实现Cisco方式的命令行接口框架

话说回来,这正是星融元开放网络技术的价值所在:当现有功能满足不了需求时,基于AsterNOS的API,我们能以传统时代下难以想象的效率,为客户开发出新的APP来解决他们的问题。Cisco风格命令行仅仅是APP之一。

不过这可能也是让公司里“某老年工程师”最失落,也最兴奋的事。

早年间,他带着几十个工程师为华为VRP1.0进行命令行设计实现和改造,还定义出过华为VRP第一个特性路标规划。但现在作为App进行开发的Klish命令行居然不需要那么多人去改造整个OS,更没有机会把一个个类似的独立需求放进路标规划里……甚至客户完全就可以自己动手写新App来解决问题——AsterNOS能让Python/Golang程序员在容器里开发一个新应用来增强和扩展交换机,就像写个Android App一样简单、快速。

AsterNOS已经可以同时支持两种命令行模式(Cisco风格/Klish)。

如今,版本更新后的AsterNOS已经可以同时支持两种命令行模式:标准的Linux Bash和传统商用交换机风格(Cisco风格/Klish)。

基于SONiC的AsterNOS在操作上变得更符合传统网络工程师的使用习惯。我们的工程师只需登录交换机敲上两行代码,便可进入到Klish界面快速开始工作(文末有录屏演示👇)。

无论是园区还是云数据中心,只要是在星融元的交换机上,广大网络工程师都可以继续用他们早已熟稔于心的操作完成部署,为客户大大降低了因软件平台切换而导致的效率损耗。目前,AsterNOS对Cisco风格命令行的支持已经覆盖了90%以上的常用功能,而且该项工作还在不断推进。今后星融元所有交换机都将优先支持Cisco风格。


将一次错失客户的遗憾转变为积极响应市场需求的动力,并实现了产品快速升级迭代。这一切的背后是星融元在开放网络领域多年技术积累所带来的满满信心,以及围绕客户需求长期投入的不变决心。

附录:

AsterNOS对Klish命令行的支持情况
(部分展示,持续更新中)

仅需两步!在SONiC交换机上使用Cisco风格命令行

SONiC交换机上使用Cisco风格命令行

1 admin@sonic:~$ sudo config cli-mode cli
2 admin@sonic:~$ sudo sonic-cli
3 sonic# configure terminal

切换回Bash模式?Just Exit !

退出界面视图,回到标准Linux Bash模式

退出界面视图,回到标准Linux Bash模式(部分命令可支持混配,详情请询售前)

1 sonic# exit

相关文章

 

新品抢先看!星融元将SONiC引入云化园区网络


关注星融元


传统的园区网络架构方案下,网络中不同层级承担不同的网络功能,且都需要运维人员来进行接入和控制。随着园区内企业规模不断扩大、用户数目增多,网络规模和功能随之激增,最终导致了网络部署和管理难度越来越大。
– 手机、PC、IoT、安防需求各不相同;移动办公、虚拟团队、智慧园区要求更复杂
– 终端数量、带宽及其交互不断增多,东西向流量的持续增长迫使网络连接能力不断扩容
– 蠕虫、木马,黑客攻击等系统风险每天都在发生,需要新增各种安全防护能力
网络扩容、新业务开通、定位广播风暴、增加访问策略、解决WiFI掉线….广大园区网络工程师们每天都在为这些大事小事操碎了心。


以上种种问题,究其根源是传统层级化的网络架构已经跟不上复杂多变的业务需求。传统园区网亟待升级,新一代的云化园区需要更加精简高效的网络支撑。

众所周知,搭载着SONiC的交换机已在谷歌、微软、亚马逊云等全球最先进的数据中心广泛应用,以SONiC和SAI代表的开放网络技术正在为IT行业带来巨大变革。
星融元是全球第一家把SONiC跑在园区接入层的开放网络解决方案供应商。
在绝大多数人的固有认知里,接入交换机往往意味着“低端型号”、“纯二层交换机”,或者…能通就行。而星融元却“一反常规”,给定位于园区接入/汇聚层的产品搭载了全功能的企业级SONiC发行版——AsterNOS
AsterNOS继承了开源Linux内核的内生安全和SONiC开放架构带来的扩展性,兼具商业版本的稳定性和易用性。凭借AsterNOS所提供的强大软件功能,仅搭配三、五款硬件便足以搭建起从接入层到核心层的完整网络架构,实现从中小企业办公室到跨楼栋的大型园区场景全覆盖。
这背后自然是有一套解决方案可以聊聊的,但今天先卖个关子,让我们重点关注一下星融元今年新推出的这款CX-M系列园区交换机本身。

软件能力:全功能的SONiC

完备的二、三层网络功能

支持多种IP路由协议,构建园区高弹性的IP Fabric

CX-M系列支持静态路由和OSPFv2/v3、BGP4/4+、ISIS等多种动态路由协议,满足IP网络的基本互联互通;此外还可支持更加灵活的策略路由,以及ECMP(等价多路径路由)以增加园区网络中路由可靠性,提高实际可用的传输带宽。

提供网络虚拟化功能,满足云化园区多租户使用场景

随着园区网络承载的业务越来越多,规模越来越大,根据职能部门的业务需求独立建设专网的思路已不再适用。当前网络虚拟化技术在云中的应用已经相当成熟,为云带来的便利在园区同样适用——通过VXLAN/EVPN 对园区物理网络做资源抽象,我们可以在CX-M系列组建的一张物理网络上创建多个虚拟专网,应用于不同的业务,例如办公、研发、IoT等等……实现一网多用和灵活部署,此外还可通过设备所提供的API对接管理平台,实现跨楼栋和区域的统一自动化运维管理。

园区全网无缝漫游和业务随行

CX-M支持ARP to Host技术,当终端设备通过无线AP连接到园区网络时,对应接入层的CX-M交换机会将其转为32位主机路由上线。当设备发生网络漫游,切换到了新的AP,CX-M又会借助分布式的算法在全网更新路由和其他安全认证信息,使原本的业务流得以快速转到正确路径。
漫游全程,终端的IP地址和安全策略都保持不变,网络切换无感知,原有业务不中断。这意味着,哪怕是在手机视频会议中跨楼层移动办公,您都不会感觉到任何卡顿。

为语音、视频、上网等数据流提供差异化服务,带来流畅互联体验

在办公地点分布广、人员分散的大型园区网络中,语音业务数据流对传输质量的要求高于普通的上网数据流。CX-M系列支持Voice VLAN功能,以MAC地址和VLAN ID两种方式识别语音业务数据流,并提高其传输优先级,保障语音业务服务质量。此外,CX-M也同样支持优先级映射、流量监管、流量整形、队列调度等QoS策略,在有限带宽的情况下为园区内的关键业务提供端到端的服务质量保证。

丰富实用的园区安全特性

  • 支持DHCP/ND Snooping,可抵御仿冒DHCP服务器、网关以及合法用户的各种网络攻击
  • 多种园区认证方式(802.1x 认证/MAB)配合IP源防护(IPSG)、动态ARP检测等技术,多重关卡防范外部非法接入
  • 值得一提的是,采用CX-M可构建一个全三层的园区网,每个接口就是一个广播域,终端之间二层隔离,因二层广播机制而产生的安全风险都将不复存在

硬件设计:全面贴合园区场景

CX-M系列园区交换机全系共11个款型,面向园区网络真实部署场景设计,并且全系采用开放解耦的通用硬件,成本和供货期更加可控。

  1. 搭载数据中心级的可编程交换芯片,为不断扩张的园区网络提供灵活的大表项空间;使用交换芯片内置处理器作为管理CPU,一定程度上可为客户降低组网成本
  2. 考虑到未来园区发展趋势,CX-M提供25G/100G的上行接口,天然适应WiFi 6时代带来的高带宽流量;24口/48口的高密度下行接入,有助于简化网络部署复杂度
  3. 绿色节能的元器件选型配合智能的端口/风扇节能机制,CX-M系列整机满负载情况下功耗最低仅63W

特殊款型举例:

园区交换机特殊款型展示图

部署价值:全三层组网,CX-M系列切实为您降本增效

传统组网与星融元云化园区交换机组网对比图

相关文章

 

为什么都叫智能网卡,Helium却牛X得很?


关注星融元


伴随着云和虚拟化技术在数据中心乃至整个通信领域的快速发展,在x86上基于Kernel架构实现的OVS(Open vSwitch)和各种虚拟化网络功能,转发性能无法保证,且需要耗费大量的计算资源。

传统网卡:在x86上基于Kernel架构实现的OVS和各种虚拟化网络功能

后来,DPDK出现了,性能有了大幅提升,但处理过程仍依赖于未针对数据传输进行优化的服务器和标准网卡,仍然存在性能瓶颈和占用计算资源的问题。

传统网卡:DPDK的出现,性能有了大幅提升
那么,应用功能需求与软件实现上的矛盾,如何解决呢?于是乎,基于硬件实现的智能网卡现身江湖了。

基于硬件实现的智能网卡,解决应用功能需求与软件实现上的矛盾

智能网卡应用非常广泛,从网络加速、存储加速到安全加速。

  • 网络加速如OVS卸载/VXLAN终结、TCP卸载、GRE/GTP等隧道封装/解封装、可靠UDP、5G UPF加速等;
  • 安全加速如IPSec、SSL、XDP/eBPF、vFW/vLB/vNAT、DPI、DDoS、压缩/解压缩等;
  • 存储加速如RDMA卸载、NVMe-oF等。

Helium横空出世

通用的高性能硬件平台

Helium是Asterfusion自主研发的基于高性能SoC芯片(24核ARM集成各类硬件加速协处理器)的25GE以太网智能网卡,可以提供高达100Gbps典型混合业务处理能力,助力客户构建高性能、智能化、可编程的业务网络,充分释放宝贵的计算资源,节约建设成本。

星融元Helium DPU智能网卡 全开放的软件架构

全开放的软件架构—-大x86 Server中的小“ARM Server”

云时代的大背景下,对于整个 IT架构虚拟化的需求越来越高,对于网络功能的要求也越来越多,这就要求网络架构更加开放。

基于Asterfusion全开放的软件架构,可以为客户打造一个开放、兼容的网络生态系统,客户原来跑在x86服务器上的各种DPDK应用和普通应用仅需要简单编译一下就可以迅速移植到Helium智能网卡上,客户可以依据自己网络的实际功能需求,灵活进行功能组合,以满足不同环境下的部署需要,就好像人们根据自己的喜好在手机上安装各种APP一样的方便快捷。

可以依据自己网络的实际功能需求,灵活进行功能组合

软硬一体的一站式综合开发环境

Asterfusion为客户提供了软硬一体的一站式综合开发环境,除了通用的高性能硬件平台外,还提供了底层基座操作系统FusionNOS-Framework,客户可以不用考虑底层支撑框架,直接开发上层应用程序即可,从而可以加速开发和移植进度,满足快速演进的市场需求。

软硬一体的一站式综合开发环境

Helium应用实践验证

Helium智能网卡可以广泛应用于网络加速、存储加速、安全加速等领域,Asterfusion基于该智能网卡也进行的丰富的应用场景验证实践,如云网功能卸载(OVS/VXLAN)、5G UPF、SSL卸载、网络可视化等领域。

云网功能卸载加速

Helium智能网卡可以支撑多种云网卸载实现模式,客户可以根据自己的需要进行灵活的选择和部署,最大程度上提高了服务器资源的利用效率,为最终用户业务应用带来切实的性能提升。

云网功能卸载加速

5G UPF

Helium智能网卡支持UPF功能(信令面和用户面)全卸载,实现与MEC Host的无缝融合,UPF功能全卸载,保证了UPF与MEC之间的逻辑隔离,互不影响,UPF不再依赖服务器的通用处理器,不需要考虑VNF与边缘云的兼容性和适配问题,可以有效减少核心网的安全隐患、降低UPF在边缘场景中与MEC共平台部署难度。

Helium智能网卡支持UPF功能(信令面和用户面)全卸载

云网功能卸载同时,集成虚拟化网络功能应用

Helium智能网卡在卸载云网功能的同时,可以基于容器环境加载各种第三方的VNF功能,同时可以为外部网络、虚拟机、VNF容器之间提供灵活的流量调度能力。

云网功能卸载同时,集成虚拟化网络功能应用

Helium特点小结

Helium DPU网卡的特性

  • 高性能:高达100Gbps典型混合业务处理能力
  • 易移植:x86上DPDK应用都能便捷移植
  • 多场景:云网卸载/VNF卸载/UPF/安全/存储等

相关文章

 

星融元SSL/TLS解密:高性能计算模块加持,解密监控得心应手


关注星融元


采用模块化设计,提供可选的SSL解密解决方案(NSA解密模块),从而有效的解决了行业或企业用户在访问HTTPS情况下的网络可视化问题。NF2000系列高级业务处理引擎提供基于硬件的加解密引擎,单引擎可以支持高达29K TPS处理能力以及10~20Gbps的流量解密能力。

为什么需要SSL解密?

SSL/TLS是一个安全通信框架,上面可以承载Http协议或者SMTP/POP3协议等。Https经由Http进行通信,但利用SSL/TLS来加密数据包。当前网络环境下,Https的业务已经得到了越来越广泛的应用。

来自Chrome所统计到的受Https保护的流量

如图所示是来自Chrome所统计到的受Https保护的流量,Https已经成为大势所趋。然而其中隐含的安全问题也日益突出——随着SSL/TLS协议更多地应用在政务信息安全、支付体系加密、企业网站稳定、API接口与APP之间,很多隐藏在Https中的不法行为和安全威胁无法被发现,这使得监管变得更加困难。

业务不可视,埋下安全隐患

某些安全设备可能无法解密和检测SSL/TLS流量,成为企业的安全盲点。导致这些加密流量直接游走在整个网络中,无法被监视到。

以防火墙为例,若客户端与服务器之间使用的是Https,那么任何数据都已经变为加密数据,防火墙上的相关的安全内容的功能可能都不会生效。例如,反病毒功能主要是依靠识别支持的协议,从流量中提取特征在病毒库中进行特征匹配之后,进行相关的安全内容的检查;以及某些IPS生效的原理也与之类似,是靠收集来的巨大的签名特征库去对相关的流量进行审查。所以若数据被SSL层加密,像上述这类安全功能便都形同虚设了。

目前,网络中大约有50%的安全攻击会通过SSL通道进行,很多传统的安全设备都将会面临严重的挑战——只有将这些加密流量解析出来才能让安全设备很好的防御,SSL解密方案的重要性可见一斑。

具体到技术实现的角度上,我们接下来详细看看SSL加密和解密之间的联系。

SSL加密原理

SSL加密原理图

SSL通过握手过程在客户端和服务器之间协商会话参数,并建立会话。会话包含的主要参数有会话ID、双方的证书、加密套件(密钥协商算法、对称加密算法和摘要算法等)以及主密钥(master secret)。通过SSL会话传输的数据,都将采用该会话的预主密钥生成的主密钥和加密套件进行加密、计算MAC等处理。

握手过程如下:

  1. 客户端给服务器端发送协议版本、客户端支持的加密算法、一个随机数。
  2. 服务器端选择加密算法,并向客户端发送一个服务器数字证书和一个随机数。
  3. 客户端使用数字证书中的公钥,将随机数加密发送给服务器。
  4. 服务器使用私钥对随机数解密。
  5. 服务器端和客户端通过事先协商好的加密算法,对这三个随机数进行加密生成“主秘钥“即对称加密的秘钥,用于接下来整个对话过程的加密。

如何针对SSL协商进行解密

对应上述SSL协商过程,解密原理如图所示:

SSL协商过程
SSL协商过程

首先是要提取到对应位置的数据。比方说在图中所述的协商过程中若能提取到客户端随机数、服务器端的随机数、加密的预主密钥的信息,提取到这三个信息后,如果带有服务器的私钥的话,这时候就可以解析出预主密钥了。

有了预主密钥、客户端随机数、服务器端随机数,我们就可以计算出整个通信过程中所用到的主密钥。

有了主密钥之后,我们便可以对整个SSL加密协商过程进行操作。

星融元智能网络可视交换机,内置高性能计算模块支撑SSL解密,实现网络安全流量解密监控

星融元的智能网络可视交换机系列设备,可将内置的高性能计算模块,定义为NSA模块。NSA模块有多种部署模式,可实现对流量的多种负载均衡处理从而给予后端分析工具定制化的流量。NSA在能够获取到服务器端CA证书的情况下,达到可以解密客户端和服务器端的通信过程,完成解密监控的需要。

全流量解密监控示意图

1、灵活的部署模式,满足多种场景需求

提供旁路解密部署方案和串接解密部署方案,支持重建解密后的数据流,满足金融、政务、校园等多种实际应用场景。旁路部署模式下,不会对原有通信过程造成任何影响。

2、可进行SSL卸载加速

提供高度稳定、安全、可靠的硬件和软件解决方案。将关键功能(安全、压缩、虚拟化、随机数生成)组合到高性能、低功耗芯片中。

3、性能强大,具备多样功能

吞吐量可达到数万级,高性能处理单元灵活应对大流量场景,提供2Gbps~100Gbps的单机解密监控方案,灵活进行解密后TCP端口设置,并能计算TCP序列并且修复TCP/IP效验和。最新的安全算法支持,满足下一代应用程序的安全加速需求

星融元NF系列智能可视交换机采用模块化设计,提供可选的SSL解密解决方案(NSA解密模块),从而有效的解决了行业或企业用户在访问HTTPS情况下的网络可视化问题。NF2000系列高级业务处理引擎提供基于硬件的加解密引擎,单引擎可以支持高达29K TPS处理能力以及10~20Gbps的流量解密能力。

相关文章

 

上蒸下煮,如何解暑可视网络运维的“三伏天”?


关注星融元


曾经,在各大行业的数据中心,各类后端安全工具做数据监测工作时,往往会通过零散的流量镜像或分光方式,去各大区域采集所需的流量。

但通常辛辛苦苦跑一趟采集回来的流量,不够全面,后端安全工具也“难为无米之炊”,“原生态”,无任何标识也未经过预处理,害得网络运维人员长期背黑锅,大家提起流量采集是“爱恨交加”。

零散的流量镜像或分光方式,去各大区域采集所需的流量

不仅如此,当后端安全工具流量需求发生变化时,要从头进行网络规划和策略分解、配置,一发不可牵,牵之动全身,要是正好赶上HW行动类似的安防需求,根本无法及时应对。

后端安全工具流量需求发生变化时,要从头进行网络规划和策略分解、配置

随着大数据时代的到来,业务网络相应升级扩容,必然地,监测设备的数量不断增多,监测链路规模不断扩大,如果部署方式还是一成不变的话,自然要求配套更多的流量镜像设备,老板们投入的,各类硬件设备的成本也水涨船高,越来越不堪重负。

无所不能神通广大的厂商们,总是能敏锐地嗅出需求的味道,搞出来了一套【网络可视化】解决方案成功pk掉,职场“摆烂”的传统零散分光或镜像模式,并顺利C位出道。

星融元网络可视化解决方案配图

这张业务能力不错的可视网络,集流量定向采集、源端口标记,租户信息标记、采集报文预处理,状态监控和过载保护…….等功能于一身,真香警告!

千行百业,前仆后继,纷纷入手。然而随着企业业务发展壮大,可视网络规模持续攀升,从最初的两层组网,到后来的三层,还不够,再来一套汇聚层双核心部署。

网络规模不断扩展配图

对于这样日渐膨胀的可视网络,讲真,得需要好好“管教”,传统的控制器采用的【集中管理】方式,在过去很长时间算是一个流行的招式。

它一定程度上也确实发挥了,设备自动发现、拓扑发现等方面的功力。但当运维人员下发配置策略的时候,还是要一台一台的登录、实现。其本质仍然是每台设备的单独策略设置和管理,简直累死个人。

低效网络运维如何破局?星融元推出了集群管理版本的控制器,专为行业客户的可视网络量身打造
同属早先发布的AFC(Asteria Fabric Controller)系列它的英文名字叫【AFC-NPB】。

在AFC-NPB的管理下,多台设备构建而成的可视网络矩阵,摇身一变成为一台逻辑设备,轻松搞定全网策略统一下发和灵活的流量调度,大大提升运维管理效率。

说一千道一万,AFC-NPB是时候亮亮绝活了

01、自动的网络拓扑呈现

自动的网络拓扑呈现

02、智能的路径计算与优化

智能的路径计算与优化

03、实时的大屏数据呈现

实时的大屏数据呈现

04、多维度的网络状态监控

多维度的网络状态监控

05、灵活的组网部署与扩展

灵活的组网部署与扩展

AFC-NPB的能力,远不止如此。还有一体化虚拟流量采集管理、多样化的辅助管理等更多方面的功能,让【可视网络】运维管理,真正做到“又快又省”。

我们总说,这是一个科技改变世界的时代,当网络厂商们的努力,能够带来的网络基础设施、成本降低、效能增高运维和管理的便捷……

这才是每个人能够享受到的科技荣光。

相关文章

 
  • 1
  • 2

对星融元产品感兴趣?

立即联系!

返回顶部

© 星融元数据技术(苏州)有限公司 苏ICP备17070048号-2