Skip to main content
开放网络的先行者与推动者—星融元
加入我们技术支持(Support)  TEL:(+86)4000989811

企业网络现代化需要考虑的几大战略方向

更多相关内容


文章配图随着数字化转型的需求变得日益明显,企业也需要重新考虑自身的网络基础设施。

现企业网络已成为许多公司的焦点,显然,数据中心战略需要改变,尽管新冠大流行已趋于温和,很多员工也回到了办公室工作,但本地和远程双线并存的工作环境依然存在,继续给网络现代化项目带来压力。

企业需要新的网络架构来推动更高的带宽、更精简及易扩展的网络。换言之,现代化的网络和应用对于保持企业竞争力至关重要。以下是几个需要考虑的重要方向

云化转型

企业将网络基础设施和应用迁移到云平台,如公有云或混合云环境。云化转型可以提供更高的灵活性、可扩展性和可靠性,同时降低成本和管理复杂性。

云计算使企业能够从资本支出和折旧的模式转变为基于消费的 IT 模式,从而提升效率,开发和部署时间都有很大程度的缩短。向云计算迁移往往是一项艰巨的挑战。但是,从托管服务入手是一种不错的转型手段,它同时还能让运行在本地的应用程序为未来的迁移做好准备。在这方面,除了软件即服务(SaaS),网络即服务(NaaS)也是一种值得考虑的产品,它通过将一些网络功能转移到云中来减少对基础设施的需求。于此同时,围绕多云战略构建业务应用程序变得更加重要。

什么是网络即服务(NaaS)?它的优势、特点及其替代品又是什么

引入容器架构

随着“以消费为中心的”业务模式的深入人心,无论是在企业本地设施还是通过云服务,容器架构都能以更高效的方式提供网络服务,供应用程序消费。 此外,与布满物理服务器甚至虚拟机的网络相比,容器网络的占用空间要小得多,更适合轻量级工作负载和基于服务的实例。

现在正是企业回顾其虚拟IT环境的大好时机,来确定哪些工作负载适合从虚拟机迁移到容器,从而降低对基础设施需求并提高资源利用率。

投资更大的带宽

像 SDN 这样的战略有助于网络的配置和管理。但有时问题并不仅仅在于路由够不够智能,而是简单地由于物联网和多媒体应用堵塞了网络管通路,因此企业需要更多的网络容量。

数据、应用和服务的激增,无论是服务器,还是服务器到客户端的流量,都给网络路由带来了压力。下一代有线的网络,即 2.5 Gbps 客户端网络和 10 Gbps 或 25 Gbps 服务器网络。这将为处理激增的数据和应用需求提供更快的网络路径。如果从核心网络入手,满足这一需求的成本通常会很高,而如果从边缘网络入手,影响则会较小。对大多数公司来说,真正物有所值的是汇聚层,在这里增加更多网络容量有助于优化整体流量拥塞状况。

一文梳理新一代云化园区网络建设方案-建网篇(2023版)

拥抱WiFi6

最新一代的无线接入点是对高速有线网络的补充,并为重新配置工作空间的公司提供了更灵活的部署方式。

没有必要对所有接入点进行全面更换。相反,企业应分析其当前模式和每个接入点的平均负载,首先重点升级流量最大的接入点。随着时间的推移,将所有设备都升级到 Wi-Fi 6 应能带来更好的管理效益。

重新思考 VPN

一些公司的现代化计划侧重于将 “在家办公 “模式转变为长期的战略。为了支持更多的远程工作员工,企业正在重新考虑他们的 VPN 和相关的云计算策略。企业可以考虑为高价值的远程员工提供软件定义的广域网(SD-WAN)或基于云的 VPN 或基于云的 VPN,以减轻当前网络终端的负担。

为远程用户部署 SD-WAN

SD-WAN 可为分支机构提供更好的访问、控制和弹性,并可优化对云应用的远程访问。远程访问云应用。一些企业甚至考虑为其高价值用户部署 SD-WAN 端点,因为与典型的 VPN 连接相比,SD-WAN 技术可提供更好的始终在线体验。

MPLS 与 SD-WAN的比较

网络自动化

随着管理任务的扩展速度超过资源的增长速度,企业需要更智能地工作,而不是更辛苦地工作。网络的自动化,尤其是与业务案例或业务规则处理相关联时,可使公司更高效更迅速地响应管理请求。

随着 Al 技术的迅速成熟,基于 Al 的自动化现在已成为一种可行的选择。由于许多任务(如部署和迁移)都是可预测的,因此 Al 可以帮助简化这些功能。即使是新产品,如 OpenAl 的 ChatGPT,也正在被集成到网络自动化工具中。

一文梳理新一代云化园区网络建设方案-运维篇(2023版)

Al 支持的网络报告

所有这些网络现代化进程和IT技术变化创造了一个更加复杂的,数据高度密集的企业环境。有了如此多的工具,输出高级报告项目对企业保持变革领先变得更加重要。随着现代化网络变得越来越复杂,用于帮助分析和识别趋势并提供网络安全问题预警的 Al 也变得越来越常见。如果企业目前依赖于来自多个不同工具的报告,那么现在正是研究聚合工具的好时机,这些工具可以关联多个领域的报告,通过为 IT 团队连接多维度数据来提高对网络的洞察力。

星融元携手商业地产运营商共同进入AI时代

网络安全

网络管理的变化是深刻的,对网络安全的影响也最大。

强大的网络安全需求对所有企业都至关重要,因为风险不仅仅存在于网络基础设施,它还会延伸到企业声誉、收入甚至客户。在这一安全领域,依靠专家往往比在公司内部解决问题更好,因为外包服务可能对许多网络漏洞和问题见得多了,能够在问题出现时更快地做出反应。

返回资源中心

医疗信息化背景下,智慧医院网络建设的五大升级点

更多相关内容


传统的医院信息化建设背景下,网络建设面临着各种各样的困难。

  1. 传统网络出现故障无法快速恢复。传统网络面临故障无法快速恢复的问题,出现问题排查困难,有时候会严重影响医院业务的正常开展。
  2. 传统网络穿透性不强。医院病房楼建筑结构通常较为复杂,导致病房内信号覆盖范围不全面,特别是对于电梯内等特殊位置,网络覆盖效果很不理想。对于移动医护设备,出现网络不佳等问题时,会严重影响救治效率与就诊体验。
  3. 传统网络承载量不足。当医院同时就诊人数过多致使某一区域内上网人数较多时,会导致网络异常缓慢,病人无法上网或上网卡顿,影响就医体验。
  4. 医疗数据敏感。医疗数据涉及个人隐私、安全和计费等多种敏感信息,而传统的医院网络无法满足信息安全的建设需求。

智慧医院的网络架构设计

在智慧医院里,网络需求场合包括门诊大厅、病房、手术室、办公区、餐厅等,医生、护士、病患及家属等不同角色对网络的需求也各不相同,需要一个高并发、高性能、信号覆盖好、稳定的网络环境,用来支撑智慧医院内各项应用系统的正常运行。同时,智慧医院建设会涉及不同医院之间的业务协同,对于跨院的网络体系建设同样应考虑在内。

现代医院的网络架构可以分为院内和院间网络两部分。

  1. 院内网络主要以有线网络为主并搭配无线网络,联通医院的各个部分,用以支撑智慧医院的HIS、LIS等典型系统,更好地服务医务人员及患者,是智慧医院运行的基础。
  2. 院外网络是指可用于远程医疗、远程教育等区域医疗应用及与政府管理系统的对接。在智慧医院的建设中,这两种网络的稳定性和高效性将直接影响到整体运行的各个方面,因此网络架构设计在智慧医院中是十分必要的。

无缝漫游:基于分布式网关的漫游方案替代路径冗长的隧道转发

园区网络中的分布式网关设计,具体指的是:一个子网的网关以分布式的形式存在于每一个接入交换机上。它充分利用每一个接入层设备的能力,所有的跨子网转发动作在最近的分布式网关上完成,让网关功能不再成为压垮网络中某一台设备的潜在风险,同时大幅度提升整网的转发效率。

对比传统的无线方案,设备发生AP漫游后的流量不再需要绕道转发,也无需在配置前期考虑网络划分的问题——网络管理员只需要在网络初始化时一次性配置好所有分布式网关的信息即可,无需在运行过程中动态调整,从而进一步降低运维的复杂度。

了解更多:下一代园区网络,“分布式网关”实现更高效的无线漫游!

基于分布式网关的无线漫游路径

海量接入:引入云计算先进网络架构设计,网络扩展无瓶颈

区别于传统的三层拓扑,采用了开放网络架构的园区网络中,全部采用的是Clos结构的组网模型(Spine/Leaf)。这种架构早已广泛应用于云计算场景,它足够扁平,并且可以抛弃大机框设备用全盒式的单芯片交换机来组网,横向扩展十分灵活。

如图所示,随着规模的从小到大,这个Clos网络能够从一级横向扩展至多级,使得网络能够接入的终端数量从几十个到几十万个不等,并且,扩展的过程中原有的网络架构完全保持不变,新扩展的模块与原有模块架构完全一致,从而最大限度地降低了维护的复杂度。

一个三级/四层的Leaf/Spine架构的园区网络组网模型

了解更多:下一代园区网络,用Leaf/Spine架构替代传统“接入-汇聚-核心”三层架构

超高可靠:抛弃二层交换彻底隔绝广播风暴,比“堆叠”更可靠的“超堆叠”

我们都知道,在需要高可靠的网络场景中我们往往需要进行冗余设计,但由此会产生网络环路并导致广播风暴影响整网的正常运行。所以在组网实践中我们有了生成树协议(STP),通过一定的算法人为阻塞链路来打破环路。
链路的阻塞无疑是对资源的浪费,在新一代的园区网络设计中,我们完全有能力抛弃二层网络(即消除网络中的广播),通过纯三层路由转发+ECMP来实现100%的链路利用率,并且这样的网络同时也具备相当的高可靠特性。

消除网络中的广播

另一方面,园区网络为提高网络可靠性避免链路/设备单点故障,还往往采用堆叠组的架构。堆叠技术将多台设备虚拟成一台,对外呈现出统一的控制平面,简化了管理和配置也提升了性能和吞吐量,但堆叠组的升级复杂度和设备替换问题却也成为了让一线网工头疼的问题。

新一代基于Spine/Leaf架构的园区网络,我们得到的是一个集群化的网络,在保证了高可靠和运维简单的前提下,网络升级和稳定性也得到了本质的提升。

了解更多:新一代云化园区网络架构,根除网络广播风暴难题

 传统堆叠网络“超堆叠”网络
上架部署使用专用线缆将堆叠接口互联无需横向互联
配置任务创建集群、主从选举、分裂检测基于ECMP,无需额外配置
冗余能力允许单链路或单设备故障允许单链路或单设备故障
软件升级需要堆叠组重启,业务会中断在不中断业务的前提下逐台升级
管理运维统一集群管理登陆任意一台设备即可管理整个集群
稳定性逻辑复杂,故障风险更高逻辑简单,网络更稳定

极简运维:单一配置模板+简单易用的网络集群+轻量控制器,更适合小规模网络场景

新一代云园区交换机支持零配置部署,同层设备采用同一套配置模板,并且开局自动加载配置文件、升级文件,实现设备的免现场配置和部署。

和传统园区SDN控制器相比,新一代云园区控制器的最大特点是“轻量”,它不会将路由计算、 QoS策略/安全策略下发、接入安全检测等计算任务集中在控制器上,而是分布式在每个交换机上计算,控制器只进行简单的状态查看和配置管理。

开局零配置部署机制控制器界面

原生安全:出口安全设备池化,高效利用安全资源

在网络出口架构方面,新一代园区网络引入了资源池方案,结合SDN流量编排技术,可将各类安全资源池化,避免了传统串联模式的单点故障和升级调整困难的问题。

出口安全设备池化

返回资源中心

校园网深度改造,如何设计部署高效能的分布式无线网络?

更多相关内容


校园网络正在面临的哪些挑战?

  • 无线覆盖和漫游
  • 高带宽高并发
  • 物联网设备的引入

分场景的无线网络设计原则

普通教室等场景

此类场景属于学校内常见场景,比如普通教室、开阔办公室、会议室、实验室、图书馆等。这类区域师生人数较多,环境相对开阔且面积较大;无线不仅要承载师生办公业务、同时学员还会使用无线访问流媒体、游戏、下载文件等,对无线设备的性能提出了较高要求。因此,推荐在此类环境中使用支持802.11 ax协议的吸顶式AP。既满足此类环境对无线性能的要求,满足老师、学员、访客的日常上网需求。

小型办公室场景

对于学校内小型的隔间办公室,此类环境一般房间密集且数量较多,每个房间2~3个用户,同时无线建设时要求尽量减少对环境的影响。因此在此类场景推荐使用面板式的无线AP。

面板式AP采用国标86面板尺寸设计,满足办公室等建筑施工规范性要求施,快速安装,直接替换掉原有有线面板即可。此外,面板式AP在提供无线信号覆盖的同时,还能提供有线网络和电话口,符合办公室等对有线无线网络的共同需求。

办公楼、图书馆区域

设计思路:在图书馆区域,里面有阅览室、自习室、接待室、报告厅,等场景,都使用吸顶AP进行覆盖,对于报告厅场景采用高密吸顶AP进行覆盖。除了确保人数承载外,还主要确保AP间的干扰。

宿舍楼,部分办公楼重要办公室

对于这两种区域,房间密集,单均为接入并发较少,每个隔墙都为水泥墙,需要考虑信号衰减问题。因此针对这种区域每个房间放置面板,用于信号覆盖和人员接入。

体育馆、食堂

食堂来说,场景比较空旷,接入并发相对较多,采用普通吸顶AP进行无线覆盖,单个设备的覆盖面积半径为15米。

会议中心

接入并发较多,固采取高密吸顶AP进行覆盖,一个会议室根据接入并发人数、场景大小,合理部署AP数量,另外还需要考虑信号干扰问题。

无线认证系统的设计原则

对于校园老师以及学生来说,推荐使用Portal账号密码认证,登录的账号可以为教师姓名、手机号、工号等具有唯一性信息,实现一人一账号自行登录;对于来访人员,推荐使用微信认证、短信认证的认证方式,方便快捷。对教学设备接入网络可以视情况而定。

另一方面,学校经常会有外部人员来访,例如上级领导视察工作、家长会议、对外开放参观、社会组织活动等,这部分人员经常有手机端和电脑端无线上网的需求。在无线校园网络设计的时候,针对外部人员,需要充分考虑访客无线接入的便利性以及安全性。例如外来人员重复询问WI-FI密码无疑会增加IT运维工作的繁琐性,而且影响无线体验感。因此,外部人员认证需要充分考虑用户体验。推荐可以使用微信、短信方式认证、账号密码认证。

对于图书馆、教室、办公室、报告厅等场景,推荐采用Portal账号密码认证,内部员工接入时即需要认证,登录的账号可以为姓名、手机号、工号等具有唯一性的信息,实现一人一账号自行登录。

分布式的无线网络解决方案

区别于传统的三层拓扑,星融元将云计算领域的网络设计理念引入到园区,推出了基于全三层IP Fabric的云化园区解决方案,将云化深入到底层网络架构,从而支撑起面向的校园高性能分布式无线网络。

整体方案请参阅

  • 全新的网络规划思路:采用领先的开放网络理念,基于最新的数据中心级网络技术、开放的网络操作系统,“一网多用”地构建出能够同时承载多种业务的超大规模校园网络。
  • 全新的网络建设架构:抛弃传统校园网络架构所背负的历史包袱,通过纯三层网络、统一路由结构、天然无环、去堆叠、自主内生安全等创新的技术,建设架构极简、更可靠、更安全、更高性能新一代校园网络;
  • 全新的高效运维体系:将开放网络的集中控制器、软件可编程引入到校园网络的运维系统中以有效支持NetDevOps,同时通过简化配置、自动部署等创新性设计大幅度提升网络运维的效率。

覆盖全场景的wifi6

校园网设备概览

极简运维的高效率无线漫游

基于分布式网关的无线漫游路径

传统基于CAPWAP隧道的方案

  • 一个子网的网关以分布式的形式存在于每一个接入Leaf上,充分利用每一个接入Leaf的能力,所有的跨子网转发动作在最近的分布式网关上完成,让网关功能不再成为压垮网络中某一台设备的潜在风险,同时大幅度提升整网的转发效率;
  • 当移动终端发生漫游时,分布式网关的作用尤为重要,因为漫游后的接入Leaf上已经配置了网关信息,并且自动学习和同步了漫游终端的IP/MAC信息,因此漫游后的终端可以平滑地重新接入网络(所发信息无需再到一个“集中的网关”上去兜圈子),并且漫游过程中业务不断连(即确保不丢包,因为漫游后的接入Leaf上已经有了该漫游终端的所有信息);
  • 网络管理员只需要在网络初始化时一次性配置好所有分布式网关的信息即可,无需在运行过程中动态调整,从而进一步降低运维的复杂度。

返回资源中心

基于IP Fabric 的园区网与传统园区的对接(一):双机防火墙

更多相关内容


双机防火墙的概念和分类

双机热备技术可以将一组防火墙虚拟成一台防火墙。其中,仅有一台防火墙可以处于活动,称为主设备(Active),其余称为备设备(Backup)。防火墙可通过此技术实现将配置和会话表(协议的连接状态表)信息的同步,若主防火墙发生故障,备防火墙可以平滑的接替,保障网络的稳定运行。

主备双机部署

主备模式下的两台防火墙,其中一台作为主设备,另一台作为备份设备。主设备处理所有业务,并将产生的会话信息传送到备份设备进行备份;备份设备不处理业务,只用做备份(如下图所示,Firewall 1处理全部业务,Firewall 2用做备份)。当主设备故障,备份设备接替主设备处理业务,从而保证新发起的会话能正常建立,当前正在进行的会话也不会中断。

主主双机部署

负载分担模式下两台设备均为主设备,都处理业务流量,同时又作为另一台设备的备份设备,备份对端的会话信息(如下图所示,Firewall 1和Firewall 2均处理业务,互为备份)。当其中一台故障后,另一台设备负责处理全部业务,从而保证新发起的会话能正常建立,当前正在进行的会话也不会中断

相关技术:VRRP

由于防火墙多部署于企业网络的出口,内外网之间的业务都要通过防火墙进行转发。若防火墙出现宕机将造成业务中断,因此,防火墙的可靠性就显得格外重要。为了更好地应对单机设备运行的风险,防火墙通过使用双机热备技术实现冗余功能,类似于虚拟路由冗余协议(VRRP,Virtual Router Redundancy Protocol),当局域网内承担路由转发功能的设备失效后,另一台将自动接管,从而实现IP路由的热备份与容错。

对接场景:基于全三层IP路由的云化园区网络

星融元的云化园区网络架构是一个开放化的网络,虽然在多方面进行了创新设计,但仍可以比较方便地和传统园区网络无缝对接。

enterprise network architecture

  • Spine/Leaf的精简架构,天然无环路,无需堆叠。
  • 全三层组网,消除二层广播风暴的同时,还有效地隔绝了内网病毒的广播。
  • 一套配置模版,全网自动化部署,设备上线即插即用。
  • 支持云原生操作系统环境和开放的RESTful API接口,让网络随需而动。

更多介绍:全三层组网消除二层广播风暴-云化园区解决方案-星融元

场景1:对接一对主备防火墙

对接一对主备防火墙

配置思路:

  • 每台Spine的两个上行口保持在同一VLAN,并配置一个三层SVI口
  • 每台防火墙分别运行两对VRRP组,主墙的VRRP角色均为Master,备墙的VRRP角色均为Backup,每台Spine的SVI口和两台防火墙的VRRP虚接口通过BGP路由协议对接,即上下两个网段IP互联

流量转发路径:

  • 上行:Leaf1—>Spine1和Spine2—> FW1
  • 下行: FW1—>Spine1和Spine2—>Leaf1和Leaf2

典型故障分析:

  • 无故障:两个VRRP组的虚接口均落在主墙
  • ①或②故障: HA协议会控制两个VRRP组同时进行主备切换,确保业务流量统一切换到备墙,①+②故障同理
  • ③故障:和CASE1③故障相同

场景2:对接一对主主防火墙

在HA+VRRP配置模式下,防火墙主主是通过两对VRRP组互为主备实现的(例如VRRP-1的Master是防火墙A,Backup是防火墙B,VRRP-2的Master是防火墙B,Backup是防火墙A)

对接思路:

对接一对主主防火墙

配置思路:

  • 每台Spine的两个上行口保持在同一VLAN,并配置一个三层SVI口
  • 每台防火墙分别运行四对VRRP组,每两对VRRP组互为主备,每台Spine的SVI口和两台防火墙的两个VRRP虚接口通过BGP路由协议对接,上下仍是两个网段IP互联,但每台Spine有两个下一跳分别指向两台防火墙,实现ECMP负载分担

流量转发路径:

  • 上行:Leaf1—>Spine1和Spine2—>FW1和FW2
  • 下行:FW1—>Spine1和Spine2—>Leaf1和Leaf2

典型故障分析:

  • 无故障;VRRP1的虚接口落在FW1,VRRP2的虚接口落在FW2
  • ①故障:VRRP1主备切换,此时Spine1的上行流量切到FW2
  • ①+②故障:相当于Spine1设备故障,Spine2接替上下行流量
  • ③故障:和CASE1③故障相同

返回资源中心

星融元深度合作SONiC社区,“一站式”SONiC网络解决方案赋能千行百业

更多相关内容


近日,星融元(asterfusion.com)正式加入成为Linux基金会下的SONiC社区会员单位成员,未来星融元将继续与SONiC 社区深度合作,为人工智能、云、企业数据中心和园区接入打造一个开放、可扩展和可编程的网络架构。

SONiC社区会员单位成员

星融元是中国最早参与SONiC社区并积极向社区贡献缺陷修复和软件特性代码的公司之一,自成立之初一直致力于开发基于 SONiC 的企业级操作系统。作为行业先驱,星融元已经在数据中心和二层接入交换机上实施了企业级 SONiC NOS——AsterNOS

几年来,随着研发队伍不断发展壮大,AsterNOS经过持续更新迭代,其软件特性和芯片支持不断完善扩充,在稳定性和易用性方面也实现了极大的改进,可同时部署于数据中心和园区网络,目前完成了数万个现场商业部署的拷贝。

AsterNOS的能力

SONiC是什么?

SONiC全称Software for Open Networking in the Cloud(云中开放网络软件),是一种基于 Linux 的开源网络操作系统 (NOS),可在多个供应商和 ASIC 的交换机上运行。全新理念、开放的架构让SONiC/SAI焕发出蓬勃的生命力,快速获得了云计算时代的全球用户、厂商的青睐,成为云计算时代构建网络软件系统的首选。

据Gartener报告,到 2025 年,全球40%运营超过 200 台交换机的大型数据中心网络的企业将在生产环境中部署SONiC,SONiC有望像Linux服务器操作系统一样,成为硬件供应商支持的标准化网络操作系统。

星融元的系列化SONiC开放网络产品

区别社区其他参与单位,星融元所提供的并非是纯白盒硬件或基于SONiC的纯软件产品,而是软硬一体的一站式开放网络解决方案,系列化的产品和方案让全球更为广大的数据中心和园区网络用户都能平等、便利地享用到开放网络所带来的技术进步。

AsterNOS已稳定支持从 1G 到 400G 的各种端口容量和多芯片平台,适用于公有云、私有云、园区接入、边界智能网关等多种应用场景。

星融元为云计算的各关键应用场景构建全栈网络

返回资源中心

DPDK和VPP是什么?

更多相关内容


在网络成为人们通信方式基础的今天,性能、吞吐量和延迟对于无线核心和接入、有线基础设施、路由器、负载平衡器、防火墙、视频流、VoIP 等应用越来越重要。DPDK 支持极快的数据包处理,使电信行业将移动网络骨干和语音等对性能敏感的应用迁移到云中成为可能。

DPDK是什么?

DPDK 是数据平面开发工具包(Data Plane Development Kit),DPDK是一款高性能的网络驱动组件,旨在为数据面应用程序提供一个简单方便的,完整的,快速的数据包处理解决方案。DPDK由各种库组成,用于加速在各种 CPU 架构上运行的数据包处理工作负载。主要技术有用户态、轮询取代中断、零拷贝、网卡RSS、访存DirectIO等。

DPDK 于 2010 年由英特尔公司创建,并以许可开放源代码的方式提供。2013 年,6WIND 在 DPDK.org 上建立了开源社区,促进了项目的持续扩展。从那时起,该社区的贡献者、补丁和贡献组织的数量一直在持续增长,目前已完成了 5 个主要版本,包括来自 25 个不同组织的 160 多人的贡献。DPDK 现在支持所有主流 CPU 架构和多个供应商的网卡,非常适合需要跨平台移植的应用程序。

DPDK的基本原理

DPDK的基本原理

随着云业务相关网络需求的飙升,Linux+x86单机网络IO瓶颈愈发明显,问题根源来自于网络业务的运行对CPU资源消耗占用,主流的解决方案都是旁路网卡IO,绕过内核直接在用户态收发包来解决内核的瓶颈。
如上图所示,区别于左侧传统的收发报文方式,DPDK的方式基于UIO(Userspace I/O)旁路数据,数据从网卡-DPDK轮询模式–DPDK基础库-业务,使之易于开发和维护,灵活性好,发生故障不影响内核运行。

VPP是什么?

VPP 平台是一个可扩展的框架,可提供开箱即用的高质量交换机/路由器功能。它是思科矢量数据包处理(VPP,Vector Packet Processing)技术的开源版本:一种可在商用 CPU 上运行的高性能数据包处理堆栈。

VPP 的优势在于其高性能、成熟的技术、模块化和灵活性以及丰富的功能集。VPP 技术基于经过验证的技术,该技术已帮助思科交付了超过 10 亿美元的产品。

VPP 平台是一个可扩展的框架

模块化、灵活、可扩展

VPP 平台建立在 “数据包处理图” 的基础上。这种模块化方法意味着任何人都可以 “插入 “新的图形节点。这使得可扩展性变得相当简单,同时也意味着插件可以针对特定目的进行定制。

自定义数据包处理图

自定义数据包处理图

插件如何发挥作用?运行时,VPP 平台从 RX 环中抓取所有可用数据包,形成数据包向量。对整个数据包矢量逐节点(包括插件)应用数据包处理图。图节点小而模块化。图形节点是松散耦合的。这使得引入新的图形节点变得容易。这也使得重新连接现有图形节点变得相对容易。

星融元Helium DPU 智能网卡对DPDK/VPP的支持

Helium DPU智能网卡所提供的软件开发套件(FusionNOS-Framework)包括三大部分,目前软件和场景都已开源。
开源地址:https://github.com/asterfusion/Helium_DPU

  • 标准的Linux内核,方便开发者安装应用相关的各种依赖,并且有大量可选的软件源。
  • 容器化的架构。我们可以打包运行环境和依赖到一个可移植的镜像中,实现轻量的资源隔离,做到一次编译,随处运行,并且每个实例的初始状态皆是一致的。
  • 额外提供的DPDK和VPP开发套件,加速软件快速移植,用户也可以很方便去拓展自己的应用。

Helium DPU智能网卡所提供的软件开发套件

产品链接:Helium DPU智能网卡:网络加速、安全加速、存储加速
更多资讯:讲座精华 | 深度分享星融元开源DPU技术与应用场景


本文参考:
https://wiki.fd.io/view/VPP/What_is_VPP%3F
https://cloud.tencent.com/developer/article/1198333
https://www.dpdk.org/about/

返回资源中心

真机测评:全开放架构400G交换机,超低时延以太网性价比之选!

更多相关内容


云计算、人工智能和 5G 的大规模增长促使对能够支持新型 400G 技术和架构的高带宽、可扩展解决方案的需求激增。

400G 的解决方案非常适合应对流量持续增长的大容量电信提供商、大型数据中心以及企业。与常规的100G解决方案相比,400G 光收发器模块的每个 RU 可提供 4 倍的高带宽——通过在更少的物理空间中提供相同的带宽,降低每比特成本。另一方面,在现网中引入400G交换机后总端口将会更少,管理起来也更容易。

星融元400G以太网交换机(CX-N系列)

CX732Q-N是星融元推出的一款400G以太网交换机产品,转发时延低至~400ns。

  • 32x400G QSFP-DD 端口,兼容40G/100G/200G,可实现平滑的升级过渡
  • 支持带内网络遥测:2x10G SFP+ 的INT端口为后端提供实时精准的遥测数据;基于可编程交换芯片实现,不占用CPU性能
  • 128G M.2 SSD
  • 5+1热插拔风扇,1+1电源

400G实拍照片

CX-N系列低时延云交换机型号一览

型号业务接口 交换容量
CX864E-N64 x 800GE OSFP,2 x 10GE SFP+102.4Tbps
CX732Q-N32 x 400GE QSFP-DD, 2 x 10GE SFP+25.6Tbps
CX664D-N64 x 200GE QSFP56, 2 x 10GE SFP+25.6Tbps
CX564P-N64 x 100GE QSFP28, 2 x 10GE SFP+12.8Tbps
CX532P-N32 x 100GE QSFP28, 2 x 10GE SFP+6.4Tbps
CX308P-48Y-N48 x 25GE SFP28, 8 x 100GE QSFP284.0Tbps

相关阅读:私有云网络的进化之路:与开放网络技术的完美融合

开放的软件架构——AsterNOS

包含CX732Q-N交换机在内的CX-N全系交换机都搭载了AsterNOS网络操作系统,它具备高度的功能定制和可扩展性,帮助实现网络运维自动化,可为云数据中心多业务融合、AIGC网络、高性能计算(HPC)、大数据分析等多种业务场景提供卓越的网络服务。

对比社区版SONiC,AsterNOS在以下方面做了大量功能补充和增强:

对比社区版SONiC,AsterNOS功能补充和增强

支持EVPN多归属

与MC-LAG 解决方案相比,EVPN Multi-homing不仅能更好地解决可扩展性和流量负载平衡方面的限制,还能提高 VXLAN 接入端的可靠性。

参阅:MC-LAG还是Multi-Homing?探讨网络通信高可用性的新选择

思科风格命令行

此外,AsterNOS 完全支持 Cisco风格的命令行模式,大大降低了运维端的学习成本。下面是我们在使用 AserNOS 的交换机上演示以不同的命令行模式(Cisco-like Klish/Linux Bash)配置 VLAN
AsterNOS配置界面

返回资源中心

AI应用对网络基础设施有哪些需求?

更多相关内容


网络性能的效率在确保人工智能应用程序有效运行方面起着至关重要的作用。这种效率决定了系统处理信息的速度,同时也影响着整体应用性能。

人工智能应用程序通常是数据密集型的,需要处理大量信息,因此需要在交换机、路由器和服务器等各种设备之间快速访问和快速传输。速度慢或延迟高的低效网络会干扰实时或接近实时的输入信号,从而缩短处理时间。应用程序的算法依赖于这些信号来识别对准确结果至关重要的特定模式。

当应用程序在网络基础设施上运行时,处理器通过处理器间传输与远程存储器交换信息。这种传输会大大减少延迟和带宽,最终限制应用程序的效率。中央处理器的处理速度与内存访问速度之间的差距越来越大,这给人工智能应用带来了被称为 “内存墙 “的挑战。

尽管 CPU 处理能力有了长足进步,但在提高内存访问速度方面的进展却相对缓慢。这一瓶颈限制了系统的整体性能。

人工智能内存墙问题与网络

在人工智能应用中,处理大型数据集是无可争议的必要条件。然而,这一过程却带来了潜在的绊脚石。由于带宽限制或此类系统特有的高延迟,在处理单元和内存系统等不同组件之间传输上述数据集的速度可能会很慢。

更复杂的是,现代计算机拥有独立的内存层,这些内存层在特定属性(如访问速度和容量)方面各不相同。在这些不同层级之间移动数据会导致内存墙问题,访问时间的增加会影响性能。

在缓存方面,有时会出现请求数据,但却无法在先前为快速检索而设计的缓存中找到数据的情况。这种故障会增加另一个导致瓶颈的问题,即缓存缺失。这种中断会导致严重的延迟,往往会造成系统整体性能的滞后。此外,如果多个处理单元或线程同时访问一个处理单元,就会出现资源争夺,导致效率降低。

不过,网络可以缓解这些问题。分布式系统可以通过将计算和数据分布到多个节点来使用网络资源。这种方法可以改善内存访问时间,减少内存墙问题对人工智能应用性能的影响。

在庞大的网络中,在不同节点间移动信息会产生过多的开销,而减少这些开销的一个有效方法就是采用包含远程直接内存访问(RDMA)的网络技术。

RDMA 实现了两个远程系统内存之间的直接数据传输,无需 CPU 参与。这一过程加快了数据传输,同时最大限度地减少了 CPU 的开销。就人工智能应用而言,RDMA 为优化内存访问开辟了途径,以最快的速度和最高的效率简化了网络各部分之间的通信。

例如,在分布式深度学习系统中,企业可以使用 RDMA 将数据从 GPU 调度到另一个 GPU 或异地存储设施,灵活性极高。RDMA 可以优化可用内存的使用,同时规避潜在的内存障碍,限制内存墙问题的影响。这种模式的转变对基于人工智能的应用具有重大影响,因为在人工智能应用中,无缝通信往往是性能平平与性能卓越的分水岭。

性能之外的网络需求

人工智能应用需要的不仅仅是令人印象深刻的网络性能。以下是网络可使人工智能应用受益的其他领域:

安全性

人工智能应用通常会处理敏感信息,如个人信息或金融交易。使用加密技术和身份验证控制等安全措施确保此类数据的保密性和完整性至关重要。

可扩展性

大规模分布式系统需要较高的可扩展性,因为它们是人工智能工具和快速响应时间的基础。使用软件定义网络等可快速扩展的技术,可确保人工智能应用根据需要无缝增长。

高速连接

大多数人工智能应用需要提供实时或接近实时的洞察和预测,因此保持高速连接至关重要。要正面解决这一问题,需要使用具有高可靠性和容错功能、冗余链路和故障转移机制的网络设计,以确保即使在出现问题时也能不间断地运行。

服务质量QoS

不同类型的信息可能需要不同程度的优先级。由于高优先级数据优先于其他数据,网络产品已发展到提供 QoS 功能。这些功能使应用能够在各种类型的数据流量之间分配网络带宽,并确保优先处理最关键的信息。

星融元AIGC承载网设计方案

AIGC承载网方案架构图AIGC承载网方案架构图


超低TCO、超高性价比

相较于IB方案,大幅度降低用户的网络TCO,同时确保超高性能

横向平滑扩容、1:1收敛无阻塞

无收敛的网络设计确保无阻塞的大容量网络,按需横向扩展

整网RoCEv2

基于CEE/DCB能力,提供可与IB媲美的性能和同样无损的网络服务

开放网络操作系统

星融元网络操作系统AsterNOS,SONiC企业级发行版,支持灵活的功能扩展、在线升级

无缝对接云管

AsterNOS 利用简单易用的REST API,可轻松让第三方的云平台/控制器快速纳管

专家级服务

专业、全面、可靠的研发、方案与服务团队,为客户提供小时级的快速响应服务

详情可参考:客户案例:高性能、大规模、高可靠的AIGC承载网络

智能网卡和人工智能应用

智能网络接口控制器(SmartNIC)等专用外设可帮助有效部署人工智能应用。SmartNIC 的一个关键功能是能够将网络处理从主机 CPU 卸载到专用硬件加速器。这可以减少 CPU 负载,同时为运行人工智能应用释放更多资源。

智能网卡使用硬件加速器来执行加密、压缩和协议处理等任务。这种方法还能加快数据传输,从而减少延迟,提高网络吞吐速度,从而加快数据传输,缩短处理时间。

使用智能网卡还能更轻松地解决所有人工智能应用面临的内存墙问题。智能网卡改变了服务器系统处理网络基础设施需求的方式。智能网卡能够承担通常会加重主机 CPU 负担的某些任务,这意味着性能大幅提升,尤其是在数据分析等内存密集型操作中。

将数据包过滤和流量分类任务卸载到 SmartNIC 的专用硬件上,而不是依赖于服务器 CPU 的通用架构,可有效降低服务器 CPU 的使用率,并获得更好的整体效果。此外,许多 SmartNIC 型号都具有本地缓存功能,这意味着无需进行冗长的网络传输,也减少了等待关键信息的时间。

基于开源DPU资源池,破解边缘云算力扩展难题 – 星融元Asterfusion

与其他类型的应用相比,人工智能应用有其独特的要求,对网络基础设施的吞吐量、延迟、安全性、可靠性和可扩展性提出了很高的要求。因此,企业可能有必要调整当前的数据中心网络基础设施,以支持这些需求。

返回资源中心

DCI互通原理简介——L3 DCI互联简介

更多相关内容


概要流程

Multi-Fabric方式的DCI中,L3不过墙互通的简要原理如图1所示。

在Server Leaf上:

  1. 将本地ARP转为BGP EVPN路由发布给DCI Leaf。

在DCI Leaf上:

  1. 本端DCI Leaf的VRF1与互通VRF3的RT值交叉,并下发路由策略,只放通互通的子网。
  2. 本端DCI Leaf学习本地Fabric内的路由,并修改路由下一跳为本地IP,封装为互通L3 VNI后发布给对端DCI Leaf。
  3. 对端DCI Leaf学习到发布的路由,修改路由下一跳为本地IP,封装为本地VNI后发布给Fabric内的其他Leaf。

L3 DCI不过墙互通简要工作原理

控制平面

控制平面

  1. Server Leaf1将学习到VM1的主机IP地址,并将其保存在L3VPN1实例路由表中,然后向DCI Leaf11发送BGP EVPN路由。
  2. DCI Leaf11收到Server Leaf1发送的BGP EVPN路由后,先解封装在L3VPN1实例中获取该路由中的主机IP路由,再将路由交叉到DCI所在的EVPN实例L3VPN3。
  3. DCI Leaf11进行BGP EVPN路由重生成,将路由下一跳修改为DCI Leaf11的VTEP地址,然后重新封装,封装上L3VPN3实例的三层VNI,源MAC地址为DCI Leaf11的MAC地址,并将重新封装后的BGP EVPN路由信息发送给DCI Leaf12。
  4. DCI Leaf12收到DCI Leaf11发送的BGP EVPN路由后,先解封装在L3VPN3实例中获取该路由中的主机IP路由,再交叉到Fabric2所在的EVPN实例L3VPN2中。
  5. DCI Leaf12进行BGP EVPN路由重生成,将路由下一跳修改为DCI Leaf12的VTEP地址,然后重新封装,封装上L3VPN2实例的三层VNI,源MAC地址为DCI Leaf12的MAC地址,并将重新封装后的BGP EVPN路由信息发送给Server Leaf2。
  6. Server Leaf2收到DCI Leaf12发送的BGP EVPN路由后,解封装后成功获取该路由中的主机IP路由。

转发平面

转发平面

  1. Server Leaf2收到VM2访问VM1的二层报文,检测到目的MAC是网关接口MAC,终结二层报文,通过VM2接入BD的BDIF接口找到对应的L3VPN实例,并在L3VPN实例的路由表中查找VM1主机路由,进入Server Leaf2到DCI Leaf12的VXLAN隧道,封装成VXLAN报文通过VXLAN隧道发送到DCI Leaf12。
  2. DCI Leaf12收到VXLAN报文后,解析VXLAN报文,通过三层VNI找到对应的L3VPN实例,并在L3VPN实例的路由表中查找VM1主机路由,进入DCI Leaf12到DCI Leaf11的VXLAN隧道,重新封装VXLAN报文(三层VNI是DCI Leaf11发送的VM1主机路由中携带的三层VNI、外层目的MAC是DCI Leaf11发送的VM1主机路由中携带的MAC)发送给DCI Leaf11。
  3. DCI Leaf11收到VXLAN报文后,解析VXLAN报文通过三层VNI找到对应的L3VPN实例,并在L3VPN实例的路由表中查找VM1主机路由,进入DCI Leaf11到Server Leaf1的VXLAN隧道,重新封装VXLAN报文(三层VNI是Server Leaf1发送的VM1主机路由中携带的三层VNI、外层目的MAC是Server Leaf1发送的VM1主机路由中携带的MAC)发送给Server Leaf1。
  4. Server Leaf1收到VXLAN报文后,解析VXLAN报文,通过三层VNI找到对应的L3VPN实例,并在L3VPN实例的路由表中查找VM1主机路由,根据路由信息转发给VM1。

返回资源中心

什么是DCI互联,为什么需要DCI互联

更多相关内容


什么是DCI?

数据中心互联(Data Center Interconnect,DCI) ,是一种跨数据中心实现网络互联互通的网络解决方案,具备灵活互联,高效安全,简化运维等特性,满足了数据中心之间高效数据交换、异地灾备等场景需求。

在云化数据中心,网络资源通过虚拟化技术形成资源池,实现业务与物理网络解耦,通过网络虚拟化,物理网络资源可以被分成多个虚拟网络资源,从而提高网络资源的使用效率。

虚拟网络资源根据业务需求进行分配和调度,可以更好地利用网络资源。此外,虚拟网络资源的快速部署和迁移可以提高业务的灵活性和可用性。

我们对DCI的需求迫切吗?

伴随着用户业务规模的扩大和范围的增加,用户可能需要在多个地理位置建立数据中心以满足业务需求。这些数据中心需要进行互联和资源共享。一些应用程序可能需要在多个数据中心之间进行迁移、复制、备份等操作,而另一些应用程序可能需要快速在不同的数据中心之间进行负载均衡和容灾切换。

具体诉求如下:

  • 业务跨DC部署:客户某些业务可能是跨DC部署的,比如客户可能会针对某大型网站划一个独立的VPC,这个VPC可能会跨多个DC,所以在这个VPC内部流量就有跨Fabric互通的需求,同时路由和防火墙需要进行隔离。
  • 业务之间的互通:客户针对不同的业务会划分不同的VPC,不同VPC可能会部署在不同的DC中,业务之间如果有互通的需求,就要求VPC之间能跨DC进行L3互通(VPC之间互通一般为L3互通,如果需要L2互通则需要将VM划分到同一个VPC中)。
  • 业务容灾/多活:业务容灾和多活主要分为两种方式,首先针对比较新的业务系统,客户自己可以通过GSLB(全局负载均衡)的方式进行容灾和多活,具体方式是两个DC同时部署相同的业务,业务相同同时IP地址不同,这样两套系统可以进行容灾处理。这种方式对网络没有什么特别的诉求,但是针对比较旧的一些系统,会要求迁移到容灾中心后,IP地址不能变化,这种情况下,就需要支持跨DC的二层互通。

多归接入为了解决这些问题,Asterfusion推出了跨DC解决方案Multi-Fabric使用VXLAN、BGP-EVPN等技术对L2和L3网络进行扩展。这样,用户的应用程序就可以在多个数据中心之间进行迁移、负载均衡、容灾切换等操作,而无需担心网络问题,帮助管理多个数据中心之间的网络和资源,提高业务的可扩展性和可靠性。

返回资源中心

对星融元产品感兴趣?

立即联系!

返回顶部

© 星融元数据技术(苏州)有限公司 苏ICP备17070048号-2