开放网络的先行者与推动者—星融元
加入我们技术支持(Support)  TEL:(+86)4000989811

为什么说Prometheus是开源网络监控工具的后起之秀?优势有哪些?


更多相关内容


网络监控是网络管理的重要组成部分,定期网络监控可以预防故障、优化性能、规划容量,确保网络的可用性、安全性等。相比较普通的监控工具,开源网络监控工具拥有可定制性、灵活性、可扩展性等优势,受到国内外众多企业的追捧,有哪些好用的开源网络监控工具,该如何选择呢?

一、盘点好用的开源网络监控工具

1、开源网络监控工具盘点

工具描述主要特点
Cacti一种图形解决方案,可与 RRDTool 一起收集 LAN 中的性能数据。–简单的网络管理协议(SNMP)支持
–绘制交通数据图表
–易于设置的模板
–用于数据存储的MySQL数据库
Nagios Core一种流行的监控工具,具有可扩展性和易用性的界面。– 自动发现设备
– 复杂的性能图
– 通过附加组件进行定制
– PHP Web 界面 (Nagios V-Shell)
– RESTful API
Icinga 2一个灵活的工具,建立在Nagios Core之上,提供可定制的仪表板和出色的可视化功能。– 用于自定义配置的RESTful API
– 实时性能数据监控
– 对 Graphite 和 InfluxDB的原生支持
– 通过电子邮件或文本发出警报和通知
Zabbix涵盖网络、服务器、云、应用、业务监控的综合监控工具。– 网络带宽使用情况跟踪
– 网络运行状况和配置更改监控
– SNMP、IPMI 和 IPv6 支持
– 用于轻松发现设备的模板
– 警报和通知
– 支持广泛的平台
Prometheus一种用于监控时间序列数据的流行工具,拥有大量社区追随者。– 时间序列数据监控
– 用于事件通知的警报管理器
– 与各种数据源(Docker、StatsD、JMX)集成
– 用于可视化的 Grafana 集成

2、对比展现Prometheus优势

作为发行时间最晚(Prometheus发行于2016年)的开源网络监控工具,Prometheus有哪些优势呢?以传统的Zabbix为例,一起来对比吧!

 ZabbixPrometheus
监控规模集群规模上限为10000个节点支持更大的集群规模
监控对象物理机环境云环境
存储关系型数据库时间序列的数据库
服务发现PushPull/Push
配置配置复杂一个核心Server组件,配置简单
社区活跃度国内比较活跃,社区活跃度相对较低开源社区非常活跃CNCF支持

二、Prometheus 是做什么的?

Prometheus 是一款免费软件,可帮助监控和发送有关计算机系统的警报,2012年已经产生并一直存在,并在公司和组织中变得非常流行。许多开发人员和用户积极为它做出贡献。它不属于任何特定公司,由共同工作的社区管理。2016 年,Prometheus 成为云原生计算基金会的一部分。

Prometheus logo

Prometheus 核心组件

核心组件:

  • Prometheus Server
  • Exporter
  • Alertmanager
  • Pushgateway
  • Service discovery

Prometheus Server是Prometheus组件中的核心部分,负责实现对监控数据的获取,存储以及查询。

1、工作流程

  1. Exporter将监控数据采集的端点通过HTTP服务的形式暴露给Prometheus Server;
  2. 在Prometheus Server中支持基于PromQL创建告警规则,如果满足PromQL定义的规则,则会产生一条告警,而告警的后续处理流程则由AlertManager进行管理;
  3. Prometheus Server与Push网络需求无法直接满足时,就可以利用PushGateway来进行中转;
  4. Service discovery:监控系统而言就意味着没有了一个固定的监控目标,所有的监控对象(基础设施、应用、服务)都在动态的变化。

2、Exporter

定义:广义上来讲,任何向Prometheus提供监控样本数据的程序都可以被称为一个Exporter,Exporter的一个实例称为Target。

SEO-配图

若要从Target (host or service)收集监视数据,首先必须在要收集的Target上安装收集组件,称为Exporter,他们的官网(http://prometheus.io)上有很多Exporter:

– Consul exporter (official)
– Memcached exporter (official)
– MySQL server exporter (official)
– Node/system metrics exporter (official)
– HAProxy exporter (official)
– RabbitMQ exporter
– Grok exporter
– InfluxDB exporter (official)

可根据所监控的对象选取特定的Exporter:

范围Exporter
数据库MySQL exporter, Redis exporter, MongoDB exporter, MSSQL exporter等
硬件Apcupsd exporter, IoT Edison exporter, IPMI exporter, Node exporter等
消息队列Beanstalkd exporter, Kafka exporter, NSQ exporter, RabbitMQ exporter等
存储Ceph exporter, Gluster exporter, HDFS exporter, RabbitMQ exporter等
HTTP服务Apache exporter, HAProxy exporter, ScaleIO exporter等
API服务AWS ECS exporter, Docker Cloud exporter, Docker Hub exporter, GitHub exporter等
日志Fluentd exporter, Grok exporter等
监控系统Collected exporter, Graphite exporter, InfluxDB exporter, Nagios exporter, SNMP exporter等
其他Blockbox exporter, JIRA exporter, Jenkins exporter, Confluence exporter等

工作方式:

– 注册指标:exporter需要定义要导出的指标及其相关信息
– 数据收集:exporter定期从系统或应用程序中收集指标数据
– 指标转换:exporter将收集到的指标数据转换为Prometheus的指标类型
– 暴露指标:exporter提供一个HTTP接口,通过该接口将转换后的指标暴露给Prometheus

Prometheus 配图

3、告警产生以及推送

Prometheus 配图

  • Prometheus会周期性的对告警规则进行计算,如果满足告警触发条件就会向Alertmanager发送告警信息
  • Alertmanager根据配置推送给对接的平台,支持对接多种平台告警推送

流程:

  1. 告警路由:会根据事先定义的路由配置对告警进行路由。路由配置规定了如何处理不同的告警,包括将告警发送到不同的接收者(如电子邮件、PagerDuty、Slack等)、进行静默处理或者进行其他操作。
  2. 告警抑制:Alertmanager会对接收到的告警进行去重处理,以避免重复通知。
  3. 告警分组:Alertmanager会将具有相同标签或属性的告警进行分组,以便进行更有效的通知和处理。这样可以避免发送大量重复的告警通知,提供更清晰的告警视图。

三、示例:将Prometheus与AsterNOS结合

1、为什么使用Prometheus监控AsterNOS

Prometheus-AsterNOS

2、效果展示

以星融元CX-M园区网络为例,使用Prometheus + SNMP + Grafana组合方案进行监控,能够采集系统运行数据,实现网络数据可视化以及网络架构拓扑展示。

园区方案

Prometheus + SNMP + Grafana

在AsterNOS设备上部署Node exporter,以HTTP接口的形式暴露AsterNOS的系统运行数据,Prometheus将主动Pull数据。Prometheus获取到数据后一方面用于评估告警规则——若产生告警将由Alertmanager推送给所对接的服务;另一方面落地到Prometheus服务器本地存储中。Grafana可以利用Prometheus所存储的监控数据来进行可视化展示。

部署Node exporter

以Node exporter所采集的数据作为来源展示

Node exporter所采集的数据

配图

返回资源中心

 

什么是软路由?软路由与硬路由有哪些区别?


更多相关内容


一、什么是软路由?

软路由是一种利用通用计算机平台上的软件实现的路由器。它将路由器的功能以软件的形式运行在标准的服务器、PC或虚拟化环境中。软路由通过使用通用硬件和开源软件,将路由器的功能转移到软件层面上。常见的软路由平台包括pfSense、OPNsense、VyOS等。

二、软路由的应用场景

1. 家庭网络:软路由可以作为家庭网络的核心路由器。它提供了广域网(WAN)连接、局域网(LAN)分配、网络安全、流量控制等功能。软路由还支持各种高级功能,如虚拟专用网络(VPN)、防火墙、负载均衡等,提供更灵活和可定制的网络解决方案。

软路由适用于家庭网络环境,可以提供更好的灵活性和功能扩展性。可以根据个人需求安装各种插件,如AP管理、搭建内网服务器、自动签到打卡等功能。

配图

2. 小型办公室/远程办公:对于小型办公室或远程办公场景,软路由是一种经济实惠、易于管理且功能强大的选择。它可以提供高级的路由和安全功能,通过软件配置可以满足特定的网络需求,如远程访问、VPN隧道、QoS(Quality of Service)等。

配图

3. 虚拟化环境:软路由在虚拟化环境中具有广泛的应用。通过在虚拟机中运行软路由软件,可以实现虚拟网络的隔离、灵活的网络配置以及虚拟机间的通信控制。软路由还可以与虚拟交换机和网络功能虚拟化(NFV)平台结合使用,提供更高级的网络服务。

配图

三、软路由与硬路由的区别

  1. 硬路由:由厂家提供整体的解决方案,包括硬件和软件。它的配置相对固定,用户无法自行更改硬件参数。硬路由通常具有无线功能,适合普通家庭和企业使用。
  2. 软路由:在电脑主机的基础上配合软件组合成的路由解决方案。它的优势在于扩展性,用户可以根据需要安装各种插件,扩展功能。软路由的硬件参数比硬路由要强,可玩性更高。但安装和管理软路由可能需要一定的网络知识和技能。

可以从以下4个方面对比软路由和硬路由:

特点软路由硬路由
灵活性和可定制性具有更高的灵活性和可定制性。通过软件配置和插件,可以根据特定需求进行自定义设置和功能扩展。功能通常固定,无法进行灵活的定制。
灵活性和可定制性运行在通用计算机平台上,性能可能受到硬件限制,对于高负载和大规模网络场景可能需要更强大的硬件支持。通常具有专用的硬件组件和优化的操作系统,提供更高的性能和扩展性。
成本相对于硬路由来说,成本更低。可以在现有硬件上运行,无需购买专用设备,节省了成本。通常需要购买专用设备,成本较高。
管理和维护可以通过远程管理界面进行配置和管理,相对而言更易于管理。通常需要直接访问设备进行配置和维护。

结论:

总之,软路由适用于DIY玩家、小企业和对网络功能有特定需求的用户。它的稳定性较高,长期运行不需要重启。硬路由则更适合普通家庭和企业使用,操作相对简单,无需过多专业知识。

返回资源中心

 

什么是VXLAN?VXLAN和VLAN有什么区别?


更多相关内容


一、VXLAN的原理

VXLAN是一种网络封装技术,它使用隧道协议将标准以太网帧封装在UDP(User Datagram Protocol)数据包中传输。VXLAN通过在底层网络上创建虚拟网络,将虚拟机(VM)或容器跨物理网络进行通信。它使用24位的VNI(VXLAN Network Identifier)来标识不同的虚拟网络。

VXLAN利用了一个称为VTEP(VXLAN Tunnel Endpoint)的设备,它负责在物理网络和虚拟网络之间进行数据包的封装和解封装。VTEP维护了VNI与MAC地址之间的映射关系,以便正确路由数据包到相应的虚拟机或容器。

VXLAN

二、VXLAN的功能和作用

  1. 扩展性:VXLAN可以扩展现有的以太网架构,提供超过4096个VLAN标识符的虚拟网络。这使得在大规模数据中心中创建和管理多租户环境变得更加容易。
  2. 隔离性:VXLAN通过在底层网络上创建虚拟网络,实现了不同租户之间的逻辑隔离。每个租户都可以拥有自己的虚拟网络,并且它们的通信是相互隔离的,提供了更高的安全性。
  3. 移动性:VXLAN允许虚拟机或容器在物理网络中进行迁移,而无需更改它们的IP地址或VLAN标识符。这使得在数据中心中进行负载均衡、故障恢复和资源调整变得更加灵活和高效。
  4. 跨子网通信:VXLAN可以跨越不同的子网进行通信,克服了传统VLAN在这方面的限制。它可以通过底层网络中的IP隧道实现跨子网的通信,并提供更大的灵活性和可扩展性。

三、VXLAN技术的应用场景

场景1:采用VXLAN技术实现数据中心虚拟机迁移

VXLAN-场景

场景2:园区网络与数据中心VXLAN网络之间的通信

VXLAN-场景

四、VXLAN与VLAN的区别

  1. 标识符数量:VXLAN可以提供超过4096个虚拟网络标识符,而传统VLAN仅限于4096个VLAN标识符。
  2. 隔离性:传统VLAN在逻辑隔离方面存在一定的限制,因为它们共享相同的广播域。而VXLAN通过在底层网络上创建虚拟网络,提供了更好的隔离性和安全性。
  3. 跨子网通信:VXLAN可以轻松地实现跨子网的通信,而传统VLAN必须在同一子网内才能进行通信。
  4. 设备支持:传统VLAN需要支持802.1Q协议的交换机和路由器来实现,而VXLAN需要支持VTEP功能的设备来进行封装和解封装。

结论

VXLAN是一种虚拟扩展局域网技术,通过在底层网络上创建虚拟网络,实现了大规模虚拟化和多租户环境。它具有扩展性、隔离性、移动性和跨子网通信的功能,可以提供更高的灵活性和可扩展性。与传统VLAN相比,VXLAN具有更多的标识符数量、更好的隔离性、跨子网通信的能力,并且需要特定的设备支持。

相关阅读:技术手册-虚拟扩展本地局域网协议VXLAN

下载链接:技术手册-虚拟扩展本地局域网协议VXLAN

返回资源中心

 

Underlay与Overlay有什么区别和联系


更多相关内容


什么是Underlay?

Underlay是现实的物理基础层网络设备。数据中心基础转发架构的网络。

以太网最初设计的时候就是一个分布式的网络架构,没有中心控制节点,网络中的节点通过协议传递学习网络的可达性信息。

Underlay就是数据中心场景的基础物理设施,保证任何两个点路由可达,其中包含了传统的网络技术。

在数据中心强劲生长、快速演变的今天,网络面临种种挑战:

  1. 二层网络范围受限,虚拟机迁移不灵活;
  2. 数据中心交换机地址表项不够;
  3. 数据中心网络的多租户隔离能力不足。

应对这些挑战,Overlay技术可以实现:

  1. 在三层网络中实现二层网络的扩展,路由方式传输,网络架构范围不受限,具备大规模扩展能力,虚拟机迁移不再被限制在 一个较小的局部范围内。
  2. 在三层网络中实现二层网络的扩展,多采用三层互联方式,交换机仅仅需要维护一张本地的MAC地址表,极大降低了承 载网络对MAC 地址表项的需求。
  3. 扩展隔离标识的位数,从12bit到24bit,支持多达16M的用户标识,充分满足当下和未来数据中心多租户的网络隔离能力。

相关阅读:星融元携手商业地产运营商共同进入AI时代 (asterfusion.com)

什么是Overlay?

Overlay是一个基于物理网络之上构建的逻辑网络,是在网络技术领域指的是一种网络架构上叠加的虚拟化技术模式,Overlay网络也是一个网络,不过是建立在Underlay网络之上的网络

Overlay网络节点通过虚拟或者逻辑链路进行通信,其实现基于ip技术的基础网络为主。Overlay网络技术多种多样,一般采用TRILL、VxLan、GRE、NVGRE等隧道技术。

Underlay和Overlay的网络架构图

Overlay主流技术对比

Overlay主流技术对比

Underlay与Overlay的联系

Overlay的实现依赖于Underlay网络,它使用Underlay网络进行数据包的传输。Overlay网络通过在Underlay网络上部署虚拟化设备和服务,实现了对网络流量的控制、管理和优化。

通过Overlay技术,可以在Underlay网络上构建多个逻辑网络,实现不同网络需求之间的隔离和灵活性,并且可以提供更多高级的网络功能,如虚拟专用网络(VPN)、负载均衡等。

Underlay与Overlay的区别

Underlay是底层承载网,Overlay是基于底层网络互联互通的基础上加上隧道技术去构建一个虚拟的网络,例如VPN隧道组成的网络就是Overlay网络。

Underlay的核心是底层网络,Overlay的核心是上层的打隧道(tunnel)。

对比项Underlay网络Overlay网络
数据传输通过网络设备例如路由器、交换机进行传输沿着节点间的虚拟链路进行传输
包封装和开销发生在网络的二层和三层需要跨源和目的封装数据包,产生额外的开销
报文控制面向硬件面向软件
部署时间上线新服务涉及大量配置,耗时多只需更改虚拟网络中的拓扑结构,可快速部署
多路径转发因为可扩展性低,所以需要使用多路径转发,而这会产生更多的开销和网络复杂度支持虚拟网络内的多路径转发
扩展性底层网络一旦搭建好,新增设备较为困难,可扩展性差扩展性强,例如VLAN最多可支持4096个标识符,而VXLAN则提供多达1600万个标识符
协议以太网交换、VLAN、路由协议(OSPF、IS-IS、BGP等)VXLAN、NVGRE、SST、GRE、NVO3、EVPN
多租户管理需要使用基于NAT或者VRF的隔离,这在大型网络中是个巨大的挑战能够管理多个租户之间的重叠IP地址

总结

Underlay网络是底层的物理网络基础设施,而Overlay网络是在底层网络之上创建的虚拟网络。Overlay网络提供了额外的功能和服务,如VPN、VLAN、SDN和云计算中的虚拟化网络。通过Overlay网络,可以实现更好的网络管理、安全性、隔离性和性能优化。

返回资源中心

 

RoCE是人工智能网络的最佳选择吗?


更多相关内容


一提到人工智能网络,很多人就想到InInfiniBand(缩写为 IB),IB是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟,用于计算机与计算机之间的数据互连。InfiniBand 也用作服务器与存储系统之间的直接或交换互连,以及存储系统之间的互连。实际上RDMA作为一种新技术,是人工智能网络的新方向,也逐步被更多人认可。

RDMA技术最早用于IB(Infiniband)组网,以通过构建无损网络实现HPC高性能计算集群的互联。不过,由于IB组网采用专有网络协议栈,存在技术封闭、兼容性低、单一厂商垄断等问题。为此,业界将RDMA技术移植到以太网上,推出了基于以太网的RoCE(RDMA over Converged Ethernet)协议,并将之演进到RoCE v2版本,从而推动了RDMA技术普及。

RoCEv2是什么?

RDMA技术与RoCE网络简介

RDMA (Remote Direct Memory Access)技术是一种基于网络的内存访问技术,它允许内存数据在计算机之间直接传输,而无需CPU或操作系统的参与,解放了内存带宽和CPU周期、改进应用系统性能,使得节点间的通信拥有更低的延迟和更高的吞吐量。目前,RDMA技术被广泛应用于超算、AI训练、存储等多个高性能场景。
RDMA技术实现路线包含以下三种:

  • InfiniBand:最早实现的RDMA技术;
  • RoCE (RDMA over Converged Ethernet):基于普通以太网的RDMA技术;
  • iWARP:即Internet Wide Area RDMA Protocol,基于TCP/IP协议栈的RDMA技术。

RDMA最早是在InfiniBand网络上实现,被广泛应用到高性能计算中、但需要专用的、支持该技术的网卡和交换机,价格非常昂贵。后来为降低RDMA的使用成本、推动RDMA技术普及,发展出了通过以太网承载RDMA的网络协议——iWARP和ROCE,而ROCE 又包括ROCEV1和ROCEV2两个版本。

RoCEv1是基于以太网链路层实现的,通过交换机上PFC等流控技术,在物理层保证可靠传输,而ROCEV2是以太网TCP/IP协议中UDP层实现,解决了扩展性问问题,弥补InfiniBand技术的一些限制,使RDMA技术可以更广泛地应用于数据中心和云计算等领域。同时,RoCEv2技术的发展也可以促进RDMA技术的标准化和推广,从而使RDMA技术更加普及和易于使用。

《关于一键配置ROCE的网络技术白皮书》

1. Asterfusion的解决方案:一键RoCE

为简化无损以太网部署和运维的难度,星融元Asterfusion在AsterNOS网络操作系统上推出“一键RoCE”功能,针对RoCEv2场景的配置需求进行设计规划,实现了业务级的命令行封装,以达到RoCEv2场景下最佳的可维护性和可用性。

2. 功能介绍

2.1 一键启用PFC和ECN,完成无损以太网配置

在没有一键RoCE配置命令行时,一线实施和运维工程师配置无损以太网或者取消配置,需要分别对PFC和ECN功能进行配置,这要求工程师深刻理解以太网的QoS技术和配置逻辑。

有了一键RoCE配置命令行后,工程师可以通过一条命令行完成无损以太网的配置,不需要再使用原子级的命令行,分别对PFC和ECN功能进行配置。

PFC和ECN功能配置

2.2 无损以太网的配置和运行状态,集中展示

以前运维无损以太网时,如果想要进行网络异常定位或者运行状态检查,通常需要到不同命令行视图下进行执行多次show命令,以确定当前的队列映射关系、Buffer使用情况、PFC和ECN在哪个队列中被启用、各种门限的数值、PFC和ECN所在队列的吞吐量、Pause和CNP报文的触发次数等信息。

现在工程师可以通过show roce系列命令行,一键式地查看全局的RoCE信息、端口的RoCE信息和计数,以及对RoCE相关计数进行统一清零。

# 查看RoCE相关的配置信息

命令行

命令行

#查看具体端口的RoCE计数信息

命令行

#清除所有RoCE相关计数
sonic# clear counters qos roce

2.3 不同业务场景下的参数调优

通过一键RoCE命令行,可以快速配置无损以太网,当业务场景不满足于设备提供的默认配置时,工程师还可以通过QoS配置命令行精细化地调试PFC和ECN的各项参数,让业务性能达到最优。

3. 应用场景

3.1 简化高性能计算和存储网络的部署

高性能计算和存储业务场景中,工程师通常对业务非常熟悉,集中精力在服务器侧做配置调优。对于网络,通常提出的要求是“需要一张高可用、高性能的无损以太网”。这种情况,高性能计算和存储工程师,可以通过一键RoCE命令行,快速完成无损以太网配置部署。

这种业务级命令行的封装,将多个原子级命令行进行组合,简化配置流程,节省工程师的时间和精力去完成更有价值的业务侧优化。

3.2 快速定位无损以太网的瓶颈和故障

show roce业务级命令行将多个原子级命令行组合成一个语义完整的业务命令,能把RoCE相关的调试信息组织起来集中展示。

在排查网络故障时,使用show roce一次性查询与无损以太网相关的所有配置信息、运行状态,不需要再逐个执行原子级命令行进行查询。从而简化排障流程,提高排障效率。

结论:人工智能数据中心如何从InfiniBand和RoCE中进行选择?

虽然 InfiniBand 预计将保持领先地位,但根据 Dell’Oro Group 发布的最新 AI Networks for AI Workloads 报告,预计以太网将取得可观的收益,例如到 2027 年将达到 20 个收入分成点。

对于那些在 RoCE 和 Infiniband 之间做出选择的企业,应考虑其独特的要求和成本。如果他们更喜欢最高性能的网络连接,Infiniband 会更好。而对于那些寻求最佳性能、易于管理和有限成本的人来说,他们应该为他们的数据中心选择 RoCE。

最后让我们再看IB和RoCE测试数据的对比:

 InfiniBandRoCE
端对端时延100 ns230~500 ns
流量控制利用基于信用的信令机制来避免缓冲区溢出和数据包丢失,确保HCA到HCA的无损通信。依靠无损以太网,通常通过以太网流量控制或优先级流量控制(PFC)进行配置,以达到与InfiniBand类似的性能特征
转发模式基于本地ID转发基于IP的转发
可扩展性强,Infiniband的单个子网可以支持数以万计的节点。它还提供了一个相对简单且可扩展的体系结构,可以使用Infiniband路由器创建几乎无限的集群大小。强,RoCEv2基于UDP,具有良好的跨网段可扩展性,是一种大规模采用的解决方案。RoCE支持网络拓扑的动态创建和调整,使其能够适应不同规模数据中心的需求。
可靠性通过结合自适应路由的InfiniBand专有协议实现实现了基于IP的ECMP机制。此外,RoCE支持纠错和重传机制,进一步提高了数据传输的可靠性。
成本非常昂贵:服务器需要专用的IB NIC、专用的IB交换机来构建专用网络,通常是普通网络设备成本的五到十倍,并且只考虑在金融和期货交易等高调环境中使用"低成本
高性价比
RoCEv2数据中心交换机
比IB交换机价格便宜很多"

返回资源中心

 

什么是以太网交换机的网络时延?


更多相关内容


网络时延是现代网络的一个重要方面,对数据传输的效率有着深远的影响。以太网时延是一个经常出现的术语,但您对它有深入的了解吗?本文将讨论什么是网络时延、网络时延的原因、如何测量网络时延以及如何使用以太网交换机减少网络时延。请继续阅读,了解更多信息。

什么是网络时延?

网络时延的含义

术语 “网络时延 “是指网络数据传输的时延。以太网交换机时延是指以太网数据包通过网络交换机所需的具体时间。时延时间长的网络称为高时延网络,时延时间短的网络称为低时延网络。

以太网交换机时延可从两个角度来理解–单向时延和往返时延。后者通常用作主要指标,包括以太网数据包从源到目的地所需的总时间。如今,往返时延是一个重要指标,因为设备使用 TCP/IP 网络协议将特定数据发送到目的地,并等待回执后再发送另一个数据。因此,这种方法对网络性能有重大影响。

往返时延

网络时延的意义

随着越来越多的公司进行数字化转型,它们开始采用基于云的应用程序和服务来执行基本业务功能。运营活动还依赖于从连接到互联网的智能设备(统称为物联网 (IoT))上收集的数据。时延会导致效率低下,特别是在依赖传感器数据的实时操作中。此外,即使企业实施了昂贵的网络基础设施,高时延也会降低为提高网络容量所做投资的回报,影响用户体验和客户满意度。

是什么导致了网络时延?

前几节介绍了网络时延的概念。本节将探讨造成时延的原因。造成网络时延的因素很多。以下是可能造成时延的几个潜在因素。

  • 传输介质的影响:由于数据是通过传输介质或链路传输的,因此传输介质或链路对时延的影响很大。例如,光纤网络的时延比无线网络低。同样,每次网络从一种介质切换到另一种介质时,总传输时间都会增加几毫秒。
  • 报头分析:以太网交换机有时需要额外的时间来分析数据包报头细节并纳入重要数据,因此会产生时延。这会导致通过交换机的数据包的遍历时间延长。
  • 与存储相关的数据包时延:当数据包在交换机和网桥等中间设备上遇到存储或磁盘访问时延时,就会出现存储时延。
  • 安全处理时延:网络时延可能受到反病毒和安全进程的影响,这些进程在传输前需要时间完成信息重组和分解。

如何测量时延?

IEEE 规范 RFC2544

IEEE RFC2544 规范为评估存储转发设备的时延提供了一种广为接受的方法。RFC2544 要求时延测试至少重复 20 次,测试结果为所有测试结果的平均值。

Netperf

Netperf 是基于 TCP 或 UDP 传输的网络性能测量工具。Netperf 测试结果反映了一个系统向另一个系统发送数据的速度和另一个系统接收数据的速度。

Ping ping

Ping Pong 是一种用于测量高性能计算集群内时延的方法。这种方法可评估通过消息传递接口(MPI)传输的远程过程调用(RPC)的往返持续时间。

如何利用以太网交换机减少网络时延?

使用以太网交换机最大限度地减少网络时延有多种方法。这些方法包括:

增加网络容量

减少时延和碰撞最直接有效的方法之一是为以太网交换机配备所需的容量。 验证交换机是否具备扩展网络容量的能力非常重要。 确保零数据包丢失的以太网交换机在提高网络性能方面发挥着至关重要的作用。链路聚合控制协议(简称 LACP)是一项标准功能,可通过端口中继提高网络性能。了解产品信息,请访问:https://asterfusion.com/product/cx-n/

使用 VLAN 进行网络划分

鉴于传统的扁平网络往往会导致链路过载,配备 VLAN 功能的以太网交换机可以有效地将流量路由到预定目的地。 一系列第 2 层和第 3 层 VLAN 以太网交换机可根据端口、动态 VLAN 分配、协议、MAC 地址等因素进行流量划分。

实施穿透技术

这种方法与数据包交换系统有关,旨在最大限度地减少网络时延。 直通式交换通过允许交换机在收到完整数据包之前,即在处理目的地址后立即启动数据包转发,从而减少网络时延。 不过,需要注意的是,这种技术只有在端口以相同速度运行时才能发挥最佳功能。

利用 RDMA 减少时延

RDMA 或远程直接内存访问是一种尖端网络技术,它彻底改变了数据传输效率。与涉及 CPU 的传统方法不同,RDMA 实现了网络内计算机内存之间的直接数据交换。这避开了中央处理器,减少了时延,从而加快了实时模拟、数据分析和高性能计算等任务的数据通信。QSFPTEK 的 S5600 和 S7600 系列交换机支持 RDMA,可提供高吞吐量和超低时延。

利用以太网交换机减少网络时延

结论

总之,网络时延对以太网交换机的高效数据传输至关重要。本文旨在阐明以太网交换机中以太网时延的概念,并深入探讨减少时延的策略。虽然不可能完全消除网络时延,但我们的目标是尽可能地减少时延。在当今依赖网络的环境中,了解网络时延的影响并应用缓解策略至关重要。

返回资源中心

 

什么是Ansible Playbook以及如何上手?

更多相关内容


什么是 Ansible Playbook?

Ansible 是 Red Hat(红帽) 推出的一款配置管理工具,能自动完成多台服务器的配置和应用程序的部署,Playbook是任何在 Ansible 平台之上进行配置的核心组件。

Ansible playbook是一个自动化脚本集合,定义了 Ansible 在一台或多台机器上要执行的一系列配置管理工作。管理员无需逐个运行单个 Ansible 命令,而是通过 playbook 简化配置管理工具的使用。熟悉了 Ansible 命令后,你就可以从头开始编写Play(剧本),或从 Ansible 及其用户社区获取预编写的playbook和模块。

Ansible Playbook的组件

Ansible Playbook 由一个或多个 play 组成,而 play 又由各种模块(module)组成。

Playbook 不是标准文本文件,而是 YAML 格式。他们可以定义与托管服务器上的配置相关的工作,IT运维人员会为目标机器创建带有特定环境参数的版本,所以并不存在一个标准版的Playbook。

用 Python 或 PowerShell 编写的脚本(模块)与目标托管服务器的各个方面相关,适用于系统配置的许多方面。包括软件安装和用户管理。模块组件的存在使得Ansible工具非常灵活,不光Ansible本身提供了许多模块,很多Ansible相关的开源社区也提供了丰富的选择。

使用 Ansible playbook

当管理员对目标机器运行 ansible-playbook 命令时,就会执行一个 playbook。

管理员必须使用清单文件(inventory file)来指定Playbook所管理的主机。清单文件包含 Ansible 管理的所有主机列表,可按功能对主机进行分组。例如,管理员可以对一组网络服务器应用一个管理程序,对一组数据库服务器应用另一个管理程序。

要开始使用这些 Ansible 管理程序,首先要确认该工具已安装并正在运行。 发出以下命令运行一个 playbook,其中 myfile 是 YAML 文件名:

发出以下命令运行一个 playbook

Ansible 通过 SSH 与它所管理的机器通信,因此 Ansible playbook 和 Ansible 可执行文件都存储在本地服务器的文件夹中。

使用检查模式和分组

在实际环境执行之前,可以在检查模式下运行playbook,尤其是对于那些刚开始使用 Ansible 的管理人员。此操作会在不修改任何文件的前提下,输出系统在标准模式下运行时会发生的更改,以便于我们及时勘误。
要使用检查模式,可添加 –check 指令:

添加 --check 指令

要检查语法是否有误:

检查语法

管理员可以根据主机的功能或其他层次结构,将类似的主机归为一组,并只对组内的主机执行操作。例如,分隔不同主机组确保只有网络服务器运行最新版本的 Apache,排除了数据库服务器。

所有主机都存储在名为 /etc/ansible/hosts 的本地 Ansible 清单文件中。虽然管理员可以更改主机信息的存储位置,但该位置是默认设置(建议不要更改)。如果该文件经常更改,请使用版本控制功能。

星融元网络操作系统AsterNOS对Ansible的支持

在实际部署使用中,如果对应设备的软件版本没有提供现成的Ansible插件/模块,则需要对其进行二次开发。设备能否被顺利集成完全取决于运维人员的研发能力。

AsterNOS是星融元开发的一款功能强大的企业级SONiC发行版,稳定兼容几乎所有主流商业交换芯片,已在全球有着数万台的商业拷贝。作为一款为云计算时代构建的新一代NOS,AsterNOS具备开放、开源、以业务为中心的特点,完全顺应NetDevOps理念。

AsterNOS对Ansible的支持

我们的官方模块集合 Asterfusion AsterNOS Collection 现已正式上线,目前已完成cliconf插件和asternos_command模块的开发适配。我们将为其持续提供开发更新。

更多相关信息请访问星融元的Ansible Galaxy主页查看,欢迎各位运维工程师下载体验,与我们深度交流!

项目主页地址:https://galaxy.ansible.com/asterfusion

返回资源中心

 

承载AI计算的数据中心网络和传统数据中心有何不同?

更多相关内容


生成式AI正在风靡全球,不少企业开始研究如何在其业务流程中采用人工智能技术,更有一些企业客户开始考虑在数据中心和私有云中部署自己的AIGC和 GPU 扩展网络。从网络角度来看,用于承载这类业务的数据中心与传统的数据中心有很大不同,它甚至与用于高性能计算 (HPC) 的数据中心也有所区别。

分析AI训练数据的一半时间消耗在网络上

尽管人们都在关注使用GPU服务器处理数据的用时,但实际上人工智能数据的一半处理过程都发生在网络中。所以,我们需要更加关注数据中心网络所能提供的速度和灵活性,以避免其成为整个数据中心的性能瓶颈。

构建高度可扩展的网络是AI数据中心的关键所在,考虑到未来的增长能力,网络交换架构必须包括横向和纵向扩展的硬件,网络操作系统需要带有应对数据包突增、负载平衡和智能流量重定向等数据中心高级功能,这样才可在AIGC网络内超负荷的 GPU 处理单元之间智能地重新路由流量。

工作负载数变少,但规模更大了

与致力于将网络延迟降至超低水平的高性能计算不同,人工智能数据中心的建设必须侧重于高吞吐能力。高性能计算网络旨在同时传输数千个工作负载,并要求将延迟降至最低,而人工智能工作负载的数量要少得多,但规模却大得多。

从速度的角度来看,对于AIGC网络来说,网络吞吐量比网络延迟更重要。如此,用于 HPC 的 InfiniBand 网络结构所具有的超低延迟优势已被削弱,而由于以太网标准具有更高的吞吐能力和更高的性价比,使用吞吐量更高的以太网网络可能很快就会成为常态。

网络部署需要更适应高密度连接

为生成式AI计算部署高密度 GPU 机架并非易事,首先网络布线的难度变大,此外还需要高达四倍的交换机端口密度。根据 Dell’Oro Group 的一份研究报告,到 2027 年,多达 20% 的数据中心交换机端口将分配给 AI 服务器。电源和冷却系统可能也都需要进行对应的调整才能适应更高的密度。

使用多站点或微型数据中心或许是适应这种密度的最佳选择。然而这也给连接这些站点的网络带来了压力,即要求网络尽可能具有更高的传输性能和扩展性。

网络的自动化编排和运维成为必备条件

承载AI的数据中心网络错综复杂,需要为此专门优化性能和提高可靠性,因此我们不应继续使用传统的命令行和第三方性能监控工具来管理 AIGC 网络。相反,企业应该部署一个网络编排平台,从一开始就在控制平面架构中提供一些有用的功能和性能洞察。

编排平台可提供多种优势,大大增强数据中心的管理能力:

  • 自动创建数据中心Underlay网络,大大减少网络开局和网络安全策略所需的时间。
  • 创建直观、自动化的Overlay网络和持续的 NetOps 管理。借助图形用户界面,管理平台可让网络管理员一站式地创建网络和网络安全策略,并自动将命令推送到需要的数据中心交换机而无需学习复杂的命令行。并且策略的创建基于系统内的标准模板,在很大程度上可以消除手动配置错误。
  • 提高性能和网络可视化程度。网络自动化工具还可使用多种传统和现代方法从网络交换硬件中收集和分析交换机健康状况和性能数据。收集和分析网络遥测数据是目前最新的方案:在这种情况下,交换机被配置为使用 gNMI 和 NETCONF 等专用协议标准向协调器发送实时性能测量数据。
  • 与传统的网络监控协议(如SNMP)相比,这些协议功能强大得多,有助于主动识别网络中存在的性能问题,在造成网络瘫痪或中断之前就开始补救。

附录:星融元AIGC网络建设实践方案

方案详情请参阅:客户案例:高性能、大规模、高可靠的AIGC承载网络 (asterfusion.com)

AIGC承载网方案架构图

  • 超低TCO、超高性价比:相较于IB网络方案,大幅度降低用户的网络TCO,同时确保超高性能
  • 横向平滑扩容、1:1收敛无阻塞:无收敛的网络设计确保无阻塞的大容量网络,按需横向扩展
  • 整网RoCEv2:基于CEE/DCB能力,提供可与IB媲美的性能和同样无损的网络服务
  • 开放网络操作系统:星融元网络操作系统AsterNOS,SONiC企业级发行版,支持灵活的功能扩展、在线升级
  • 无缝对接云管:AsterNOS 利用简单易用的REST API,可轻松让第三方的云平台/控制器快速纳管
  • 专家级服务:专业、全面、可靠的研发、方案与服务团队,为客户提供小时级的快速响应服务

返回资源中心

 

公有云还是自建私有云?企业如何计算云的总体拥有成本(TCO)

更多相关内容


要估算购买一定数量的云计算和存储所需的成本并不难——毕竟,供应商会公开列出他们的基本价格。但是,如果企业想真正了解云计算的运营成本,就需要对计划部署的资源有更全面的了解。企业尤其希望在云迁移之前估算云成本,以帮助更好地了解与继续在企业内部运行这些工作负载相比的经济效益。

常见的云成本考虑因素

在云中运行工作负载涉及多种类型的成本。这些成本包括但不限于以下方面:

  • 应用程序迁移(重新托管、重构或重新设计);
  • 基于基础设施的资源(计算实例大小、数据存储要求以及网络和 SaaS 使用量);
  • 云服务之间的数据传输成本;
  • 跨区域或可用性区域的数据重复;
  • 未来使用量/工作量的长期增长。

在总体拥有成本模型中,还需要考虑和核算一些无形成本,如风险管理、灵活性和可扩展性,这些成本可能难以量化,但在更大的成本范围内却非常重要。

其中一些成本,如风险管理和安全的特定方面,部分由云服务提供商(CSP)承担。其他一些成本,如灵活性和机会成本则由企业承担,会影响企业投资其他业务领域的能力。

用于数据中心科普文章的配图如何计算公有云方案和与本地私有云的总体拥有成本(TCO)?

要计算企业的云计算总体拥有成本,首先要比较在企业本地和在云中运行相同工作负载的成本。您还必须了解您的应用程序所需的全部功能,特别是其安全要求和其他可能增加大量成本的地方

无论是向云迁移还是新建应用,企业都需要对其预计的云总体拥有成本有一个准确的把握。

了解云计算的财务模型

在比较企业内部部署基础设施和主机托管服务(如 IaaS)时,使用率和时间是最重要的变量。通常情况下,企业本地部署IT资源的价值会随着账期的延长和利用率的提高而增加。但这不适用于云资源,因为云资源是按消耗量收费的。

要了解云的财务模型,第一步是指定一个统一的单位,以便在总拥有成本比较中将数据标准化。物理服务器、虚拟服务器或千兆字节的存储。标准单位既适用于企业内部资产,也适用于云资产。在本文中,我们假设您希望迁移到云提供商的基础设施,而不是为 PaaS 或无服务器配置重构应用程序。

接下来,计算平均资源单元的大小。例如,这个值可以是将所需的vCPU 和 RAM 除以VM数量。此外还应将网络和安全等相关服务考虑在内,以确保计算的准确性。

最后还需要模拟工作负载的预计增长率。增长率越高,意味着这项业务对标准化和自动化的依赖程度越高,在它规模化部署之后的总体成本会下降。相反,低增长率的工作负载并不适合云计算,因为企业无法充分利用云计算的弹性和按需付费的特性去节约成本。

深入研究TCO模型

确定工作量需求后,确定建模期限的起始月份。一般是从第二个月开始建立模型,根据第一个月的预计使用需求,决定起始容量。然后确定建模期结束时的最佳容量利用率和资源单位(将大容量利用率的上限通常设定为 80% 至 90%)。

考虑任何基础设施开销和管理要求。例如,包括任何已经到位的服务管理工具和网络安全防御措施。您需要将内部安全和管理系统的成本与完成相同工作所需的云服务成本进行比较。这种开销会降低贵公司向客户销售收费应用程序的创收能力。

IT 供应商通常为内部部署硬件指定最长三年的定价折扣。我们可以以月为单位进行分析,并创建相应的模型——这是因为较长的总体时间框架会影响云计算 TCO 分析中折旧部分。

最后,确定每月的使用量,记录公司计划使用的云服务。这样做的目的是记录服务的潜在使用情况,以便预测成本。(生产系统的典型使用率是 100%,因为这些应用程序会持续运行。相反,测试和开发系统的最高使用率则较低,毕竟团队每天只在工作时间使用)。

用于数据中心科普文章的配图洞察成本构成

要了解构成您现有本地基础设施部署支出的细枝末节,并考虑这些支出将如何转换到云中。

首先从硬件开始,这通常属于资本支出(CAPEX)。本地部署的软件大多也属于资本支出,但也可以作为运营支出计费,如数据库。硬件和软件维护也是总拥有成本中需要考虑的成本因素。

另外还需评估 CSP、软件供应商或外包专业服务公司的一次性安装费用。这些费用可能包括雇人构建云环境或将内部资产转移到公共云所需的费用。如果您的公司在公共部门或任何其他受严格监管的行业工作,则可能需要更多的前期费用,以支付应用程序部署到云之前必须满足的各种安全要求。

您还需要计算经常性开支,如运营和维护的人工成本。如果您拥有混合云环境,则应将数据中心的电力消耗成本纳入云计算的总体拥有成本。您可能还需要考虑前期成本和资本支出中未包含的容量利用支出。例如,随着用户群的不断扩大,软件许可费用可能会根据您部署的虚拟机数量而增加。

对潜在成本进行分类

到目前为止,我们讨论过的各种成本构成可以分为三类。对于每一类,企业可能都有一个或多个成本组成部分需要考虑:

  • 实体设备。作为成本组成部分,这包括托管虚拟服务器的内部物理服务器。它还包括支持这些物理服务器所需的机架数量。
  • 管理。这包括支持管理所需的任何成本组成部分。例如,AWS 用户可能会选择由服务级别协议支持的基于结果的管理服务,如 AWS 业务支持或企业支持计划。
  • 产业化成本(进入生产应用阶段的成本)。包括支持研究、开发、自动化、文档或培训的任何成本组成部分。产业化背后的成本效益很难量化,因此许多 TCO的比较都低估了这一类别的价值,这也是云计算支出充满意外的主要原因。例如,向云迁移或建设新云的预算可能无法准确反映自动化的云管理和运营任务所需的工作。

对于每个成本类别,确定总成本是否使用由通用容量变量定义的相同归一化分母。

总结:公有云还是本地私有部署?

在定义本地私有部署方案的价值驱动因素时,请仔细研究单位资源成本中的最大利用率和常规利用率,并进行量化比较。利用率是指服务器、网络和其他基础设施用于提供服务的总体程度。服务器或路由器等内部资产的使用时间越长,您从中获得的价值就越大。不过,使用时间越长,运营和维护成本也会随之增加。

上云并不一定更便宜,成本不应该是唯一的决定因素。不过如果您了解云计算的总体拥有成本,就能更好地做出明智的云决策。在确定云计算的价值驱动因素时也要特别考虑利用率因素,如虚拟机每天运行多少小时、存储消耗、可用性和安全性。云计算的 “即用即付 “模式提供了一定的经济效益,因为它使资源管理更加灵活,并能让员工腾出时间处理其他重要任务。


降低云计算总体拥有成本的方法

您可以采取以下措施来降低长期云成本:

  • 从配置到监控,采用更多自动化技术。
  • 设计具有明确灵活性和自动扩展空间的应用程序。
  • 消除闲置或放弃的资源和服务。
  • 从按需定价转向基于消费的定价以及计划或预留实例。

相关阅读:企业私有云网络解决方案

返回资源中心

 

P4交换机

更多相关内容


可编程交换机和OpenFlow

目前的专用交换芯片(ASIC)的设计面向标准2/3层的数据包的转发操作,虽然软件定义网络(SDN)的发展为其提供一定灵活性(通过将控制平面独立出来,消除对交换和路由协议的依赖)但转发仍基于固定的数据包格式。

OpenFlow 协议定义了控制平面和数据平面之间的网络可编程接口,但对比起数据平面可编程的交换机,其灵活性和性能还是相距甚远。

例如,SDN 控制器可以使用 OpenFlow 协议,根据数据包中的附加字段(如老化时间或 IP 数据包选项字段中的值等),指示应将具有指定源 IP 地址和目标 IP 地址的数据包转发到某个端口。

而支持数据平面可编程交换机,可以使用L2/3数据包字段值以外的标准转发数据包。它能通过从不同端口发送具有相同参数的数据包来实现负载平衡。例如,它还可以根据通过交换机的数据包速率实施其他类型的策略,或者以任意格式封装数据包——根据任意帧格式转发数据包的能力对于支持非 IP 协议(例如某些物联网设备使用的一些协议)非常有用,具有可编程数据平面的交换机就可以转发这些数据包,并将其修改为通过 IP 网络发送。

P4语言与可编程数据平面的结合

为配置可编程数据平面,我们有一种专门的编程语言: 独立于协议的数据包处理器编程语言(P4)。这是一种开源语言,由 P4 语言联盟维护。P4 独立于转发硬件设计,因此必须开发专门针对硬件的编译器,才能将 P4 语句转换为硬件。

P4 程序由一组表组成,这些表指定了数据包中的字段以及要对这些字段执行的操作。解析器扫描接收到的数据包,直到与表项中的模式匹配,然后执行相关操作。P4程序没有定义的字段或操作集,因此 P4 程序员可以自由创建。

当然可编程数据平面并不是唯一支持非 IP 协议的方法,芯片为可以支持任何协议或应用而设计,但那也仅限于该应用,并且开发半导体是一个耗时且昂贵的过程。所以,可编程数据平面与 P4 编程语言的结合,为处理新协议和现有协议的新要求提供了更高效、更灵活的方式。

P4交换机与DPU的结合

Asterfusion X-T 系列是一款出色的 P4 交换机,旨在将高性能交换可编程性和 DPU 的基于状态的处理能力结合在一起,这在网络历史上尚属首次。Asterfusion 将 tofino 交换机上基于 P4 的数据路径与 ARM64 DPU 上基于 DPDK 的流量处理相结合,帮助应用于负载平衡、NAT 和 NVMEoF等场景。

产品详情:X-T系列:全开放、可编程、高性能的P4可编程硬件平台 – 星融元Asterfusion

P4可编程硬件平台产品开箱图

返回资源中心

 

对星融元产品感兴趣?

立即联系!

返回顶部

© 星融元数据技术(苏州)有限公司 苏ICP备17070048号-2