网络

介绍Citrix Hypervisor的组网,包括网络、vlan和网卡绑定。本文还讨论了如何管理您的网络配置并对其进行故障排除。

重要的是:

vSwitch是Citrix虚拟化环境默认的网络栈。按照vSwitch网络配置Linux网络栈。

如果您已经熟悉Citrix Hypervisor网络概念,可以跳到管理网络有关以下部分的资料:

  • 为独立的Citrix Hypervisor服务器创建网络

  • 创建跨Citrix Hypervisor服务器的专用网络

  • 为资源池中配置的Citrix Hypervisor服务器创建网络

  • 为Citrix Hypervisor服务器创建vlan,可以是独立的,也可以是资源池的一部分

  • 为独立的Citrix Hypervisor服务器创建绑定

  • 该任务指导管理员为资源池中配置的Citrix Hypervisor服务器创建绑定

注意:

术语“管理接口”用于表示承载管理流量的启用ip的网卡。“从接口”是指为存储流量配置的支持ip的网卡。

网络支持

Citrix Hypervisor支持每台主机最多16个物理网络接口(或最多4个绑定网络接口),每台虚拟机最多7个虚拟网络接口。

注意:

Citrix Hypervisor通过xe命令行接口提供网卡的自动化配置和管理。请勿直接编辑主机组网配置文件。

vSwitch网络

vSwitch网络支持开放流。

  • 支持细粒度的安全策略,控制进出虚拟机的流量。

  • 提供对虚拟网络环境中发送的所有流量的行为和性能的详细可见性。

虚拟交换机极大地简化了虚拟化网络环境中的IT管理。当虚拟机从资源池中的一台物理主机迁移到另一台物理主机时,虚拟机的所有配置和统计信息仍然与该虚拟机绑定。

要确定配置了哪些网络堆栈,请执行以下命令:

Xe主机列表参数=软件版本

在命令输出中查找network_backend。当vSwitch配置为网络堆叠时,回显如下:

Network_backend: openvswitch 

当配置Linux网桥为网络栈时,显示如下:

Network_backend: bridge 

使用实例恢复到Linux网络栈。

交换机-网络-后端网桥

运行此命令后重新启动主机。

Citrix Hypervisor组网概述

介绍Citrix Hypervisor环境下组网的一般概念。

Citrix Hypervisor在安装时为每个物理网卡创建了一个网络。当向池中添加服务器时,默认网络被合并。这是为了确保所有具有相同设备名称的物理网卡都连接到相同的网络。

通常,您可以通过添加网络来创建内部网络、使用现有网卡设置新VLAN或创建网卡绑定。

您可以在Citrix Hypervisor中配置四种不同类型的网络:

  • 外部网络关联物理网络接口。外部网络提供了虚拟机和连接到网络的物理网络接口之间的桥梁。外部网络使虚拟机能够通过服务器的物理网卡连接到可用的资源。

  • 结合网络在两个或多个网卡之间创建绑定,以便在虚拟机和网络之间创建单个高性能通道。

  • 单服务器专网没有与物理网络接口关联。单服务器专用网络可用于提供给定主机上的虚拟机之间的连接,而无需连接到外部世界。

注意:

与资源池相比,使用独立Citrix Hypervisor服务器时,一些网络选项具有不同的行为。本节包含适用于独立主机和池的一般信息,然后是各自的特定信息和过程。

网络对象

本节使用三种类型的服务器端软件对象来表示网络实体。这些对象是:

  • 一个论坛,表示主机的物理网卡。PIF对象有名称和描述、UUID、它们所代表的网卡的参数,以及它们所连接的网络和服务器。

  • 一个VIF,表示虚拟机上的虚拟网卡。VIF对象有名称和描述、UUID以及它们所连接的网络和虚拟机。

  • 一个网络,即主机上的虚拟以太网交换机。网络对象具有名称和描述、UUID以及连接到它们的vif和pif集合。

通过XenCenter和xe CLI可以配置网络选项。您可以控制管理操作使用的网卡,并创建vlan、网卡绑定等高级网络特性。

网络

每个Citrix Hypervisor服务器有一个或多个网络,这些网络是虚拟以太网交换机。不与PIF相关联的网络将被考虑内部。内部网络只能用于提供给定Citrix Hypervisor服务器上的虚拟机之间的连接,而不能连接到外部世界。考虑与PIF相关联的网络外部。外部网络在vif和连接到网络的PIF之间提供了一个桥接,从而可以通过PIF的网卡连接到可用的资源。

vlan

vlan是由IEEE 802.1Q标准定义的,它允许一个物理网络支持多个逻辑网络。Citrix Hypervisor服务器通过多种方式支持vlan。

注意:

所有支持的VLAN配置同样适用于池和独立主机,以及绑定和非绑定配置。

对虚拟机使用vlan

交换机端口配置为802.1Q VLAN trunk端口后,可以使用Citrix Hypervisor的VLAN特性将vif (guest virtual network interface)连接到指定的VLAN。在这种情况下,Citrix Hypervisor服务器为客户机执行VLAN标记/取消标记功能,客户机不知道任何VLAN配置。

Citrix Hypervisor的VLAN由额外的PIF对象表示,这些PIF对象表示与指定VLAN标签对应的VLAN接口。您可以将Citrix Hypervisor网络连接到代表物理网卡的PIF,以查看网卡上的所有流量。或者,将网络连接到表示VLAN的PIF上,只查看带有指定VLAN标签的流量。您还可以通过将网络附加到VLAN 0来连接网络,使其只看到本机VLAN流量。

有关如何为Citrix Hypervisor服务器(无论是独立服务器还是资源池的一部分)创建vlan的过程,请参见创建vlan

如果希望客户机执行VLAN标记和取消标记功能,那么客户机必须知道VLAN。在为虚拟机配置网络时,将交换机端口配置为VLAN trunk端口,不为Citrix Hypervisor服务器创建VLAN。相反,应该在普通的非vlan网络中使用vif。

与管理接口使用vlan

管理接口可以通过配置为trunk端口或access模式端口的交换机端口配置到VLAN中。使用XenCenter或xe CLI配置VLAN,并将其设置为管理接口。有关更多信息,请参见管理界面

使用专用存储网卡的vlan

存储专用网卡可以配置为管理接口使用本机VLAN或access模式接口。专用存储网卡也称为ip网卡或从接口。对于虚拟机,可以配置专用的存储网卡,使其使用trunk端口和Citrix Hypervisor的vlan。有关更多信息,请参见配置存储专用网卡

在单个主机网卡上合并管理接口和来宾vlan

一个交换机端口既可以配置trunk VLAN,也可以配置本机VLAN,这样就可以使用一个主机网卡作为管理接口(在本机VLAN上),并将客户vif连接到特定的VLAN id。

巨型帧

使用大帧可以优化存储流量的性能。巨型帧是包含超过1500字节负载的以太网帧。巨型帧通常用于实现更好的吞吐量,减少系统总线内存上的负载,并减少CPU开销。

注意:

Citrix Hypervisor仅在池中所有主机使用vSwitch作为网络堆栈时才支持巨型帧。

使用巨型框架的要求

客户在使用大型框架时必须注意以下事项:

  • 巨型帧在池级别配置

  • 所有主机必须将vSwitch配置为网络后端

  • 子网上的每个设备都必须配置为使用巨型帧

  • 在专用存储网络上启用巨型帧(推荐)

  • 在Management网络上启用巨型帧是不支持的配置

  • 虚拟机不支持使用巨型帧

如果需要使用巨型帧,请将MTU (Maximum Transmission Unit)设置为1500 ~ 9216之间的值。可以通过XenCenter或xe命令行设置MTU。

NIC债券

网卡绑定(有时也称为网卡组队)使管理员能够同时配置两个或多个网卡,从而提高Citrix Hypervisor服务器的弹性和带宽。网卡绑定逻辑上作为一张网卡,所有绑定的网卡共享MAC地址。

当绑定网卡中的一块网卡故障时,主机的网络流量会自动从第二块网卡重定向。Citrix Hypervisor最多支持8个bonding网络。

Citrix Hypervisor支持双活、主备和LACP三种bonding模式。根据网络堆叠不同,支持的网卡数量和bonding模式不同:

  • LACP绑定只支持vSwitch,而vSwitch和Linux bridge都支持active-active和active-passive。

  • 当vSwitch为网络堆叠时,可以绑定2、3或4个网卡。

  • 当Linux网桥为网络栈时,只能绑定两个网卡。

在下面的示例中,管理接口位于一对绑定的网卡上。Citrix Hypervisor使用此绑定进行流量管理。

此图显示了一台主机,它在绑定上有一个管理接口,并为来宾流量绑定了两对网卡。除管理接口绑定外,Citrix Hypervisor使用另外两个网卡绑定和两个未绑定的网卡用于虚拟机流量。

所有的绑定模式都支持故障切换。但是,并非所有模式都允许所有链路对所有流量类型都处于活动状态。Citrix Hypervisor支持以下类型的网卡绑定:

  • nic(非管理)。Citrix Hypervisor单独用于虚拟机流量的网卡可以绑定。绑定这些网卡不仅可以提供弹性,还可以平衡多个虚拟机在网卡之间的流量。

  • 管理接口。您可以将管理接口绑定到另一张网卡上,以便第二块网卡为管理流量提供故障切换。配置LACP链路聚合bonding功能可以实现管理流量的负载分担,但配置网卡双活bonding功能不能实现管理流量的负载分担。可以在绑定网卡上创建VLAN,主机管理接口可以加入该VLAN。

  • 二次接口。您可以将已配置的网卡绑定为辅助接口(例如,用于存储)。但是,对于大多数iSCSI软件启动器存储,我们建议配置多路径,而不是按照设计Citrix Hypervisor网络配置中的描述配置网卡绑定。

    在本节中,基于ip的存储流量是iSCSI和NFS流量的统称。

如果一个VIF已经在使用将要绑定的接口之一,则可以创建绑定:虚拟机流量自动迁移到新的绑定接口。

在Citrix Hypervisor中,一个额外的PIF表示一个网卡绑定。Citrix Hypervisor网卡绑定完全包含底层物理设备(pif)。

注:

  • 不支持单网卡绑定。
  • 绑定的网卡型号可以不同。
  • 承载FCoE流量的网卡不支持绑定。

关于IP寻址的要点

绑定网卡可以只有一个IP地址,也可以没有IP地址,具体情况如下:

  • 管理和存储网络

    • 如果绑定管理接口或从接口,则为其分配单个IP地址。即每个网卡没有单独的IP地址。Citrix Hypervisor将两个网卡视为一个逻辑连接。

    • 当非虚拟机流量需要使用bonding功能时,例如接入共享网络存储或XenCenter进行管理时,需要为bonding功能配置IP地址。但是,如果您已经为其中一个网卡分配了IP地址(即创建了管理接口或从接口),则该IP地址将自动分配给整个绑定网卡。

    • 如果将管理接口或备用接口绑定到未配置IP地址的网卡上,则绑定后的管理接口或备用接口将使用相应接口的IP地址。

    • 如果将带标签的VLAN管理接口与从接口绑定,则管理VLAN将创建在绑定的网卡上。

  • 虚拟机网络。当虚拟机流量使用绑定网卡时,不需要配置绑定网卡的IP地址。这是因为bond在OSI模型的第2层(数据链路层)运行,并且在这一层不使用IP寻址。虚拟机的IP地址与vif相关联。

成键类型

Citrix Hypervisor提供了三种不同类型的绑定,它们都可以使用CLI或XenCenter进行配置:

注意:

绑定设置的up延迟为31,000 ms, Down延迟为200 ms。看起来很长的Up延迟是故意的,因为一些交换机启用端口需要时间。在没有延迟的情况下,当一条链路在故障后恢复时,绑定可以在交换机准备好通过流量之前将流量重新平衡到它上面。要将两个连接移动到不同的交换机,移动一个,然后等待31秒,等待它再次被使用,然后移动另一个。有关更改延迟的信息,请参见改变债券的上行延迟

债券状况

Citrix Hypervisor在每个主机的事件日志中提供bond的状态。如果绑定中的一个或多个链接失败或恢复,则会在事件日志中记录。方法查询绑定链接的状态连接起来参数,示例如下:

Xe bond-param-get uuid=bond_uuid param-name= linkup 

Citrix Hypervisor大约每5秒检查一次绑定中的链路状态。因此,如果在5秒的窗口内绑定中有更多的链路失败,则在下一次状态检查之前不会记录该失败。

绑定事件日志出现在“XenCenter logs”页签中。对于没有运行XenCenter的用户,事件日志也会显示在/var/log/xensource.log在每个主机上。

主键

双活是客户流量的主/主配置:两个网卡可以同时路由虚拟机流量。当绑定用于流量管理时,只有绑定中的一张网卡可以路由流量,另一张网卡不使用,并提供故障切换支持。双活模式是启用Linux bridge或vSwitch网络堆栈时的默认绑定模式。

Linux网桥使用双活绑定时,只能绑定两个网卡。当使用vSwitch作为网络堆叠时,支持2、3或4个网卡的双活模式绑定。但是,在双活模式下,绑定3个或4个网卡只对虚拟机流量有利,如下图所示。

此图显示了绑定四个网卡如何只能使来宾流量受益。管理网络的上图中,网卡2为主用网卡,网卡1、3、4为被动网卡。对于虚拟机流量,绑定的4个网卡均为活动网卡。但是,这假设至少有4个虚拟机。存储流量中只有11号网卡是主用的。

当绑定的MAC地址不止一个时,Citrix Hypervisor只能通过两个或两个以上的网卡发送流量。Citrix Hypervisor可以使用VIF中的虚拟MAC地址跨多个链路发送流量。具体地说:

  • 虚拟机流量。当只承载虚拟机(访客)流量的网卡开启绑定功能时,所有链路都是活动的,网卡绑定可以实现虚拟机流量在网卡间的均衡。单个VIF的流量永远不会在nic之间分割。

  • 管理或存储流量。bond中只有一个链路(网卡)处于活动状态,其他网卡不使用,除非业务切换到这些链路(网卡)。在绑定网络中配置管理接口或从接口可以提供弹性。

  • 混合交通。如果绑定网卡同时承载基于ip的存储流量和来宾流量,则只有来宾域和控制域的流量负载均衡。控制域本质上是一个虚拟机,因此它像其他来宾机一样使用网卡。Citrix Hypervisor均衡控制域流量的方式与均衡虚拟机流量的方式相同。

流量平衡

Citrix Hypervisor根据报文的源MAC地址进行流量均衡。由于管理流量只有一个源MAC地址,双活模式只能使用一个网卡,流量不均衡。流量均衡基于两个因素:

  • 虚拟机及其关联的VIF发送或接收流量

  • 发送的数据量(以千字节为单位)。

Citrix Hypervisor评估每个网卡发送和接收的数据量(单位为千字节)。如果通过一个网卡发送的数据量超过了通过另一个网卡发送的数据量,Citrix Hypervisor会重新平衡哪些vif使用哪些网卡。VIF的整个负载被转移。一个VIF的负载永远不会在两个网卡之间分配。

双活网卡绑定可以实现多个虚拟机流量的负载均衡,但无法为单个虚拟机提供两个网卡的吞吐量。任何给定的VIF一次只使用绑定中的一个链接。由于Citrix Hypervisor会周期性地重新均衡流量,因此vif不会永久地分配给绑定中的特定网卡。

双活模式有时被称为SLB (Source Load Balancing)绑定,因为Citrix Hypervisor使用SLB在绑定的网络接口之间分担负载。负载均衡源自开源的自适应负载均衡(ALB)模式,并重用ALB功能来动态地平衡网卡上的负载。

在重新平衡时,在给定的时间段内跟踪通过每个辅助(接口)的字节数。如果报文中有新的源MAC地址,则分配给利用率最低的从接口。交通每隔一段时间就会重新平衡。

每个MAC地址都有对应的负载,Citrix Hypervisor可以根据虚拟机发送和接收的数据量在网卡之间转移整个负载。对于双活流量,一个虚拟机的所有流量只能发送到一个网卡上。

注意:

双活绑定不需要交换机支持EtherChannel和802.3ad (LACP)协议。

主被动结合

主备bond模式下,流量只能通过其中一个网卡路由。如果主网卡失去网络连接,流量将切换到绑定的另一张网卡。主备绑定通过主网卡路由流量。当主用网卡故障时,流量会转移到备用网卡。

主备绑定在Linux网桥和vSwitch网络堆栈中可用。使用Linux桥接时,可以将两个网卡绑定在一起。与vSwitch一起使用时,只能绑定2、3或4个网卡。但是,无论哪种流量类型,主备绑定时,只有一条链路是主用链路,链路之间不存在负载分担。

如下图所示,两个bonding网卡配置为主备模式。

该图显示了以主-被动模式绑定的两个网卡。网卡1处于激活状态。绑定包括一个用于故障转移的网卡,该网卡连接到第二台交换机。该网卡仅在第一块网卡故障时使用。

双活模式是Citrix Hypervisor默认的绑定配置。通过命令行方式配置绑定时,必须指定主备模式的参数。否则,创建双活绑定。当网络承载管理流量或存储流量时,不需要配置主备模式。

主-被动式弹性可以是一个很好的选择,因为它提供了几个好处。通过主备绑定,流量不会在网卡之间来回移动。类似地,主-被动绑定允许您配置两个交换机以实现冗余,但不需要堆叠。如果管理交换机坏了,堆叠交换机可能成为单点故障。

主备模式不需要交换机支持EtherChannel和802.3ad (LACP)协议。

当您不需要负载均衡或仅打算在一个网卡上发送流量时,请考虑配置主备模式。

重要的是:

在创建vif或池投入生产之后,要小心更改键或创建键。

LACP链路聚合控制协议是一种绑定类型,它将一组端口捆绑在一起,并将其视为单个逻辑通道。LACP绑定提供故障转移,可以增加可用带宽的总量。

与其他bonding模式不同,LACP bonding模式需要配置链路的两端:在主机上创建一个bond,在交换机上为每个bond创建一个Link Aggregation Group (LAG)。看到交换机配置LACP bonding功能。使用LACP bonding功能时,必须将vSwitch配置为网络堆叠。此外,交换机必须支持IEEE 802.3ad标准。

双活SLB bonding和LACP bonding的比较:

负载均衡双活绑定

好处:

  • 可以与硬件兼容性列表上的任何开关一起使用。
  • 不需要支持堆叠的交换机。
  • 支持4网卡。

注意事项:

  • 最佳负载均衡要求每个VIF至少有一个网卡。
  • 存储流量和管理流量不能划分在多个网卡上。
  • 只有当存在多个MAC地址时,才会出现负载均衡。

LACP键

好处:

  • 无论流量类型如何,所有链路都可以激活。
  • 流量分担不依赖于源MAC地址,可以实现所有类型的流量分担。

注意事项:

  • 交换机必须支持IEEE 802.3ad标准。
  • 需要开关侧配置。
  • 仅支持vSwitch。
  • 需要单交换机或堆叠交换机。

流量平衡

Citrix Hypervisor支持两种LACP绑定哈希类型。术语哈希描述了网卡和交换机如何分配流量-(1)基于源和目的地址的IP和端口的负载均衡;(2)基于源MAC地址的负载均衡。

根据散列类型和流量模式的不同,LACP绑定可能比双活网卡绑定更均匀地分配流量。

注意:

您可以在主机和交换机上分别配置进出流量的设置:配置不必在两端都匹配。

基于源地址和目的地址的IP和端口进行负载均衡

这种哈希类型是缺省的LACP绑定哈希算法。如果源或目标IP或端口号存在变化,则来自一个客户机的流量可以分布在两个链路上。

如果一个虚拟机正在运行几个使用不同IP或端口号的应用程序,这种散列类型将流量分配到几个链路上。分配流量使客户机有可能使用总吞吐量。这种散列类型允许一个客户机使用多个nic的全部吞吐量。

如下图所示,这种散列类型可以将虚拟机上两个不同应用程序的流量分配到两个不同的网卡。

如果使用LACP绑定并启用LACP,将基于源端口和目的端口的IP和端口作为散列类型进行负载平衡,那么来自VM1上两个不同应用程序的流量可以分布到两个网卡上。

当需要在同一台虚拟机上实现两个不同应用的流量均衡时,可以根据源地址和目的地址的IP和端口配置LACP bonding功能。例如,只有一个虚拟机配置了3个网卡的绑定。

如果您使用LACP绑定并启用LACP,并基于源和目的的IP和端口作为散列类型进行负载平衡,则Citrix Hypervisor可以通过绑定中的三个网卡中的一个发送虚拟机中每个应用程序的流量,即使网卡的数量超过了vif的数量。

该哈希算法采用源IP地址、源端口号、目的IP地址、目的端口号、源MAC地址5个因素分散流量。

基于源MAC地址负载分担

当同一主机上有多个虚拟机时,这种类型的负载平衡工作得很好。根据流量源虚拟机的虚拟MAC地址进行流量均衡。Citrix Hypervisor发送出站流量的算法与双活绑定相同。来自同一客户机的流量不会分散到多个网卡上。因此,如果vif少于nic,则不适合这种散列类型:负载平衡不是最优的,因为流量不能跨nic分割。

该图显示,如果使用LACP绑定并启用基于源MAC地址的LACP作为散列类型,如果网卡数量超过vif数量,则不会使用所有网卡。由于有3个网卡和2个虚拟机,因此只能同时使用2个网卡。因此,无法实现最大的bond吞吐量。一个虚拟机发送的报文不能被多个虚拟机分割。

开关配置

根据您的冗余需求,您可以将bond中的网卡连接到相同的堆叠交换机,也可以连接到不同的堆叠交换机。如果将其中一个网卡连接到另一个冗余交换机,如果其中一个网卡或交换机出现故障,流量将切换到另一个网卡。添加第二个交换机可以通过以下方式防止配置中的单点故障:

  • 当将绑定管理接口中的一条链路连接到第二台交换机时,如果第二台交换机发生故障,则管理网络保持在线状态,主机之间仍然可以通信。

  • 如果将链路(适用于任何流量类型)连接到第二台交换机,并且网卡或交换机发生故障,则虚拟机在其流量故障转移到另一个网卡/交换机时仍留在网络中。

当需要将bonding网卡与多台交换机连接,且配置了LACP bonding模式时,请使用堆叠交换机。术语“堆叠交换机”用于描述将多个物理交换机配置为单个逻辑交换机。您必须通过交换机管理软件将交换机物理连接在一起,以便交换机按照交换机制造商的指导方针作为单个逻辑交换单元运行。通常情况下,交换机堆叠只能通过专有扩展实现,交换机供应商可能会以不同的条款推销这种功能。

注意:

如果您遇到双活绑定的问题,可能需要使用堆叠交换机。主备bond不需要堆叠交换机。

下图显示了绑定网卡的电缆和网络配置必须如何匹配。

此图显示了绑定对中的两个网卡如何使用相同的网络设置,由每个主机中的网络表示。bonding网卡连接到不同的交换机,实现冗余。

交换机配置LACP bonding功能

由于交换机配置的具体细节因制造商而异,因此在配置与LACP绑定一起使用的交换机时,需要记住几个关键点:

  • 交换机必须支持LACP协议和IEEE 802.3ad标准。

  • 在交换机上创建LAG组时,必须为主机上的每个LACP绑定创建一个LAG组。例如,如果您有一个包含5个主机的池,并且您在每个主机的网卡4和网卡5上创建了LACP绑定,那么您必须在交换机上创建5个LAG组。每一组端口对应主机的网卡。

    您可能还需要将VLAN ID添加到您的LAG组。

  • Citrix Hypervisor的LACP绑定需要将LAG组中的“Static Mode”设置为“Disabled”。

如前所述开关配置时,需要使用堆叠交换机连接多个交换机。

安装后的初始网络配置

在初始安装主机时,已完成Citrix Hypervisor服务器的组网配置。IP地址配置(DHCP/static)、管理接口使用的网卡、主机名等选项根据安装时提供的值进行设置。

当主机有多个网卡时,安装后的配置取决于安装时选择哪一个网卡进行管理操作:

  • pif是为主机的每个网卡创建的

  • 选择作为管理接口的网卡的PIF配置了安装时设置的IP地址选项

  • 为每个PIF创建一个网络(“网络0”、“网络1”,等等)

  • 每个网络连接到一个PIF

  • 除了用作管理接口的PIF之外,所有PIF都不配置IP寻址选项

当主机为单网卡时,安装后会出现如下配置:

  • 单个PIF与主机的单个网卡相对应

  • PIF使用安装期间指定的IP寻址选项进行配置,以启用对主机的管理

  • 设置PIF用于主机管理操作

  • 创建一个网络,网络0

  • 网络0连接到PIF,实现与虚拟机的外部连接

当在带标签的VLAN网络上安装Citrix Hypervisor时,安装后会出现以下配置:

  • pif是为主机的每个网卡创建的

  • 选择作为管理接口的网卡上带标签VLAN的PIF配置了安装时设置的IP地址配置

  • 为每个PIF创建一个网络(例如:网络1、网络2,等等)。创建了额外的VLAN网络(例如,对于与VLAN上的eth0相关联的池级网络)

  • 每个网络连接到一个PIF。VLAN PIF设置用于主机管理操作

在这两种情况下,最终的网络配置允许XenCenter、xe CLI和运行在单独机器上的任何其他管理软件通过管理接口的IP地址连接到Citrix Hypervisor服务器。为主机上创建的虚拟机提供外部网络。

用于管理操作的PIF是Citrix Hypervisor安装过程中唯一配置了IP地址的PIF。vm的外部网络是通过使用充当虚拟以太网交换机的网络对象将pif桥接到vif来实现的。

以下部分将介绍实现诸如vlan、网卡绑定和将网卡专用于存储流量等网络特性所需的步骤。

更改网络配置

您可以通过修改网络对象来更改网络配置。为此,您可以运行一个影响网络对象或VIF的命令。

修改网络对象

可以修改网络的一些方面,如帧大小(MTU)、名称标签、名称描述、目的等。使用xenetwork-param-set命令及其相关参数来更改值。

运行xenetwork-param-set命令,唯一需要的参数是uuid

可选参数包括:

如果没有给出参数的值,则将该参数设置为空值。要在映射参数中设置(键、值)对,请使用以下语法map-param:键=值

改变债券的上行延迟

Bonding功能的up Delay默认设置为31,000 ms,以防止流量在网卡故障后被重新平衡到网卡上。虽然up延迟看起来很长,但它对所有键合模式都很重要,而不仅仅是双活模式。

但是,如果您了解要为您的环境选择的适当设置,则可以使用下面的过程更改绑定的启动延迟。

设置以毫秒为单位的延迟:

xe PIF -param-set uuid=<绑定主PIF的uuid > other-config:bond-updelay=<毫秒延时> 

要使修改生效,必须先拔出物理接口,然后重新插拔物理接口。

xpif -unplug uuid=< bond master PIF的uuid > 
PIF -plug uuid=< bond master PIF的uuid > 
网络