Citrix ADC

可扩展性

由于TCP优化是资源密集型的,因此单个Citrix ADC设备(甚至是高端设备)可能无法维持高Gi-LAN吞吐量。要扩展网络容量,可以在N + 1群集中部署Citrix ADC设备。在群集部署中,Citrix ADC设备作为单个系统映像一起工作。在外部交换机设备的帮助下,客户端流量分布在群集节点之间。

拓扑

图1是由四个T1300-40G节点组成的聚类示例。

本地化后的图片

图 1 中所示的设置具有以下属性:

  1. 所有群集节点都属于同一网络(也称为L2群集)。
  2. 数据平面和背板流量由不同的交换机处理。
  3. 假设Gi-LAN吞吐量为200 Gbps,并且一台T1300-40G电器能够维持80 Gbps的吞吐量,我们需要三台T1300-40G电器。为了在单个群集节点发生故障时提供冗余,我们总共部署了四台设备。
  4. 每个节点将接收高达67 gbps的流量(在正常运行条件下为50 gbps,在单个群集节点出现故障时为67 gbps),因此它需要2 x40gbps连接到上游交换机。为了在交换机故障的情况下提供冗余,我们部署了几个上游交换机并将连接数增加一倍。
  5. 群集链路聚合(阻碍)用于跨群集节点分配流量。单个妨碍同时处理客户端和服务器流量。在凝结上启用链路冗余,因此在任何给定时间只选择一个“子通道”并处理流量。如果某个链路失败或吞吐量低于指定阈值,则选择另一个子通道。
  6. 上游交换机执行对称端口通道负载平衡(例如,思科IOS 7.0 (8) N1(1)的仅源代码删除IP算法),以便由同一群集节点处理正向和反向流量流。此属性是可取的,因为它消除了数据包重新排的序,这会降低TCP性能。
  7. 预计50%的数据流量将被引导到背板上,这意味着每个节点将导向高达34 gbps的其他群集节点(在正常运行条件下为25 gbps,在单个群集节点出现故障时为34 gbps)。因此,每个节点至少需要4 x10g连接到背板开关。为了在交换机故障的情况下提供冗余,我们部署了几个背板交换机,并将连接数增加一倍。背板目前不支持链路冗余,因此需要思科VPC或同等技术来实现交换机级冗余。
  8. 转向数据包的MTU大小为1578字节,因此背板交换机必须支持MTU超过1500字节。

注意:图1所示的设计也适用于T1120和T1310设备。对于T1310,我们将使对用40 gbe接口进行背板连接,因为它缺乏对10 gbe端口。

注意:虽然本文档以思科VPC为例,但如果使用非思科交换机,则可以使用其他等效的解决方案,例如杜松的MLAG。

注意:虽然其他拓扑(如ECMP而不是阻碍)是可能的,但目前不支持此特定用例。

在Citrix ADC T1000群集中配置TCP优化

物理安装、物理连接、软件安装和许可完成后,您可以继续进行实际的群集配置。下面描述的配置适用于图 1 所示的群集。

注意:有关群集配置的详细信息,请参阅设置Citrix ADC集群

假定图1中的四个T1300节点具有以下NSIP地址:

四个带NSIP地址的T1300节点:

T1300-40-1: 10.102.29.60 t1300-40-2: 10.102.29.70 t1300-40-3: 10.102.29.80 t1300-40-4: 10.102.29.90

群集将通过群集IP(夹)地址进行管理,该地址假定为10.78.16.61。

设置群集

要开始配置图1所示的群集,请登录到要添加到群集的第一个设备(例如,T1300-40-1),然后执行以下操作。

  1. 在命令提示符下,输入以下命令:

    命令:

    > add cluster instance 1 > add cluster node 0 10.102.29.60 -state ACTIVE > add ns ip 10.102.29.61 255.255.255.255 -type clip > enable cluster instance 1 > save ns config > reboot -warm
  2. 设备重新启动后,连接到群集IP(夹)地址,并将其余节点添加到群集:

    命令:

    > add cluster node 1 10.100.29.70 -state ACTIVE > add cluster node 2 10.100.29.80 -state ACTIVE > add cluster node 3 10.100.29.90 -state ACTIVE > save ns config
  3. 连接到每个新添加节点的NSIP地址并加入群集:

    命令:

    > join cluster -clip 10.102.29.61 -password nsroot > save ns config > reboot -warm
  4. 节点重新启动后,继续进行背板配置。在群集IP地址上,输入以下命令为每个群集节点的背板链接创建LACP通道:

    命令:

    > set interface 0/10/[1-8] -lacpkey 1 -lacpmode ACTIVE > set interface 1/10/[1-8] -lacpkey 2 -lacpmode ACTIVE > set interface 2/10/[1-8] -lacpkey 3 -lacpmode ACTIVE > set interface 3/10/[1-8] -lacpkey 4 -lacpmode ACTIVE > set interface 1/10/[1-8] -lacpkey
  5. 同样,在背板交换机上配置动态和VPC。确保背板交换机接口的MTU至少1578字为节。

  6. 验证频道是否正常运行:

    命令:

    >显示频道0/LA/1 >显示频道1/LA/2 >显示频道2/LA/3 >显示频道3/LA/4
  7. 配置群集节点背板接口。

    命令:

    > set集群节点0 -backplane 0/LA/1 > set集群节点1 -backplane 1/LA/2 > set集群节点2 -backplane 2/LA/3 > set集群节点3 -backplane 3/LA/4 > set集群节点1 -backplane 1/LA/2 > set集群节点2 -backplane 2/LA/3
  8. 检查群集状态并验证群集是否正常运行:

    > show cluster instance > show cluster node

有关群集设置的详细信息,请参阅设置Citrix ADC集群

跨群集节点分配流量

在您形成Thecitrix ADC群集后,部署群集链路聚合(阻碍)以跨群集节点分配流量。单个阻碍链接将同时处理客户端和服务器流量。

在群集IP地址上,执行以下命令以创建群集链路聚合(阻碍)组,如图1所示:

命令:

> set interface 0/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster > set interface 1/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster > set interface 2/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster > set interface 3/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster > set interface 3/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster > set interface 3/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster

在外部交换机上配置动态链路聚合。

然后,启用链路冗余,如下所示:

代码:

> set channel CLA/1 -linkRedundancy ON -lrMinThroughput 240000

最后,通过输入以下内容来检查频道状态:

命令:

显示频道CLA/1

通道应为上升,实际吞吐量应为 320000。

有关群集链接聚合的详细信息,请参阅以下主题:

因为我们将使用基于MAC的转发(MBF),所以配置一个链接集并将其绑定到阻碍组,如下所示:

命令:

> add linkset LS/1 > bind linkset LS/1 -ifnum CLA/1

有关链接集的详细信息,请参阅以下主题:

配置VLAN和IP地址

我们将使用条带IP配置,这意味着IP地址在所有节点上都处于活动状态(默认设置)。有关本主题的详细信息,请参阅条带化、部分条带和斑点配置

  1. 添加入口和导出剪辑:

    命令:

    > add ns ip 172.16.30.254 255.255.255.0 -type SNIP > add ns ip 172.16.31.254 255.255.255.0 -type SNIP > add ns ip6 fd00:172:16:30::254/112 -type SNIP > add ns ip6 fd00:172:16:31::254/112 -type SNIP
  2. 添加相应的入口和出口VLAN:

    命令:

    > add vlan 30 -aliasName wireless > add vlan 31 -aliasName internet
  3. 将VLAN与IP和链接集绑定:

    命令:

    >绑定vlan 31 -ifnum LS/1 -tagged >绑定vlan 30 -ifnum LS/1 -tagged >绑定vlan 30 -IPAddress 172.16.30.254 255.255.255.0 >绑定vlan 31 -IPAddress 172.16.31.254 255.255.255.0 >绑定vlan 30 -IPAddress fd00:172:16:30::254/112 >绑定vlan 31 -IPAddress fd00:172:16:30::254/112 >绑定vlan 31 -IPAddress fd00:172:16:31::254/112

如果需要,可以添加更多入口和导出VLAN。

配置TCP优化

此时,我们已经应用了所有群集特定的命令。要完成配置,请按照TCP优化配置中描述的步骤进行操作。

配置动态路由

Citrix ADC群集可以集成到客户网络的动态路由环境中。以下是使用东方路由协议的动态路由配置示例(也支持OSPF)。

  1. 从剪辑地址,在入口和导出IP地址上启用边界网关协议和动态路由:

    命令:

    > enable ns feature bgp > set ns ip 172.16.30.254 -dynamicRouting ENABLED > set ns ip 172.16.31.254 -dynamicRouting ENABLED
  2. 打开vtysh并为导出端配置边界网关协议:

    代码:

    > shell root@ns# vtysh ns# configure terminal ns(config)# router BGP 65531 ns(config-router)# network 10.0.0.0/24 ns(config-router)# neighbor 172.16.31.100 remote-as 65530 ns(config-router)# neighbor 172.16.31.100 update-source 172.16.31.254 ns(config-router)# exit ns(config)# ns route-install propagate ns(config)# ns route-install default .日志示例Ns (config)# Ns route-install BGP路由
  3. 配置异常端边界网关协议对等方以将默认路由通告到Citrix ADC群集。例如:

    命令:

    Router BGP 65530 BGP Router -id 172.16.31.100 network 0.0.0.0/0 neighbor 172.16.31.254 remote-as 65531
  4. 按照类似的步骤配置入口端。

  5. 从vtysh验证配置是否传播到所有群集节点,通过输入:

    命令:

    ns #显示running-config
  6. 最后,登录到每个群集节点的NSIP地址,并验证从边界网关协议对等公布的路由:

    命令:

    > show route | grep BGP
可扩展性