Citrix ADC

可伸缩性

由于TCP优化是资源密集型的,单个Citrix ADC设备,甚至是高端设备,可能无法维持较高的Gi LAN吞吐量。要扩展网络容量,您可以以N+1群集的形式部署Citrix ADC设备。在集群部署中,Citrix ADC设备作为单个系统映像一起工作。在外部交换机设备的帮助下,客户端流量分布在集群节点上。

拓扑结构

图1以4台T1300-40G为例。

局部图像

图1所示的设置具有以下属性:

  1. 所有集群节点属于同一网络(也称为L2集群)。
  2. 数据平面和背板的流量由不同的交换机处理。
  3. 假设Gi-LAN吞吐量为200gbps,一个T1300-40G设备可以维持80Gbps的吞吐量,我们需要3个T1300-40G设备。为了在单个集群节点故障时提供冗余,我们总共部署了4个设备。
  4. 每个节点将接收最多67Gbps的流量(正常运行时为50Gbps,单机节点故障时为67Gbps),因此需要连接上行交换机2x40Gbps。为了在交换机故障时提供冗余,我们部署了一对上行交换机,并将连接数增加一倍。
  5. CLAG (Cluster Link Aggregation)用于在集群节点间分配流量。一个CLAG同时处理客户端和服务器流量。在CLAG上启用了链路冗余,因此在任何给定的时间只选择一个“子通道”来处理流量。如果某个链路发生故障或吞吐量低于指定的阈值,则选择其他子通道。
  6. 上行交换机执行对称的端口-信道负载均衡(例如Cisco IOS 7.0(8) N1(1)的source- destip -only算法),使转发和反向流量由同一集群节点处理。这个属性是可取的,因为它消除了数据包重新排序,而重新排序会降低TCP性能。
  7. 预计50%的数据流量将转向背板,这意味着每个节点将转向其他群集节点,最高可达34Gbps(正常操作条件下为25Gbps,单个群集节点故障时为34Gbps)。因此,每个节点都需要至少4x10G到背板交换机的连接。为了在交换机出现故障时提供冗余,我们部署了两个背板交换机,并将连接数量增加了一倍。背板目前不支持链路冗余,因此需要Cisco VPC或同等技术来实现交换机级冗余。
  8. 被引导报文的MTU大小为1578字节,因此背板交换机必须支持大于1500字节的MTU。

注:图1所示的设计也适用于T1120和T1310器具。对于T1310,我们将使用40GbE接口作为背板连接,因为它缺少10GbE端口。

注:虽然本文档以Cisco VPC为例,但如果使用非Cisco交换机,则可以使用替代的等效解决方案,如Juniper的MLAG。

注:虽然其他拓扑(如ECMP而不是CLAG)是可能的,但对于这个特定的用例,它们目前不受支持。

在Citrix ADC T1000群集中配置TCP优化

完成物理安装、物理连接、软件安装和许可后,您可以继续进行实际的群集配置。下面描述的配置适用于图1所示的集群。

注意:有关集群配置的更多信息,请参见设置Citrix ADC集群.

假设图1中的四个T1300节点具有以下NSIP地址:

具有NSIP地址的四个T1300节点:

T1300-40-1: 10.102.29.60 t1300-40-2: 10.102.29.70 t1300-40-3: 10.102.29.80 t1300-40-4: 10.102.29.90

群集将通过群集IP(CLIP)地址进行管理,该地址假定为10.78.16.61。

设置集群

要开始配置图1所示的集群,请登录要添加到集群的第一个设备(例如T1300-40-1),并执行以下操作。

  1. 在命令提示符处,输入以下命令:

    命令:

    > add cluster instance 1 > add cluster node 0 10.102.29.60 -state ACTIVE > add ns ip 10.102.29.61 255.255.255.255 -type clip > enable cluster instance 1 > save ns config > reboot -warm
  2. 设备重启后,连接Cluster IP (CLIP)地址,并将其余的节点添加到集群中:

    命令:

    >添加群集节点1 10.102.29.70-状态活动>添加群集节点2 10.102.29.80-状态活动>添加群集节点3 10.102.29.90-状态活动>保存ns配置
  3. 连接每个新增节点的NSIP地址并加入集群:

    命令:

    >加入群集-剪辑10.102.29.61-密码nsroot>保存ns配置>重新启动-预热
  4. 节点重新启动后,继续背板配置。在群集IP地址上,输入以下命令为每个群集节点的背板链路创建LACP通道:

    命令:

    > set interface 0/10/[1-8] -lacpkey 1 -lacpmode ACTIVE > set interface 1/10/[1-8] -lacpkey 2 -lacpmode ACTIVE > set interface 2/10/[1-8] -lacpkey 3 -lacpmode ACTIVE > set interface 3/10/[1-8] -lacpkey 4 -lacpmode ACTIVE > set interface 1/10/[1-8] -lacpkey
  5. 同样,在背板交换机上配置动态LA和VPC。请确保背板交换机接口的MTU大于等于1578字节。

  6. 确认渠道是否正常运作:

    命令:

    >显示频道0/LA/1 >显示频道1/LA/2 >显示频道2/LA/3 >显示频道3/LA/4
  7. 配置集群节点背板接口

    命令:

    > set集群节点0 -backplane 0/LA/1 > set集群节点1 -backplane 1/LA/2 > set集群节点2 -backplane 2/LA/3 > set集群节点3 -backplane 3/LA/4 > set集群节点1 -backplane 1/LA/2 > set集群节点2 -backplane 2/LA/3
  8. 检查集群状态,确保集群正常运行:

    > show cluster instance > show cluster node

有关集群设置的更多信息,请参见设置Citrix ADC集群

跨集群节点分配流量

在形成citrix ADC集群后,部署集群链路聚合(CLAG)以跨集群节点分配流量。一个CLAG链接将同时处理客户端和服务器流量。

在集群IP地址上,执行以下命令创建cluster Link Aggregation (CLAG)组,如图1所示:

命令:

> set interface 0/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster > set interface 1/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster > set interface 2/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster > set interface 3/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster > set interface 3/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster > set interface 3/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster

在外部交换机上配置动态链路聚合。

启用“链路冗余”,如下所示。

代码:

> set channel CLA/1 -linkRedundancy ON -lrMinThroughput 240000

最后,通过输入:

命令:

显示频道CLA/1

通道应为UP,实际吞吐量为320000。

有关集群链接聚合的详细信息,请参阅以下主题:

因为我们将使用基于mac的转发(MBF),配置一个链路集并将其绑定到CLAG组,如下所示:

命令:

>添加链接集LS/1>绑定链接集LS/1-ifnum CLA/1

有关链接集的更多信息,请参阅以下主题:

配置VLAN和IP地址

我们将使用条带化IP配置,这意味着IP地址在所有节点上都是活动的(默认设置)。看见条纹、部分条纹和斑点配置有关此主题的更多信息。

  1. 添加入口和出口SNIPs:

    命令:

    >添加ns ip 172.16.30.254 255.255.255.0–类型SNIP>添加ns ip 172.16.31.254 255.255.255.0–类型SNIP>添加ns ip6 fd00:172:16:30::254/112–类型SNIP>添加ns ip6 fd00:172:16:31::254/112–类型SNIP
  2. 添加相应的入、出vlan:

    命令:

    >添加vlan 30-别名无线>添加vlan 31-别名互联网
  3. vlan绑定ip和链路集:

    命令:

    >绑定vlan 31 -ifnum LS/1 -tagged >绑定vlan 30 -ifnum LS/1 -tagged >绑定vlan 30 -IPAddress 172.16.30.254 255.255.255.0 >绑定vlan 31 -IPAddress 172.16.31.254 255.255.255.0 >绑定vlan 30 -IPAddress fd00:172:16:30::254/112 >绑定vlan 31 -IPAddress fd00:172:16:30::254/112 >绑定vlan 31 -IPAddress fd00:172:16:31::254/112

根据需要可以添加更多的入、出vlan。

配置TCP优化

此时,我们已经应用了所有特定于集群的命令。要完成配置,请按照中描述的步骤进行操作TCP优化配置.

配置动态路由

一个Citrix ADC集群可以集成到客户网络的动态路由环境中。下面以配置BGP路由协议(支持OSPF)为例进行说明。

  1. 从CLIP地址开始,在入、出IP地址上使能BGP功能和动态路由功能:

    命令:

    >启用ns功能bgp>设置ns ip 172.16.30.254–启用动态群集>设置ns ip 172.16.31.254–启用动态群集
  2. 打开vvtysh,配置出口侧BGP:

    代码:

    > shell root@ns# vtysh ns# configure terminal ns(config)# router BGP 65531 ns(config-router)# network 10.0.0.0/24 ns(config-router)# neighbor 172.16.31.100 remote-as 65530 ns(config-router)# neighbor 172.16.31.100 update-source 172.16.31.254 ns(config-router)# exit ns(config)# ns route-install propagate ns(config)# ns route-install default .日志示例Ns (config)# Ns route-install BGP路由
  3. 配置出口侧BGP对等机以公布到Citrix ADC群集的默认路由。例如:

    命令:

    Router BGP 65530 BGP Router -id 172.16.31.100 network 0.0.0.0/0 neighbor 172.16.31.254 remote-as 65531
  4. 按照类似步骤配置入口端。

  5. 从vtysh验证配置是否传播到所有集群节点,输入:

    命令:

    ns #显示running-config
  6. 最后登录到集群各节点的NSIP地址,验证BGP对等体发布的路由:

    命令:

    >显示路线| grep BGP