为本地 HA 服务器集群设置虚拟机
按照以下步骤在本地部署的服务器集群上设置和配置 VM。首先在主节点上配置 VM,然后在每个工作节点上配置 VM。NVIDIA 建议将虚拟机安装在不同的物理服务器上,以提高硬件故障时的冗余性。
系统要求
验证集群中的每个节点(主节点和两个工作节点)是否满足 VM 要求。
资源 | 最低要求 |
---|---|
处理器 | 16 个虚拟 CPU |
内存 | 64 GB RAM |
本地磁盘存储 | 500 GB SSD,最小磁盘 IOPS 为 1000(标准 4kb 块大小) (注意:这必须是 SSD;其他存储选项可能导致系统不稳定,并且不受支持。) |
网络接口速度 | 1 Gb NIC |
虚拟机监控程序 | KVM/QCOW (QEMU Copy on Write) 映像,适用于运行 Ubuntu 的服务器; VMware ESXi™ 6.5 或更高版本(OVA 映像),适用于运行 Cumulus Linux 或 Ubuntu 的服务器 |
端口要求
确认所需的端口已打开以进行通信。
端口或协议号 | 协议 | 组件访问 |
---|---|---|
4 | IP 协议 | Calico 网络(IP-in-IP 协议) |
22 | TCP | SSH |
80 | TCP | nginx |
179 | TCP | Calico 网络 (BGP) |
443 | TCP | NetQ UI |
2379 | TCP | etcd 数据存储 |
4789 | UDP | Calico 网络 (VxLAN) |
5000 | TCP | Docker 注册表 |
6443 | TCP | kube-apiserver |
30001 | TCP | DPU 通信 |
31980 | TCP | NetQ 代理通信 |
31982 | TCP | NetQ 代理 SSL 通信 |
32708 | TCP | API 网关 |
此外,对于内部集群通信,您必须打开以下端口
端口或协议号 | 协议 | 组件访问 |
---|---|---|
8080 | TCP | 管理 API |
5000 | TCP | Docker 注册表 |
6443 | TCP | Kubernetes API 服务器 |
10250 | TCP | kubelet 健康探测 |
2379 | TCP | etcd |
2380 | TCP | etcd |
7072 | TCP | Kafka JMX 监控 |
9092 | TCP | Kafka 客户端 |
7071 | TCP | Cassandra JMX 监控 |
7000 | TCP | Cassandra 集群通信 |
9042 | TCP | Cassandra 客户端 |
7073 | TCP | Zookeeper JMX 监控 |
2888 | TCP | Zookeeper 集群通信 |
3888 | TCP | Zookeeper 集群通信 |
2181 | TCP | Zookeeper 客户端 |
36443 | TCP | Kubernetes 控制平面 |
安装和配置
下载 NetQ 映像。
a. 登录您的 NVIDIA 应用程序中心 帐户。
b. 选择NVIDIA 许可门户。
c. 从菜单中选择软件下载。
d. 单击产品系列,然后选择 NetQ。
e. 对于使用 KVM 的部署,下载 NetQ SW 4.12 KVM 映像。对于使用 VMware 的部署,下载 NetQ SW 4.12 VMware 映像
f. 如果出现提示,请阅读许可协议并继续下载。
NVIDIA 员工可以直接从 NVIDIA 许可门户 下载 NetQ。
- 打开您的虚拟机监控程序并配置您的 VM。您可以参考以下示例,或使用您自己的虚拟机监控程序说明。
KVM 示例配置
此示例显示了安装了 Libvirt 和 KVM/QEMU 的系统的 VM 设置过程。
确认 SHA256 校验和与 NVIDIA 应用程序中心上发布的校验和匹配,以确保映像下载未损坏。
$ sha256sum ./Downloads/netq-4.12.0-ubuntu-20.04-ts-qemu.qcow2
$ a0d9a4f9ce8925b7dfb90a5a44616cadbf3fc667013abae07cd774555c08ff6f ./Downloads/netq-4.12.0-ubuntu-20.04-ts-qemu.qcow2- 将 QCOW2 映像复制到您要运行它的目录。
提示:复制而不是移动原始下载的 QCOW2 映像,以避免以后需要再次执行此过程时重新下载。
$ sudo mkdir /vms
$ sudo cp ./Downloads/netq-4.12.0-ubuntu-20.04-ts-qemu.qcow2 /vms/ts.qcow2 - 创建 VM。
对于直接 VM,其中 VM 使用 MACVLAN 接口来位于主机接口上以进行连接
$ virt-install --name=netq_ts --vcpus=16 --memory=65536 --os-type=linux --os-variant=generic --disk path=/vms/ts.qcow2,format=qcow2,bus=virtio,cache=none --network=type=direct,source=eth0,model=virtio --import --noautoconsole
将磁盘路径值替换为 QCOW2 映像所在的路径。将网络模型值(以上示例中的 eth0)替换为 VM 连接到外部网络的接口名称。
或者,对于桥接 VM,其中 VM 连接到已设置为允许外部访问的桥接
$ virt-install --name=netq_ts --vcpus=16 --memory=65536 --os-type=linux --os-variant=generic \ --disk path=/vms/ts.qcow2,format=qcow2,bus=virtio,cache=none --network=bridge=br0,model=virtio --import --noautoconsole
将网络桥接值(以上示例中的 br0)替换为 VM 连接到外部网络的(预先存在的)桥接接口名称。
记下安装期间使用的名称,因为稍后的步骤中需要用到。
- 在另一个终端窗口中观看启动过程。
$ virsh console netq_ts
VMware 示例配置
此示例显示了使用带有 VMware ESXi 的 OVA 文件设置 VM 的过程。在浏览器中输入硬件地址。
使用具有 root 访问权限的凭据登录 VMware。
单击导航器中的存储以验证您是否安装了 SSD。
单击右侧窗格顶部的创建/注册 VM。
选择从 OVF 或 OVA 文件部署虚拟机,然后单击下一步。
为 VM 提供名称,例如NetQ。
提示:记下安装期间使用的名称,因为稍后的步骤中需要用到。
拖放您在上面步骤 1 中下载的 NetQ 平台映像文件。
单击下一步。
选择映像要使用的存储类型和数据存储,然后单击下一步。在本示例中,只有一个可用。
接受默认部署选项,或根据您的网络需求修改它们。完成后单击下一步。
查看配置摘要。单击返回以更改任何设置,或单击完成以继续创建 VM。
请求的进度显示在应用程序底部的“最近任务”窗口中。这可能需要一些时间,因此请继续您的其他工作,直到上传完成。
完成后,查看 VM 和硬件的完整详细信息。
- 登录到 VM 并更改密码。
首次登录时使用默认凭据
- 用户名:cumulus
- 密码:cumulus
$ ssh cumulus@<ipaddr>
Warning: Permanently added '<ipaddr>' (ECDSA) to the list of known hosts.
Ubuntu 20.04 LTS
cumulus@<ipaddr>'s password:
You are required to change your password immediately (root enforced)
System information as of Thu Dec 3 21:35:42 UTC 2020
System load: 0.09 Processes: 120
Usage of /: 8.1% of 61.86GB Users logged in: 0
Memory usage: 5% IP address for eth0: <ipaddr>
Swap usage: 0%
WARNING: Your password has expired.
You must change your password now and login again!
Changing password for cumulus.
(current) UNIX password: cumulus
Enter new UNIX password:
Retype new UNIX password:
passwd: password updated successfully
Connection to <ipaddr> closed.
使用您的新密码再次登录。
$ ssh cumulus@<ipaddr>
Warning: Permanently added '<ipaddr>' (ECDSA) to the list of known hosts.
Ubuntu 20.04 LTS
cumulus@<ipaddr>'s password:
System information as of Thu Dec 3 21:35:59 UTC 2020
System load: 0.07 Processes: 121
Usage of /: 8.1% of 61.86GB Users logged in: 0
Memory usage: 5% IP address for eth0: <ipaddr>
Swap usage: 0%
Last login: Thu Dec 3 21:35:43 2020 from <local-ipaddr>
cumulus@ubuntu:~$
- 验证主节点是否已准备好进行安装。在安装 NetQ 软件之前修复任何错误。
cumulus@hostname:~$ sudo opta-check
- 从默认值更改 VM 的主机名。
NetQ 虚拟机的默认主机名为 ubuntu。更改主机名以符合您的命名约定,同时满足 Internet 和 Kubernetes 命名标准。
Kubernetes 要求主机名由一系列用点连接的标签组成。例如,“en.wikipedia.org”是一个主机名。每个标签的长度必须为 1 到 63 个字符。整个主机名(包括分隔点)最多可以有 253 个 ASCII 字符。
协议的 Internet 标准 (RFC) 规定,标签只能包含 ASCII 字母 a 到 z(小写)、数字 0 到 9 以及连字符“-”。
使用以下命令
cumulus@hostname:~$ sudo hostnamectl set-hostname NEW_HOSTNAME
将相同的 NEW_HOSTNAME 值添加到 VM 上的 /etc/hosts 以用于 localhost 条目。例如
127.0.0.1 localhost NEW_HOSTNAME
打开您的虚拟机监控程序,并以与主节点相同的方式设置 VM。
记下您分配给工作节点的私有 IP 地址。您将需要它来完成安装。
验证工作节点是否已准备好进行安装。在安装 NetQ 软件之前修复指示的任何错误。
cumulus@hostname:~$ sudo opta-check
对集群中的每个附加工作节点重复步骤 6 和 7。
使用 CLI 安装和激活 NetQ 软件。
在您的主节点上运行以下命令以初始化集群。复制命令的输出以在您的工作节点上使用
cumulus@<hostname>:~$ netq install cluster master-init
Please run the following command on all worker nodes:
netq install cluster worker-init c3NoLXJzYSBBQUFBQjNOemFDMXljMkVBQUFBREFRQUJBQUFCQVFDM2NjTTZPdVM3dQN9MWTU1a
在每个工作节点上运行
netq install cluster worker-init <ssh-key>
命令。在您的主节点上运行以下命令,使用您的工作节点的 IP 地址和 HA 集群虚拟 IP 地址 (VIP)
HA 集群虚拟 IP 必须是
netq install
命令中使用的接口。cumulus@<hostname>:~$ netq install cluster full interface eth0 bundle /mnt/installables/NetQ-4.12.0.tgz workers <worker-1-ip> <worker-2-ip> cluster-vip <vip-ip>
NetQ 默认使用 10.244.0.0/16 (pod-ip-range
) 和 10.96.0.0/16 (service-ip-range
) 网络进行内部通信。如果您正在使用这些网络,则必须通过在 install 命令中为这些参数指定新的子网来覆盖每个范围
cumulus@hostname:~$ netq install cluster full interface eth0 bundle /mnt/installables/NetQ-4.12.0.tgz workers <worker-1-ip> <worker-2-ip> pod-ip-range <pod-ip-range> service-ip-range <service-ip-range>
您可以使用 ip-addr <ip-address>
参数指定服务器的 IP 地址而不是接口名称
cumulus@hostname:~$ netq install cluster full ip-addr <ip-address> bundle /mnt/installables/NetQ-4.12.0.tgz workers <worker-1-ip> <worker-2-ip>
如果在安装 NetQ 后更改服务器 IP 地址或主机名,则必须使用 netq bootstrap reset keep-db
命令重置服务器并重新运行 install 命令。
如果此步骤因任何原因失败,请运行 netq bootstrap reset
,然后重试。
验证安装状态
要查看安装状态,请使用 netq show status [verbose]
命令。以下示例显示了成功的本地安装
State: Active
NetQ Live State: Active
Installation Status: FINISHED
Version: 4.12.0
Installer Version: 4.12.0
Installation Type: Cluster
Activation Key: EhVuZXRxLWVuZHBvaW50LWdhdGV3YXkYsagDIixPSUJCOHBPWUFnWXI2dGlGY2hTRzExR2E5aSt6ZnpjOUvpVVTaDdpZEhFPQ==
Master SSH Public Key: c3NoLXJzYSBBQUFBQjNOemFDMXljMkVBQUFBREFRQUJBQUFCZ1FDNW9iVXB6RkczNkRC
Is Cloud: False
Kubernetes Cluster Nodes Status:
IP Address Hostname Role NodeStatus Virtual IP
------------ ----------- ------ ------------ ------------
10.213.7.52 10.213.7.52 Worker Ready 10.213.7.53
10.213.7.51 10.213.7.51 Worker Ready 10.213.7.53
10.213.7.49 10.213.7.49 Master Ready 10.213.7.53
In Summary, Live state of the NetQ is... Active
运行 netq show opta-health
命令以验证所有应用程序是否正常运行。至少等待 15 分钟,让所有应用程序启动并报告其状态。
cumulus@hostname:~$ netq show opta-health
Application Status Namespace Restarts Timestamp
----------------------------------------------------- -------- ------------- ---------- ------------------------
cassandra-rc-0-w7h4z READY default 0 Fri Apr 10 16:08:38 2020
cp-schema-registry-deploy-6bf5cbc8cc-vwcsx READY default 0 Fri Apr 10 16:08:38 2020
kafka-broker-rc-0-p9r2l READY default 0 Fri Apr 10 16:08:38 2020
kafka-connect-deploy-7799bcb7b4-xdm5l READY default 0 Fri Apr 10 16:08:38 2020
netq-api-gateway-deploy-55996ff7c8-w4hrs READY default 0 Fri Apr 10 16:08:38 2020
netq-app-address-deploy-66776ccc67-phpqk READY default 0 Fri Apr 10 16:08:38 2020
netq-app-admin-oob-mgmt-server READY default 0 Fri Apr 10 16:08:38 2020
netq-app-bgp-deploy-7dd4c9d45b-j9bfr READY default 0 Fri Apr 10 16:08:38 2020
netq-app-clagsession-deploy-69564895b4-qhcpr READY default 0 Fri Apr 10 16:08:38 2020
netq-app-configdiff-deploy-ff54c4cc4-7rz66 READY default 0 Fri Apr 10 16:08:38 2020
...
如果在 30 分钟后任何应用程序或服务显示 DOWN 状态,请打开支持工单并附加 opta-support
命令的输出。