数据中心互连参考设计指南

各种规模的数据中心都托管着大量的业务关键数据——这些数据每天、每小时甚至每毫秒都在增长。维护这些数据给网络架构师带来了多重挑战,他们必须考虑数据弹性、流量和存储。为了缓解网络问题,数据被分割成块或复制,然后分散到区域、国家甚至世界各地。传统应用程序在数据中心内外生成流量(南北流量)的时代已经过去,它们的位置已被现代的后继者所取代,这些后继者在数据中心内水平移动流量(东西流量)。

随着网络虚拟化和多租户的引入,创建独立于位置的工作负载成为可能,这由 带有 VXLAN 封装的 EVPN。虽然 EVPN 支持除 VXLAN 之外的其他封装方法(例如 NVGRE、MPLSoGRE 以及最近的 GENEVE),但本文档侧重于基于 VXLAN 的 EVPN,因为它受欢迎且部署广泛。

那么,网络架构师如何互连具有弹性和可扩展性的数据中心呢?本文档尝试阐明数据中心互连 (DCI),并为网络挑战提供应用解决方案。

参考 DCI 拓扑

本文档使用以下参考 DCI 拓扑,该拓扑由两个 pod 组成,这两个 pod 通过每个 pod 的边界叶交换机之间的两个 DCI 连接互连。

NVIDIA Air

NVIDIA Air 是一个云托管的网络模拟平台,其行为与真实世界的生产环境完全相同。本文档中的拓扑是使用运行 Cumulus Linux 5.4.0 的 NVIDIA Air 创建的。

NVIDIA AIR 提供 基于 EVPN VXLAN 的 DCI 实验室,这些实验室是预构建的演示。您可以将 DCI 实验室与本指南一起使用,以更好地理解配置。