Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru / Articles / Расширение кластера между стойками в VMware Cloud Foundation (VCF)

Расширение кластера между стойками в VMware Cloud Foundation (VCF)

Расширение кластера между стойками в VMware Cloud Foundation (VCF)

Автор: Александр Самойленко
Дата: 20/01/2025

Поддержите VM Guru!

USDT / TRC20, адрес: TCDP7d9hBM4dhU2mBt5oX2x5REPtq9QdU1




Статья:

В статье ниже рассказано о том, как можно использовать API платформы VMware Cloud Foundation (VCF) для расширения кластера между стойками без расширения уровня L2 в физической сети.

Обзор

Расширение кластера на хосты в разных стойках служит двум ключевым целям: увеличению емкости вычислительных мощностей и хранилищ, а также повышению устойчивости для рабочих нагрузок. Серверы в одной стойке часто имеют общую инфраструктуру питания и сети, что делает их уязвимыми к одновременному отказу.

В VMware Cloud Foundation (VCF) добавление хостов в кластер выполняется просто, когда новые хосты находятся в той же подсети, что и существующие. Однако современные конструкции центров обработки данных не поощряют расширение L2 между стойками из-за широкого влияния локальных сбоев в традиционных сетях L2. Вместо этого предпочтительны небольшие широковещательные домены L2, обычно ограниченные отдельными стойками, что означает, что хосты в отдельных стойках работают в разных подсетях.

Хотя такие технологии, как EVPN over VXLAN, позволяют безопасно расширять подсети по стойкам, они в значительной степени зависят от конфигурации физической инфраструктуры. Такая зависимость может препятствовать автоматизации и ставить под угрозу бесперебойный облачный опыт, ожидаемый в средах VCF.

Давайте рассмотрим сценарии, в которых расширение кластера достижимо без необходимости расширения L2, а также объяснение того, как этого добиться — спойлер: это делается через API. 

Типы сетей и кластеров VCF

В среде VCF хост ESXi подключен к нескольким сетям, которые видны VCF. Их можно разделить на две категории: сети виртуальных машин и сети инфраструктуры хоста.

Сети виртуальных машин

Эти сети соединяют виртуальные машины, критически важные для инфраструктуры VCF, такие как SDDC Manager, серверы vCenter, менеджеры NSX и другие.

  • Сеть управления виртуальными машинами - она обеспечивает подключения к управлению инфраструктурными виртуальными машинами. На вершине этой сети находятся кластеры, хостящие NSX Edge. Виртуальная машина NSX Edge обычно запускает шлюз уровня Tier-0, который действует как виртуальный маршрутизатор, связывающий виртуальную сеть NSX с физической сетью. Хотя здесь не рассматриваются подробности кластеров с виртуальными машинами NSX Edge, важно отметить, что для шлюза уровня Tier-0 требуются следующие элементы:
    • Сеть Edge TEP: конечные точки туннеля (tunnel end points, TEP) периферии используют эту сеть для подключения к сегментам NSX.
    • Сети Edge Uplink: предоставляют VLAN для подключения шлюза Tier-0 к физическим маршрутизаторам.

Все эти сети должны расширяться между стойками для поддержки мобильности ВМ в целях обеспечения высокой доступности. Машины должны сохранять свои IP-адреса во время динамических переходов между стойками. Поскольку пограничные кластеры VCF всегда включают сеть управления ВМ (поверх их конкретных пограничных сетей TEP/uplinks), общим знаменателем для всех кластеров, требующих расширения L2 между стойками, является наличие сети управления ВМ.

Сети инфраструктуры хоста ESXi

Эти сети соединяют интерфейсы vmkernel хостов ESXi.

  • Сеть управления (Management Network): используется для управления хостом ESXi.
  • Сети vMotion и vSAN: определяются совместно в сетевом пуле VCF и используются функциями vMotion и vSAN.
  • Сеть хостов TEP: TEP хостов ESXi используют эту сеть для реализации сегментов NSX.

Эти сети технически не требуют расширения по стойкам, поскольку сами хосты ESXi являются физическими устройствами с фиксированными IP-адресами, привязанными к их расположению в стойках. Однако конфигурация VCF потребует охвата этих сетей по стойкам, если расширяемый кластер включает сеть управления ВМ. Отдельной конфигурацией является растянутый кластер vSAN (stretched cluster), выходящий за рамки этой статьи. 

Определение типа расширения кластера

Только кластеры без сети управления ВМ могут быть расширены по стойкам без необходимости расширения L2 в физической инфраструктуре. Чтобы проверить, есть ли у кластера сеть управления ВМ, перейдите в Workload Domains ? Clusters ? Network в пользовательском интерфейсе SDDC Manager. На снимке экрана ниже сеть управления VM выделена красным цветом для Edge-кластера:

 

Расширение по стойкам кластера без сети управления виртуальными машинами

Несколько слов о пользовательском интерфейсе

Пользовательский интерфейс не поддерживает выбор хостов из другого сетевого пула или указание сети TEP хоста во время расширения, что делает необходимым расширение L2 в физической сети.

Метод API, описанный в следующем разделе, представляет собой единственное работающее на практике решение для расширения кластера по стойкам без необходимости расширения L2.

Расширение через API

Кластер можно расширить на другую стойку без необходимости расширения L2 в физической инфраструктуре, если в VCF не определена сеть управления виртуальными машинами, а расширение выполняется через API.

На схеме ниже показан кластер, изначально ограниченный стойкой 1, расширенный за счет включения хостов в стойке 2. В этой настройке сетевой пул, сеть TEP хоста и сеть управления хостом являются отдельными. 

Обратите внимание также, что рабочие виртуальные машины по-прежнему могут использовать подсети, охватывающие стойки (одна такая сеть представлена ??зеленым цветом). Это расширение предоставляется NSX и не зависит от конфигурации физической сети, что позволяет достичь желаемого результата.

Сетевые пулы назначаются хостам во время подготовки, а VCF игнорирует сеть управления хостом. Основная сложность заключается в настройке сети Host TEP во время расширения кластера по стойкам. Пример ниже поясняет процесс.

Пример расширения кластера API

В этом разделе описывается процесс расширения «Lab-cluster» для включения хоста в новую стойку.

  • Начальная настройка:
    «Lab-cluster» изначально состоит из трех хостов (new0.corp.vmbeans.com, new1.corp.vmbeans.com и new2.corp.vmbeans.com) в стойке rack1. Четвертый хост, new3.corp.vmbeans.com в стойке rack2, добавляется через API.
  • Инфраструктурные сети:
    • Управление хостом: rack1 и rack2 используют разные сети управления хостом, которыми VCF не управляет и не требует их соответствия.
    • Сетевые пулы: существующие хосты используют «Network-pool-rack1», в то время как new3.corp.vmbeans.com развернут с сетью «Network-pool-rack2», это подразумевает различные сети vSAN и vMotion.
    • Host TEP Network: все текущие хосты в кластере совместно используют одну и ту же хостовую сеть TEP, управляемую с помощью Transport Node Profile (TNP) в NSX. Поскольку новый хост в rack2 не может использовать конфигурацию TEP, специфичную для rack1, VCF должен создать sub-TNP с хостовой сетью TEP, специфичной для rack2.

На диаграмме ниже представлено обобщенное представление этого лабораторного сценария:

Чтобы добавить new3.corp.vmbeans.com в существующий «Lab-cluster», выполните следующие действия:

  1. Получите идентификатор кластера.
    Используйте следующий вызов API, чтобы получить идентификатор «Lab-cluster»:

    GET /v1/clusters

  2. Проверьте входную спецификацию для вызова API

    POST /v1/clusters/{cluster ID}/validations


    - Используйте идентификатор кластера, полученный на предыдущем шаге
    - Тело этого вызова - это тело, представленное в нижней части этого раздела, инкапсулированное в «clusterUpdateSpec»: { <body> }
  3. Обновление конфигурации кластера

    PATCH /v1/cluster/{cluster ID}


    Тело запроса API для этой операции подробно описано ниже:
{
  «clusterExpansionSpec»: {
    «hostSpecs»: [
      {
 
            "id": "2a1c3eec-2b16-41bc-9b10-825e1343f22e", Идентификатор ссылается на хост new3.corp.vmbeans.com в rack2, добавляемый в кластер. Сетевой пул был назначен во время ввода в эксплуатацию в VCF, поэтому этот шаг настраивает только параметры NSX, специфичные для его TEP. Хотя этот пример добавляет один хост, в один вызов API могут быть включены несколько хостов.
        "licenseKey": "xxx", LicenseKey: лицензионный ключ для хоста, который также можно применить непосредственно на хосте.
        "username": "root", Имя пользователя для входа на хост
        "hostNetworkSpec": {  
          "vmNics": [
            {
              "id": "vmnic0",
              "vdsName": "cluster-vds",
              "uplink": "uplink1"
            },
Определения хоста vmnic:
– Укажите имя vmnic.
– Определите VDS, к которому он подключен, и соответствующий аплинк VDS.

Новый хост использует тот же VDS, что и существующие хосты в кластере.
            {
              "id": "vmnic1",
              "vdsName": "cluster-vds",
              "uplink": "uplink2"
            }
          ],
 
          "networkProfileName": "alternate-network-profile"
        }
      }
    ],
Профиль сети NSX определяет конфигурацию сети TEP. Для этого расширения в этом вызове API создается новый профиль сети, alternate-network-profile, для использования другой сети TEP.
    "networkSpec": {
      "nsxClusterSpec": {
 
        "ipAddressPoolsSpec": [
          {
            "name": "alternate-address-pool",
            "description": "different IP pool for rack2",
Rack2 использует другую подсеть для своих инфраструктурных сетей, требуя от хостовых TEP использовать отдельный пул IP NSX. В этом вызове API для этой цели определяется новый пул IP, alternate-address-pool.
            "subnets": [
              {
                "ipAddressPoolRanges": [
                  {
                    "start": "192.168.243.50",
                    "end": "192.168.243.100"
                  }
                ],
                "cidr": "192.168.243.0/24",
                "gateway": "192.168.243.1"
              }
            ]
          }
        ],
 
        "uplinkProfiles": [
          {
            "name": "alternate-uplink-profile",
Мы определяем профиль аплинков для новой стойки.
Профиль аплинков NSX определяет имена, их политику объединения и, наконец, транспортную VLAN (то есть идентификатор VLAN, используемый для трафика TEP). 
Нет необходимости создавать другие имена аплинков NSX или политику объединения для хоста, который мы добавляем в rack2. Мы создаем новый профиль аплинков, потому что хотим использовать другой идентификатор VLAN для трафика NSX на rack2. Если бы мы хотели сохранить в rack2 тот же идентификатор VLAN, что и для rack1 (обратите внимание, что тот же идентификатор VLAN не означает ту же VLAN), мы могли бы использовать существующий профиль аплинка для rack1.
            "teamings": [
              {
                "policy": "LOADBALANCE_SRCID",
                "activeUplinks": [
                  "nsx-uplink-1",
                  "nsx-uplink-2"
                ],
                "standByUplinks": []
              }
            ],
Определение двух аплинков для трафика NSX: nsx-uplink-1 и nsx-uplink-2. Это просто имена (мы могли бы использовать здесь любую строку символов), используемые при определении политики объединения по умолчанию типа «ID исходного порта балансировки нагрузки».
В конечном итоге аплинки NSX будут сопоставлены с аплинками VDS.
            "transportVlan": 243
          }
        ]
      },
Как было отмечено ранее, идентификатор VLAN для трафика TEP отличается в rack2 по сравнению с rack1.
      "networkProfiles": [
        {
          "name": "alternate-network-profile",
          "description": "different TEP network for track2",
          "nsxtHostSwitchConfigs": [
            {
              "vdsName": "cluster-vds",
              "uplinkProfileName": "alternate-uplink-profile",
              "ipAddressPoolName": "alternate-address-pool",
              "vdsUplinkToNsxUplink": [
                {
                  "vdsUplinkName": "uplink1",
                  "nsxUplinkName": "nsx-uplink-1"
                },
                {
                  "vdsUplinkName": "uplink2",
                  "nsxUplinkName": "nsx-uplink-2"
                }
              ]
            }
          ]
        }
      ]
    }
  }
}
 
 
Сетевой профиль, указанный в разделе «hostSpecs», определяет все специфичные для NSX детали, необходимые для настройки NSX на хосте. Он включает:
– Профиль аплинков.
– Ранее определенный пул IP (обратите внимание, что DHCP также поддерживается, просто оставьте ipAddressPoolName пустым в этом случае.)
– Связи между аплинками NSX и аплинками VDS.

В NSX эта информация представлена ??как профиль транспортного узла (TNP), шаблон для идентичной настройки нескольких хостов в кластере. Новый сетевой профиль, созданный с помощью этого API, отличается от того, который использовался в rack1, что не позволяет использовать согласованный TNP во всем кластере. В результате VCF создает «sub-TNP» для «alternate-network-profile» и применяет его к «sub-cluster», группируя хосты в rack2. Подкластер назван в честь нового сетевого профиля VCF.

При выполнении этого вызова API, узел new3.corp.vmbeans.com добавляется в кластер Lab-cluster. Поскольку новый хост использует другой сетевой пул, отличный от исходного кластера, VCF автоматически создает новые распределенные порты VDS (dvpgs) для сетей vSAN и vMotion, как показано на скриншоте ниже.

Детали сети TEP хоста не отображаются напрямую в VCF, но их можно просмотреть через NSX Manager. На скриншоте ниже показан «alternate-uplink-profile», настроенный VCF для нового хоста в стойке rack2:

На скриншоте ниже показана конфигурация кластера "Lab-cluster" в NSX. К кластеру привязан TNP (Transport Node Profile) с именем "vcenter-vi1-paris-Lab-cluster", а для недавно добавленного хоста (new3.corp.vmbeans.com) назначен sub-TNP под названием "alternate-network-profile". Этот sub-TNP, разумеется, применяет конфигурацию, заданную в части сетевого профиля вызова API.

Источник.

Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge