Новости Статьи VMware Veeam StarWind vStack Microsoft Nakivo Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6230 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru / Articles / Технический обзор возможностей VMware vSphere 4.1.

Технический обзор возможностей VMware vSphere 4.1.

Технический обзор возможностей VMware vSphere 4.1.

Автор: Александр Самойленко
Дата: 15/07/2010

Поддержите VM Guru!

USDT / TRC20, адрес: TCDP7d9hBM4dhU2mBt5oX2x5REPtq9QdU1




Статья:

Компания VMware официально объявила о выпуске новой версии платформы виртуализации VMware vSphere 4.1 13 июля 2010 года. Это существенное обновление компонентов пакета, включая серверы виртуализации VMware ESX 4.1 и средство управления хост-серверами и виртуальными машинами VMware vCenter 4.1.

В новой версии продукта VMware vSphere 4.1 появилось множество новых функций и улучшений, которые будут описаны в данном документе. Новые возможности направлены на повышение эффективности работы пользователей с сервисами приложений в виртуальных машинах (Application Services), а также сервисами виртуальной инфраструктуры (Infrastructure Services).

Ниже будут описаны основные новые возможности VMware vSphere 4.1, включая такие компоненты как сетевое взаимодействие (vNetwork), системы хранения данных (vStorage), средства доступности, отказоустойчивости и управления ресурсами, средства управления виртуальной средой, а также изменения в вычислительной инфраструктуре (vCompute).

Улучшения сетевого взаимодействия (vNetwork)

Общая информация о новых возможностях

Производительность сетевого взаимодействия:

    • Улучшения стека TCP/IP в модуле VMkernel — технологии vMotion, Fault Tolerance, а также доступ к массивам NFS работают более производительно
    • UDP и взаимодействие между виртуальными машинами в пределах хоста работают быстрее
    • Виртуальный распределенный коммутатор (vDS) масштабируется до ~350 хостов на один коммутатор (ранее 64 хоста)

Управление сетевым трафиком
(только для распределенного виртуального коммутатора Virtual Distributed Switch, vDS):

    • Технология NetIOC (Network I/O Control)
      • Программный планировщик для гарантирования уровней обслуживания для отдельных типов трафика
    • Технология LBT (Load Based Teaming)
      • Динамическое перераспределение нагрузки на NIC Team на основе данных о загрузке физического адаптера (pNIC)

Совместимость IPv6—NIST:

    • Совместимость с профилем хоста NIST

Улучшения виртуального коммутатора Nexus 1000V:

    • Дополнительные возможности Nexus 1000V — поддержка Nexus 1000V версий 1.4 или 2.0
Новое в VMotion

Теперь поддерживается до 8 одновременных миграций vMotion на хост ESX 4.1, а сам механизм был значительно переработан, что позволяет достичь производительности до 8 Гб/сек на 10 GbE соединении (до 3-х раз быстрее, чем в 4.0):

    • Пропускная способность для одиночной миграции VMotion:
      • ESX 3.5 – ~1.0 Гб/с
      • ESX 4.0 – ~2.6 Гб/с
      • ESX 4.1 – максимум 8 Гб/с
    • Время миграции сокращено до 50% на тестах в сети 10 GbE.
Новое во внутреннем взаимодействии ВМ
    • Виртуальные машины в пределах хоста VMware ESX 4.1 могут обмениваться трафиком со скоростью до 19 Гб/с.
    • Эффективность сетевого взаимодействия виртуальной машины улучшена до 10%
Технология LRO (Large Receive Offload)
    • Тесты на прием трафика показывают 5-30% прироста эффективности
    • На 40-60% снижается нагрузка на CPU
Улучшение быстродействия при работе с массивами NAS / NFS
    • До 15% снижения нагрузки на CPU для операций чтения и записи
    • До 15% увеличения пропускной способности для операций чтения и записи
Аппаратная поддержка iSCSI адаптеров (Broadcom iSCSI)
    • 89% снижение по нагрузке на CPU для операций чтения
    • 83% снижение по нагрузке на CPU для операций записи

Результаты тестов VMware:

Использование адаптеров 10G Ethernet – технология Network IO Control (NetIOC)

Основные задачи:

    • Изоляция типов трафика друг от друга в пределах одного физического сетевого адаптера
    • Гибкое управление ресурсами для разделения канала и гарантирования уровней обслуживания для типов трафика

Вместо 6 физических сетевых адаптеров 1G можно использовать 2 адаптера 10G, но в этом случае нужно управлять типами трафика (VM Network, VMotion, iSCSI Storage) для этих адаптеров, чтобы гарантировать уровни обслуживания.
Внимание: возможности NetIOC доступны только для виртуального коммутатора vDS.

Параметры Limits и Shares:

    • Limit – определяет абсолютный максимум пропускной способности для потока через Team (группа сетевых интерфейсов):
      • Указывается в Mbps
      • Трафик из заданного потока никогда не превысит Limit
      • Только для исходящего трафика с хоста ESX
    • Shares – определяет относительную важность потока через Team на физическом адаптере, т. е. гарантированный минимум:
      • Указывается в абстрактных единицах от 1 до 100
      • Предопределенные значения Low (25), Normal (50), High (100), а также возможность установки произвольного значения (Custom)
      • Пропускная способность канала делится между потоками пропорционально их Shares

       

  • Параметры Limit и Shares устанавливаются только для исходящего трафика
  • Shares применяется только к одному vmnic
  • Limit применяется к Team (группе vmnic)
  • Можно использовать как для 1G, так и для 10G адаптеров

В интерфейсе vSphere Client:

Пример:

Пропускная способность канала - ~890 Mbps, из них:

  • 80% получает трафик iSCSI (~710 Mbps)
  • 20% получает трафик виртуальных машин (~180 Mbps)

Улучшения Nic Teaming – Load Balanced Teaming

Внимание: техника Load Based Teaming (LBT) доступна только для виртуального коммутатора vDS.
Основная задача Load Based Teaming (LBT):

    • Предотвращение несбалансированного состояния нагрузки на физические сетевые адаптеры хоста VMware ESX 4.1

Проблема: допустим, есть 2 физических сетевых адаптера, на которые установлен тип балансировки «Originating Virtual Port ID». 5 виртуальных машин будут статически закреплены за одним адаптером, а остальные пять – за другим. При этом, если для первой группы нагрузка будет расти и возможностей первого адаптера будет не хватать, то второй адаптер может простаивать.
Решение проблемы с помощью Load Based Teaming (LBT):

    • LBT переназначает Port ID другим vmnic при обнаружении недостаточной пропускной способности
    • Такой ситуацией считается, когда в течение 30 секунд канал «забит» на 75% и более.
    • 30 секунд – достаточное время, чтобы предотвратить неоправданную ребалансировку

В интерфейсе vSphere Client:

Расширение поддержки IPv6

Что было в Virtual Infrastructure 3.5 (ESX 3.5):

    • Поддержка IPv6 для гостевых ОС

Что появилось в VMware vSphere 4.0:

    • Поддержка для ESX 4
    • Поддержка для vSphere Client
    • Поддержка для vCenter Server
    • Поддержка для vMotion
    • Экспериментальная поддержка для IP Storage (iSCSI, NFS)
    • Нет поддержки для vSphere vCLI, HA, FT, Auto Deploy

Что появилось в VMware vSphere 4.1:

Планируемые улучшения для Cisco Nexus 2.0
    • Упрощенное обновление ПО:
      • Для модулей VSM и VEM
      • Бинарная совместимость
    • Использование Weighted Fair Queuing (программный планировщик)
    • Улучшенная масштабируемость
    • Более гибкое управление профилями портов
    • Закрепление VLAN за pNIC
    • Установщик для VSM HA и взаимодействия между модулями L3 VEM/VSM
    • Начало сертификации по требованиям EAL4 Common Criteria
    • 4094 активных VLAN
    • Больше профилей портов (> 512)

Улучшение работы с системами хранения данных (vStorage)

Общая информация о новых возможностях
    • Технология Storage I/O Control для более правильной приоритизации трафика от виртуальных машин к хранилищам
    • Интерфейс vStorage API for Array Integration (VAAI)
    • Новые статистики мониторинга производительности в vCenter и esxtop

Технология Storage I/O Control (SIOC)

В версии VMware vSphere 4.0 у виртуальных машин были настройки Shares для категории Disk, которые определяли приоритеты виртуальных машин по нагрузке на СХД в рамках одного сервера VMware ESX. То есть, если имеется два сервера VMware ESX и виртуальные машины на них, то приоритеты нагрузки на систему хранения будут распределены следующим образом при наличии параметров Shares:

Очередь дискового массива поровну делилась между хостами VMware ESX, а уже для каждого хоста его процент очереди делился на части в зависимости от Shares виртуальных машин.
Такой механизм не отражает реальную ситуацию по отношению к требованиям виртуальных машин к вводу-выводу, поскольку даже наиболее критичные сервисы в виртуальных машинах на хосте VMware ESX в кластере не могут получить больше, чем 1/n от очереди массива для тома VMFS / LUN, где n - число хостов ESX.
Технология Storage IO Control (SCIO) в VMware vSphere 4.1 позволяет изменить данную ситуацию за счет двух техник:

    • Вычисление задержек (latency) на том VMFS для запуска механизма SCIO (более 35 ms по умолчанию)
    • Изменение пропускной способности канала виртуальных машин хоста к СХД за счет изменения глубины очереди HBA-адаптера (device queue depth)
Регулировка очереди со стороны HBA-адаптера позволяет более корректно распределить нагрузку на СХД между сервисами в виртуальных машинах в соответствии с их параметрами Shares (относительный приоритет) и Limit (абсолютное ограничение в операциях ввода-вывода, IOPS). Таким образом, в VMware ESX 4.1 приоритизация трафика к СХД работает так:

Как видно из рисунка, наиболее критичный сервис (красный цвет), при условиях заданных Shares для нескольких хостов ESX, позволяет потреблять 60% от того, что может выдать дисковый массив для данного тома VMFS. Это соответствует соотношению:

1500 (shares сервиса) / 2500 (общие shares ВМ хостов) * 100% = 60%

Механизм Storage IO Control для хостов VMware ESX включается при превышении порога latency для тома VMFS, определяемого пользователем, что позволяет надежно защитить наиболее критичные сервисы в виртуальных машинах от всплесков нагрузки на систему хранения данных в виртуальной инфраструктуре.

Включение и настройка Storage IO Control в интерфейсе vSphere Client.

1. Расставляются приоритеты (Shares) для категории Disk у виртуальных машин:

2. Включается технология SIOC для Datastore:

3. Shares для виртуальных машин отображаются в свойствах виртуальных машин для Datastore:

Ключевые аспекты технологии Storage IO Control:

  • Виртуальная машина с большим количеством Shares может посылать больше операций ввода-вывода в заданный промежуток времени
  • Механизм SIOC начинает работать только при превышении заданного порогового значения latency (35 ms по умолчанию)
  • Shares – задает относительный приоритет работы виртуальной машины с системой хранения в пределах всего Datastore
  • Limit – жестко ограничивает IOPS для виртуальных машин
  • VMware рекомендует устанавливать разные пороговые значения для SATA и SSD накопителей
  • Пороговые значения могут изменяться автоматически сторонним ПО через vSphere API
Интерфейс vStorage APIs for Array Integration (VAAI)

Основная задача:

    • Повышение производительности за счет использования операций на стороне массива вместо операций на стороне хоста VMware ESX

Компания VMware работает со своими партнерами – производителями систем хранения данных, чтобы добавить в firmware дисковых массивов 3 следующих набора функций:

  • Full Copy – функция подобная Xcopy, позволяющая передать на сторону массива возможности копирования объектов виртуальной инфраструктуры без задействования операций четния-записи со стороны сервера VMware ESX 4.1.
  • Write Same – возможность обнуления больших массивов блоков на дисковых устройствах для быстрого создания дисков vmdk типа eager zero thick.
  • Atomic Test and Set возможность защиты метаданных тома VMFS как кластерной файловой системы в ситуациях, когда большое количество хостов ESX имеют разделяемый доступ к одному хранилищу.

Технология может оказаться полезной в следующих случаях:

    • Использование динамической миграции хранилищ Storage VMotion
    • Развертывание новых машин из шаблонов (Templates)
    • Улучшение производительности «тонких» (Thin provisioned) дисков
    • Масштабирование пула хранилищ VMFS

Внимание: технология поддерживает только firmware дисковых массивов, участвующих в программах VMware. За дополнительной информацией обращайтесь к производителю вашего дискового массива.
Примеры использования vStorage APIs for Array Integration (VAAI):

1. Ускорение Storage VMotion за счет Full Copy.
  • Ускорение переноса хранилищ виртуальных машин за счет передачи функций на сторону массива (функция Full Copy)
  • Упрощение обслуживания хранилищ, разделения по ярусам (tiering), балансировки нагрузки, обновления и управления дисковым пространством
  • Использование функций массива native copy/clone для разгрузки операций на хосте ESX и в сети передачи данных

Как это выглядит на практике:

2. Ускорение копирования данных между томами VMFS за счет Full Copy и Write Same.
  • Снижение времени копирования на величину до 95%
  • Снижение нагрузки на серверы, сетевые устройства и систему хранения данных

Результаты тестов VMware:

3. Операции с виртуальными машинами и защита метаданных тома VMFS за счет Atomic Test and Set (ATS).
  • Сейчас операции с виртуальными машинами (запуск, останов, снятие снапшота и т.п.) вызывают блокировку всего LUN со стороны хоста ESX
  • Когда хостов ESX много – это вызывает проблемы со SCSI Reservations
  • VAAI позволяет передать функции управления метаданными тома VMFS на сторону массива в целях обеспечения надежности и производительности

До и после VAAI:

На данный момент в программе участвуют следующие производители дисковых массивов:

    • Dell / Equal Logic
    • EMC
    • Hitachi Data Systems
    • HP
    • IBM
    • NetApp
Новые метрики производительности систем хранения
    • Основное улучшение:

Новые статистики производительности по пропускной способности и задержкам:

      •   Datastore per host
      •   Storage adapter & path per Host
      •   Datastore per VM
      •   VMDK per VM
    • Отслеживание трендов производительности в vCenter (в реальном времени и историческое) в графическом интерфейсе (GUI).
    • Отслеживание метрик производительности утилитами esxtop и resxtop в режиме командной строки (CLI)
    • Поддержка гетерогенных сред с массивами FC, iSCSI, NFS

Сравнительная таблица методов мониторинга производительности систем хранения данных:

Объект

Компонент объекта

Статистика

Тип массива (FC/NFS/iSCSI)

Есть в vCenter?

Есть в esxtop?

Host

datastore

Throughput, latency

Все типы

Да

Да

Storage adapter

Throughput, latency

FC

Да

Да (было ранее)

Storage path

Throughput, latency

FC

Да

Да (было ранее)

LUN

Throughput, latency

FC, iSCSI (для NFS – это Datastore)

Да (было ранее)

Да (было ранее)

VM

Datastore

Throughput, latency

Все типы

Да

Да

VMDK

Throughput, latency

Все типы

Да

Да

Статистики хранилища для устройств NAS/NFS (утилита esxtop):

Активность хранилища (Datastore) для хоста ESX:

Другие новые статистики:

Активность Datastore для виртуальной машины:

Улучшения VMware ESXi 4.1

Общая информация о новых возможностях
    • Новые возможности развертывания ESXi
      • Поддержка Boot from SAN
      • Поддержка Scripted Installation (Kickstart)
    • Централизованное обновление ПО сторонних производителей
      • VMware Update Manager может обновлять драйверы, модели CIM и другие компоненты
    • Улучшенные процедуры аутентификации на хосте
      • Встроенная служба для интеграции с Active Directory
      • Доступ в локальную консоль и Tech Support Mode не только для root
    • Возможности CLI для обнаружения и решения проблем
      • Полная поддержка Tech Support Mode (локально и по SSH)
      • Дополнительные команды в Tech Support Mode: vscsiStats, nc, tcpdump-uw
      • Дополнительные возможности управления через vCLI: SCSI, VAAI, Network, VM
    • Улучшенный контроль над локальной активностью
      • Вход в консоль и Tech Support Mode настраивается через vCenter
      • Полная защита хоста - Total host lockdown
      • Активность в Tech Support Mode посылается в Syslog
Загрузка ESXi 4.1 из SAN
    • Полностью поддерживается в ESXi 4.1
    • Экспериментально поддерживалась в ESXi 4.0
    • Boot from SAN поддерживает хранилища FC, iSCSI и FCoE
Scripted Installation (Kickstart)
    • Несколько типов установки
    • Загрузчик устанавливается с
      • CD-ROM (default)
      • Preboot Execution Environment (PXE)
    • Образ ESXi может находиться на:
      • CD-ROM (default), HTTP / HTTPS, FTP, NFS
    • Сценарий установки может храниться и запускаться:
      • На ESXi Installer ramdisk (по умолчанию)
      • На установочном CD-ROM
      • HTTP / HTTPS, FTP, NFS
    • Сценарий конфигурации (ks.cfg) может включать и другие сценарии:
      • Preinstall
      • Postinstall (например, добавление в vCenter)
      • First boot

Полная поддержка Tech Support Mode

В версии ESXi 4.0 режим Tech Support Mode существовал только для взаимодействия с технической поддержкой компании VMware. Теперь в ESXi 4.1 этот режим полностью поддерживается и может быть включен как локально, так и в интерфейсе vCenter.

Для Tech Support Mode в ESXi 4.1 можно установит таймаут, после которого этот режим станет недоступен с момента загрузки хоста. По умолчанию этот таймаут составляет 10 минут, он может быть настроен в локальной консоли:

    • Таймаут задается в минутах от 0 (выключен) до 1440 (максимум)
    • Активные сессии пользователей по истечении таймаута не прерываются
    • Все команды из Tech Support Mode пересылаются в Syslog
Поддержка служб Active Directory
    • Возможность аутентификации всех служб:
      • vSphere Client
      • Доступ через vSphere API
      • Локальная консоль
      • Tech Support Mode (локально и по SSH)
    • Функциональность групп Active Directory:
      • Например, члены группы «ESX Admins» в AD имеют административные привилегии
      • Привилегии включают в себя:
      • полную административную роль в  vSphere Client и доступ через vSphere API
      • Доступ в локальную консоль
      • Tech Support Mode (локально и по SSH)
Дополнительные команды в vCLI ESXi 4.1
    • Команды для работы с системами хранения:
      • esxcli swiscsi session: управление сессиями iSCSI
      • esxcli swiscsi nic: управление сетевыми адаптерами iSCSI
      • esxcli swiscsi vmknic: Просмотр списка сетевых адаптеров VMkernel доступных для привязки к отдельному адаптеру iSCSI
      • esxcli swiscsi vmnic: Просмотр списка сетевых адаптеров для использования с указанным адаптером iSCSI
      • esxcli vaai device: Вывод информации об устройствах, используемых VMware VAAI (vStorage APIs for Array Integration) Filter Plugin.
      • esxcli corestorage device: Просмотр списка устройств или плагинов. Используется совместно с hardware acceleration.
    • Сетевое взаимодействие:
      • esxcli network: вывод списка активных соединений или списка записей в таблице ARP
    • Виртуальные машины:
      • esxcli vms: останов виртуальной машины, не отвечающей на действия в vSphere Client
    • Дополнительные команды для решения проблем:
      • vscsiStats
      • nc (netcat)
      • tcpdump-uw
Возможности Total Lockdown

Начиная с версии VMware ESXi 4.1, появилась возможность полностью закрыть хост от доступа по различным интерфейсам. В этом случае хост может быть управляем только сервером vCenter. Доступ может быть закрыт по следующим компонентам:

    • Локальная консоль сервера (DCUI)
    • Lockdown Mode (запрещает все, кроме пользователя root локальной консоли)
    • Tech Support Mode (локально и удаленно)
Внимание: если закрыт доступ к локальной консоли сервера и другим интерфейсам, то при недоступности vCenter будет невозможно управлять сервером ESXi. В этом случае единственный способ выхода из ситуации – переустановка ESXi.

Службы доступности, отказоустойчивости и управления ресурсами

Общая информация о новых возможностях
    • Увеличение максимальных параметров кластеров HA и DRS
    • Улучшения механизма VMware High Availability (HA) в области диагностики и надежности
    • Улучшения механизма непрерывной доступности VMware Fault Tolerance (FT)
    • Улучшения VMware VMotion
      • Производительность
      • Удобство использования
      • Совместимость процессоров
    • Новые правила DRS Host Affinity
    • Улучшения механизма DPM
    • Улучшения продукта VMware Data Recovery для резервного копирования и восстановления виртуальных машин
Увеличение максимальных параметров кластеров HA и DRS
    • Параметры кластеров VMware HA и VMware DRS теперь унифицированы
    • Теперь платформа VMware vSphere 4.1 позволяет следующие конфигурации виртуальной инфраструктуры:
      • 3 000 виртуальных машин в кластере VMware HA / DRS (было 1 280)
      • 1 000 хостов под управлением vCenter Server (было 300)
      • 15 000 зарегистрированных ВМ на один vCenter Server (было 4 500)
      • 10 000 одновременно запущенных ВМ на один vCenter Server (было 3 000)
      • 120 одновременно запущенных клиентов vSphere Client на один vCenter Server (было 30)
      • 500 хостов на объект Virtual Datacenter (было 100)
      • 5 000 виртуальных машин на объект Virtual Datacenter (было 2 500)
      • 32 хоста в кластере VMware HA / DRS (такое же, как и в vSphere 4.0)
      • 320 виртуальных машин на хост ESX (вне зависимости от числа хостов в кластере, ранее этот параметр зависел от числа хостов и типа кластера)
Улучшения механизма VMware High Availability (HA)

В VMware vSphere Client появилось новое окно Cluster Operational Status, в котором можно подробно отслеживать корректность конфигурации механизма отказоустойчивости.

    • HA Healthcheck Status – можно отслеживать состояние кластера VMware HA, которое свидетельствует о том, что все необходимые требования выполнены
    • HA Operational Status – расширенный статус VMware HA, который отслеживает выполнение требований на уровне каждого хоста ESX, включая ошибки конфигурации
    • Улучшенная интеграция механизмов HA и DRS, позволяющая DRS автоматически освобождать ресурсы хостов за счет VMotion, чтобы они могли запустить рестартуемые виртуальные машины отказавшего хоста
    • API для интеграции с VMware HA теперь доступен сторонним разработчикам

Улучшения механизма VMware Fault Tolerance (FT)

Механизм VMware FT теперь полностью интегрирован с VMware DRS, что позволяет балансировать нагрузку на хосты VMware ESX 4.1 для Primary и Secondary виртуальных машин. Также поддерживается и балансировка по первоначальному размещению FT-машин в кластере.

Внимание: для корректной работы этого механизма необходим включенный режим кластера EVC.

    • Теперь для хостов, поддерживающих FT-машины, отсутствует требование по полному соответствию номеров билдов серверов ESX
    • События для Primary VM и Secondary VM фиксируются отдельно и могут быть идентифицированы в списке событии VMware vCenter
    • VMware HA может быть выключен в кластере без необходимости выключения VMware FT для виртуальных машин
    • VMware FT Logging между серверами ESX работает значительно быстрее за счет улучшений в сетевом стеке
Улучшения VMware VMotion
  • За счет улучшений в сетевом взаимодействии миграция VMotion между хостами ESX теперь работает значительно быстрее (конкретная степень улучшения зависит от нагрузки в виртуальной машине). Также уменьшено время перехода хоста ESX в Maintenance Mode
  • Увеличено число одновременных миграций (по умолчанию): 
    • До 4 в сети 1G и до 8 в сети 10G
    • До 128 на одно виртуальное хранилище (Datastore)

    • Более гибкая настройка кластера EVC (Enhanced vMotion Compatibility):
      • Подготовка к отсутствию на хосте с процессором AMD функций 3DNow! (поскольку будущие хосты могут не иметь поддержки этой технологии)
      • Теперь совместимость виртуальной машины для миграции в кластер EVC определяется не по возможностям процессора хоста, где она находится, а по возможностям CPU самой виртуальной машины. Это упрощает ее перенос в кластер EVC и позволяет более детально описывать ошибки при миграции

    • Теперь в свойствах виртуальной машины отображаются используемые ей в кластере EVC функции:

    • Также эта информация доступна на вкладке Summary для виртуальной машины:

    • Теперь при добавлении хоста VMware ESX 4.1 в кластер EVC его совместимость по CPU проверяется заранее, до начала процесса добавления, что существенно экономит время.
Новые правила DRS Host Affinity

В VMware vSphere 4.1 можно задавать правила существования виртуальных машин на хостах VMware ESX, привязывая группы ВМ к группам хостов. Правила могут быть заданы жестко (Required) - ни при каких условиях виртуальная машина не переедет с помощью VMotion на хосты  не из заданной группы (DRS) и не перезапустится на них в случае сбоя физического сервера (HA). Есть также «мягкий» режим работы (Preferential) - когда правило соблюдается по мере возможности, но, в случае недоступности указанных хостов, виртуальная машина использует другие хосты кластера HA/DRS.

Данные правила могут быть полезны в следующих случаях:

  • Когда модель лицензирования прикладного ПО в виртуальной машине вызывает необходимость разделять виртуальные машины по хостам или группам («жесткие» правила)
  • Когда требуется разнести некоторые виртуальные машины на уровне точек отказа: например, разные блейдовые шасси («мягкие» правила)

Улучшения механизма DPM
    • Планирование включения механизма Distributed Power Management (DPM):
      • Включение / отключение DPM как запланированная задача
      • DPM может быть отключен в бизнес-часы наибольшей загрузки серверов
    • При выключении DPM все хосты ESX, находящиеся в режиме Standby, включаются, чтобы не оказаться в отключенном состоянии при отключенном DPM

Улучшения продукта VMware Data Recovery
    • Поддержка до 10 экземпляров Data Recovery на 1 vCenter для защиты до 1000 виртуальных машин
    • Клиент для восстановления отдельных файлов из резервных копий систем Linux (File Level Restore client for Linux)
    • Улучшенная поддержка VSS для Windows 2008 и Windows 7: application level quiescing
    • Улучшенная поддержка хранилищ DAS, NFS, iSCSI и Fibre Channel, а также ресурсов CIFS в качестве хранилища резервных копий
    • Увеличенное быстродействие механизма дедупликации
    • Возможность простого переключения между экземплярами Data Recovery в интерфейсе vCenter

Средства управления виртуальной инфраструктурой

Общая информация о новых возможностях
    • Улучшения vCenter Server:
      • Использование 64-битного продукта вместо 32-битного
      • Улучшенная масштабируемость
    • Улучшения механизма обновлений Update Manager
    • Улучшения профилей хостов (Host Profiles)
    • 64-битная версия Orchestrator
    • Поддержка Active Directory (хосты ESX и модуль vMA)
    • Улучшения модуля Management Assistant (vMA)
    • Возможность импорта виртуальных машин Hyper-V с помощью VMware Converter
    • Устройство Virtual Serial Port Concentrator (VSPC)
Улучшения vCenter Server
    • VMware vCenter теперь официально поддерживается только в 64-битной ОС Windows. Это связано с ограничениями 32-битных ОС, а также необходимостью поддерживать только одну ветку тестирования и разработки продукта
    • Максимумы VMware vCenter были увеличены:
      • 3 000 виртуальных машин в кластере VMware HA / DRS (было 1 280)
      • 1 000 хостов под управлением vCenter Server (было 300)
      • 15 000 зарегистрированных ВМ на один vCenter Server (было 4 500)
      • 10 000 одновременно запущенных ВМ на один vCenter Server (было 3 000)
      • 120 одновременно запущенных клиентов vSphere Client на один vCenter Server (было 30)
      • 500 хостов на объект Virtual Datacenter (было 100)
      • 5 000 виртуальных машин на объект Virtual Datacenter (было 2 500)
Улучшения Update Manager
    • Возможности Patch Recall – поскольку иногда встречается ситуация, когда из-за обновления компонентов VMware vSphere некоторые компоненты начинают работать некорректно, VMware Update Manager (VUM) оперативно (чаще, чем сами обновления) собирает информацию о таких событиях и своевременно оповещает администраторов о необходимости совершения каких-либо действий.
    • Поддержка механизмов обновлений для ПО сторонних производителей. VMware ESX имеет в своем составе модуль PSA, который может использовать ПО производителя дискового массива (например, EMC PowerPath). С помощью нововведений в VUM становится возможным производить обновление этих модулей.
    • Отключение функций, препятствующих переходу хоста ESX в режим обслуживания для обновлений (Maintenance Mode). VUM может отключить режим EVC, HA, FT, возможности DPM или присоединенный CD ROM. После проведения обновления эти возможности автоматически включаются.

Улучшение Host Profiles
    • Поддержка модуля Cisco Nexus 1000V для настройки и применения профиля хоста ESX
    • Конфигурация интерфейсов хоста (PCI device ordering)
    • Поддержка хранилищ iSCSI для профилей
    • Установка административного пароля
    • Конфигурация модулей PSA (Pluggable Storage Architecture)
64-битная версия Orchestrator
    • Модуль Orchestrator теперь имеет 64-битные серверную и клиентскую части
    • Опционально 32-битный клиент
    • Улучшения производительности
Поддержка Active Directory
    • Учетные записи пользователей серверов ESX / ESXi и vCenter можно централизованно хранить и обслуживать в Active Directory
    • Возможен откат привилегий на хостах VMware ESX / ESXi с использованием Host Profiles
Улучшения модуля Management Assistant (vMA)
    • Поддержка аутентификации через Active Directory
    • Операционная система CentOS вместо Red Hat Enterprise Linux
Улучшения VMware Converter
    • Возможность импорта виртуальных машин с серверов Microsoft Hyper-V
Устройство Virtual Serial Port Concentrator (VSPC)
    • Возможность перенаправления последовательного порта виртуальной машины по сети. Эта возможность создана для поддержки старых рабочих процессов по управлению системами через последовательные порты.

Вычислительные ресурсы

Общая информация о новых возможностях
    • Технология Transparent Memory Compression (TMC)
    • Использование виртуальных ядер в виртуальных vCPU
    • Меньшие накладные расходы гипервизора
    • Расширенный список поддерживаемых процессоров
    • Презентация USB устройств хоста виртуальной машине
Transparent Memory Compression (TMC)

Transparent Memory Compression (TMC) позволяет сжимать страницы памяти, которые должны были быть направлены в файл подкачки (своп). Каждая виртуальная машина имеет compression cache, где VMware ESX 4.1 может хранить страницы, сжатые до объема 2 KB. Функция Transparent Memory Compression в VMware vSphere 4.1 включена по умолчанию, однако администратор может управлять размером кэша (по умолчанию это 10% от памяти машины) или отключать TMC. Прирост производительности хоста, использующего TMC для оптимизации памяти, может составить от 15% до 25% в зависимости от степени загрузки памяти хост-сервера ESX 4.1.

Результаты тестов VMware:

Использование виртуальных ядер в виртуальных vCPU
    • Позволяет использовать несколько виртуальных ядер в пределах одного виртуального процессора (vCPU)
    • Устанавливается параметром cpuid.coresPerSocket в расширенных настройках виртуальной машины
    • Позволяет обойти ограничения операционных систем на процессоры
    • Имеет некоторые ограничения (например, отсутствие Hot Add для vCPU)
Меньшие накладные расходы гипервизора
    • VMware vSphere 4.1 имеет меньшие накладные расходы гипервизора на поддержание работы виртуальных машин, особенно в случаях, когда используются системы с поддержкой MMU (технологии AMD RVI или Intel EPT).
Расширенный список поддерживаемых процессоров
    • Компания VMware существенно расширила список поддерживаемых процессоров, а также других устройств, полный список которых доступен по адресу: http://www.vmware.com/resources/compatibility/search.php
Презентация USB устройств хоста виртуальной машине
    • Различные USB устройства, подключенные к хост-серверу ESX / ESXi, доступны для презентации виртуальным машинам только данного хоста (например, устройство хранения или USB-ключ). При этом есть возможность настроить доступность USB-устройства виртуальной машине, которая будет перемещена с помощью VMotion или DRS на другой хост ESX / ESXi.
    • Единовременно только одна виртуальная машина может использовать USB-устройство

Дополнительная информация

vSphere 4.1 Virtual Machine Administration Guide
http://www.vmware.com/pdf/vsphere4/r41/vsp_41_vm_admin_guide.pdf

vSphere 4.1 Resource Management Guide
http://www.vmware.com/pdf/vsphere4/r41/vsp_41_resource_mgmt.pdf

ESX 4.1 Configuration Guide
http://www.vmware.com/pdf/vsphere4/r41/vsp_41_esx_server_config.pdf

vSphere 4.1 Availability Guide
http://www.vmware.com/pdf/vsphere4/r41/vsp_41_availability.pdf

ESXi 4.1 Configuration Guide
http://www.vmware.com/pdf/vsphere4/r41/vsp_41_esxi_server_config.pdf

vSphere 4.1 Datacenter Administration Guide
http://www.vmware.com/pdf/vsphere4/r41/vsp_41_dc_admin_guide.pdf

VMware vCenter Converter Installation and Administration Guide
http://www.vmware.com/pdf/vsp_vcc_42_admin_guide.pdf

VMware vSphere 4.1 Configuration Maximums
http://www.vmware.com/pdf/vsphere4/r41/vsp_41_config_max.pdf

VMware vCenter 4.1 Update Manager Installation and Administration Guide
http://www.vmware.com/pdf/vsp_vum_41_admin_guide.pdf

VMware Data Recovery 1.2 Administration Guide
http://www.vmware.com/pdf/vdr_12_admin.pdf

vSphere 4.1 Command-Line Interface Installation and Scripting Guide
http://www.vmware.com/pdf/vsphere4/r41/vsp4_41_vcli_inst_script.pdf

vSphere Management Assistant Guide
http://www.vmware.com/support/developer/vima/vma41/doc/vma_41_guide.pdf

VMware Compatibility Guide
http://www.vmware.com/resources/compatibility/search.php

vCenter Orchestrator Installation and Configuration Guide
http://www.vmware.com/pdf/vco_410_install_config_guide.pdf

Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

04/11/2024:  VMware Explore 2024 Барселона

Быстрый переход:
VMware Cloud StarWind VMachines Offtopic NAKIVO vStack Gartner Veeam Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate Microsoft SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V vSAN Tanzu VCF AI Intel Workstation Private AI VCP V2V HCX Aria NSX DPU Explore Update EUC Avi Broadcom Community Skyline Host Client Chargeback Horizon Labs SASE Workspace ONE Networking Backup Ransomware Tools Performance Lifecycle Network AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile VMUG SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP ONE DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint Stretched Memory Bugs Director ESA Troubleshooting Android Python Upgrade ML Hub Guardrails CLI VCPP Driver Foundation HPC Orchestrator Optimization SVMotion Diagram Ports SIOC Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2024, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge