Компания VMware официально объявила о выпуске новой версии платформы виртуализации VMware vSphere 4.1 13 июля 2010 года. Это существенное обновление компонентов пакета, включая серверы виртуализации VMware ESX 4.1 и средство управления хост-серверами и виртуальными машинами VMware vCenter 4.1.
В новой версии продукта VMware vSphere 4.1 появилось множество новых функций и улучшений, которые будут описаны в данном документе. Новые возможности направлены на повышение эффективности работы пользователей с сервисами приложений в виртуальных машинах (Application Services), а также сервисами виртуальной инфраструктуры (Infrastructure Services).
Ниже будут описаны основные новые возможности VMware vSphere 4.1, включая такие компоненты как сетевое взаимодействие (vNetwork), системы хранения данных (vStorage), средства доступности, отказоустойчивости и управления ресурсами, средства управления виртуальной средой, а также изменения в вычислительной инфраструктуре (vCompute).
Улучшения сетевого взаимодействия (vNetwork)
Общая информация о новых возможностях
Производительность сетевого взаимодействия:
Улучшения стека TCP/IP в модуле VMkernel — технологии vMotion, Fault Tolerance, а также доступ к массивам NFS работают более производительно
UDP и взаимодействие между виртуальными машинами в пределах хоста работают быстрее
Виртуальный распределенный коммутатор (vDS) масштабируется до ~350 хостов на один коммутатор (ранее 64 хоста)
Управление сетевым трафиком
(только для распределенного виртуального коммутатора Virtual Distributed Switch, vDS):
Технология NetIOC (Network I/O Control)
Программный планировщик для гарантирования уровней обслуживания для отдельных типов трафика
Технология LBT (Load Based Teaming)
Динамическое перераспределение нагрузки на NIC Team на основе данных о загрузке физического адаптера (pNIC)
Совместимость IPv6—NIST:
Совместимость с профилем хоста NIST
Улучшения виртуального коммутатора Nexus 1000V:
Дополнительные возможности Nexus 1000V — поддержка Nexus 1000V версий 1.4 или 2.0
Новое в VMotion
Теперь поддерживается до 8 одновременных миграций vMotion на хост ESX 4.1, а сам механизм был значительно переработан, что позволяет достичь производительности до 8 Гб/сек на 10 GbE соединении (до 3-х раз быстрее, чем в 4.0):
Пропускная способность для одиночной миграции VMotion:
ESX 3.5 – ~1.0 Гб/с
ESX 4.0 – ~2.6 Гб/с
ESX 4.1 – максимум 8 Гб/с
Время миграции сокращено до 50% на тестах в сети 10 GbE.
Новое во внутреннем взаимодействии ВМ
Виртуальные машины в пределах хоста VMware ESX 4.1 могут обмениваться трафиком со скоростью до 19 Гб/с.
Эффективность сетевого взаимодействия виртуальной машины улучшена до 10%
Технология LRO (Large Receive Offload)
Тесты на прием трафика показывают 5-30% прироста эффективности
На 40-60% снижается нагрузка на CPU
Улучшение быстродействия при работе с массивами NAS / NFS
До 15% снижения нагрузки на CPU для операций чтения и записи
До 15% увеличения пропускной способности для операций чтения и записи
Аппаратная поддержка iSCSI адаптеров (Broadcom iSCSI)
89% снижение по нагрузке на CPU для операций чтения
83% снижение по нагрузке на CPU для операций записи
Результаты тестов VMware:
Использование адаптеров 10G Ethernet – технология Network IO Control (NetIOC)
Основные задачи:
Изоляция типов трафика друг от друга в пределах одного физического сетевого адаптера
Гибкое управление ресурсами для разделения канала и гарантирования уровней обслуживания для типов трафика
Вместо 6 физических сетевых адаптеров 1G можно использовать 2 адаптера 10G, но в этом случае нужно управлять типами трафика (VM Network, VMotion, iSCSI Storage) для этих адаптеров, чтобы гарантировать уровни обслуживания. Внимание: возможности NetIOC доступны только для виртуального коммутатора vDS.
Параметры Limits и Shares:
Limit – определяет абсолютный максимум пропускной способности для потока через Team (группа сетевых интерфейсов):
Указывается в Mbps
Трафик из заданного потока никогда не превысит Limit
Только для исходящего трафика с хоста ESX
Shares – определяет относительную важность потока через Team на физическом адаптере, т. е. гарантированный минимум:
Указывается в абстрактных единицах от 1 до 100
Предопределенные значения Low (25), Normal (50), High (100), а также возможность установки произвольного значения (Custom)
Пропускная способность канала делится между потоками пропорционально их Shares
Параметры Limit и Shares устанавливаются только для исходящего трафика
Shares применяется только к одному vmnic
Limit применяется к Team (группе vmnic)
Можно использовать как для 1G, так и для 10G адаптеров
В интерфейсе vSphere Client:
Пример:
Пропускная способность канала - ~890 Mbps, из них:
80% получает трафик iSCSI (~710 Mbps)
20% получает трафик виртуальных машин (~180 Mbps)
Улучшения Nic Teaming – Load Balanced Teaming
Внимание: техника Load Based Teaming (LBT) доступна только для виртуального коммутатора vDS.
Основная задача Load Based Teaming (LBT):
Предотвращение несбалансированного состояния нагрузки на физические сетевые адаптеры хоста VMware ESX 4.1
Проблема: допустим, есть 2 физических сетевых адаптера, на которые установлен тип балансировки «Originating Virtual Port ID». 5 виртуальных машин будут статически закреплены за одним адаптером, а остальные пять – за другим. При этом, если для первой группы нагрузка будет расти и возможностей первого адаптера будет не хватать, то второй адаптер может простаивать.
Решение проблемы с помощью Load Based Teaming (LBT):
LBT переназначает Port ID другим vmnic при обнаружении недостаточной пропускной способности
Такой ситуацией считается, когда в течение 30 секунд канал «забит» на 75% и более.
30 секунд – достаточное время, чтобы предотвратить неоправданную ребалансировку
В интерфейсе vSphere Client:
Расширение поддержки IPv6
Что было в Virtual Infrastructure 3.5 (ESX 3.5):
Поддержка IPv6 для гостевых ОС
Что появилось в VMware vSphere 4.0:
Поддержка для ESX 4
Поддержка для vSphere Client
Поддержка для vCenter Server
Поддержка для vMotion
Экспериментальная поддержка для IP Storage (iSCSI, NFS)
Нет поддержки для vSphere vCLI, HA, FT, Auto Deploy
Установщик для VSM HA и взаимодействия между модулями L3 VEM/VSM
Начало сертификации по требованиям EAL4 Common Criteria
4094 активных VLAN
Больше профилей портов (> 512)
Улучшение работы с системами хранения данных (vStorage)
Общая информация о новых возможностях
Технология Storage I/O Control для более правильной приоритизации трафика от виртуальных машин к хранилищам
Интерфейс vStorage API for Array Integration (VAAI)
Новые статистики мониторинга производительности в vCenter и esxtop
Технология Storage I/O Control (SIOC)
В версии VMware vSphere 4.0 у виртуальных машин были настройки Shares для категории Disk, которые определяли приоритеты виртуальных машин по нагрузке на СХД в рамках одного сервера VMware ESX. То есть, если имеется два сервера VMware ESX и виртуальные машины на них, то приоритеты нагрузки на систему хранения будут распределены следующим образом при наличии параметров Shares:
Очередь дискового массива поровну делилась между хостами VMware ESX, а уже для каждого хоста его процент очереди делился на части в зависимости от Shares виртуальных машин.
Такой механизм не отражает реальную ситуацию по отношению к требованиям виртуальных машин к вводу-выводу, поскольку даже наиболее критичные сервисы в виртуальных машинах на хосте VMware ESX в кластере не могут получить больше, чем 1/n от очереди массива для тома VMFS / LUN, где n - число хостов ESX.
Технология Storage IO Control (SCIO) в VMware vSphere 4.1 позволяет изменить данную ситуацию за счет двух техник:
Вычисление задержек (latency) на том VMFS для запуска механизма SCIO (более 35 ms по умолчанию)
Изменение пропускной способности канала виртуальных машин хоста к СХД за счет изменения глубины очереди HBA-адаптера (device queue depth)
Регулировка очереди со стороны HBA-адаптера позволяет более корректно распределить нагрузку на СХД между сервисами в виртуальных машинах в соответствии с их параметрами Shares (относительный приоритет) и Limit (абсолютное ограничение в операциях ввода-вывода, IOPS). Таким образом, в VMware ESX 4.1 приоритизация трафика к СХД работает так:
Как видно из рисунка, наиболее критичный сервис (красный цвет), при условиях заданных Shares для нескольких хостов ESX, позволяет потреблять 60% от того, что может выдать дисковый массив для данного тома VMFS. Это соответствует соотношению:
Механизм Storage IO Control для хостов VMware ESX включается при превышении порога latency для тома VMFS, определяемого пользователем, что позволяет надежно защитить наиболее критичные сервисы в виртуальных машинах от всплесков нагрузки на систему хранения данных в виртуальной инфраструктуре.
Включение и настройка Storage IO Control в интерфейсе vSphere Client.
1. Расставляются приоритеты (Shares) для категории Disk у виртуальных машин:
2. Включается технология SIOC для Datastore:
3. Shares для виртуальных машин отображаются в свойствах виртуальных машин для Datastore:
Ключевые аспекты технологии Storage IO Control:
Виртуальная машина с большим количеством Shares может посылать больше операций ввода-вывода в заданный промежуток времени
Механизм SIOC начинает работать только при превышении заданного порогового значения latency (35 ms по умолчанию)
Shares – задает относительный приоритет работы виртуальной машины с системой хранения в пределах всего Datastore
Limit – жестко ограничивает IOPS для виртуальных машин
VMware рекомендует устанавливать разные пороговые значения для SATA и SSD накопителей
Пороговые значения могут изменяться автоматически сторонним ПО через vSphere API
Интерфейс vStorage APIs for Array Integration (VAAI)
Основная задача:
Повышение производительности за счет использования операций на стороне массива вместо операций на стороне хоста VMware ESX
Компания VMware работает со своими партнерами – производителями систем хранения данных, чтобы добавить в firmware дисковых массивов 3 следующих набора функций:
Full Copy – функция подобная Xcopy, позволяющая передать на сторону массива возможности копирования объектов виртуальной инфраструктуры без задействования операций четния-записи со стороны сервера VMware ESX 4.1.
Write Same – возможность обнуления больших массивов блоков на дисковых устройствах для быстрого создания дисков vmdk типа eager zero thick.
Atomic Test and Set –возможность защиты метаданных тома VMFS как кластерной файловой системы в ситуациях, когда большое количество хостов ESX имеют разделяемый доступ к одному хранилищу.
Технология может оказаться полезной в следующих случаях:
Использование динамической миграции хранилищ Storage VMotion
Внимание: технология поддерживает только firmware дисковых массивов, участвующих в программах VMware. За дополнительной информацией обращайтесь к производителю вашего дискового массива.
Примеры использования vStorage APIs for Array Integration (VAAI):
1. Ускорение Storage VMotion за счет Full Copy.
Ускорение переноса хранилищ виртуальных машин за счет передачи функций на сторону массива (функция Full Copy)
Упрощение обслуживания хранилищ, разделения по ярусам (tiering), балансировки нагрузки, обновления и управления дисковым пространством
Использование функций массива native copy/clone для разгрузки операций на хосте ESX и в сети передачи данных
Как это выглядит на практике:
2. Ускорение копирования данных между томами VMFS за счет Full Copy и Write Same.
Снижение времени копирования на величину до 95%
Снижение нагрузки на серверы, сетевые устройства и систему хранения данных
Результаты тестов VMware:
3. Операции с виртуальными машинами и защита метаданных тома VMFS за счет Atomic Test and Set (ATS).
Сейчас операции с виртуальными машинами (запуск, останов, снятие снапшота и т.п.) вызывают блокировку всего LUN со стороны хоста ESX
Когда хостов ESX много – это вызывает проблемы со SCSI Reservations
VAAI позволяет передать функции управления метаданными тома VMFS на сторону массива в целях обеспечения надежности и производительности
До и после VAAI:
На данный момент в программе участвуют следующие производители дисковых массивов:
Dell / Equal Logic
EMC
Hitachi Data Systems
HP
IBM
NetApp
Новые метрики производительности систем хранения
Основное улучшение:
Новые статистики производительности по пропускной способности и задержкам:
Datastore per host
Storage adapter & path per Host
Datastore per VM
VMDK per VM
Отслеживание трендов производительности в vCenter (в реальном времени и историческое) в графическом интерфейсе (GUI).
Отслеживание метрик производительности утилитами esxtop и resxtop в режиме командной строки (CLI)
Поддержка гетерогенных сред с массивами FC, iSCSI, NFS
Сравнительная таблица методов мониторинга производительности систем хранения данных:
Объект
Компонент объекта
Статистика
Тип массива (FC/NFS/iSCSI)
Есть в vCenter?
Есть в esxtop?
Host
datastore
Throughput, latency
Все типы
Да
Да
Storage adapter
Throughput, latency
FC
Да
Да (было ранее)
Storage path
Throughput, latency
FC
Да
Да (было ранее)
LUN
Throughput, latency
FC, iSCSI (для NFS – это Datastore)
Да (было ранее)
Да (было ранее)
VM
Datastore
Throughput, latency
Все типы
Да
Да
VMDK
Throughput, latency
Все типы
Да
Да
Статистики хранилища для устройств NAS/NFS (утилита esxtop):
Активность хранилища (Datastore) для хоста ESX:
Другие новые статистики:
Активность Datastore для виртуальной машины:
Улучшения VMware ESXi 4.1
Общая информация о новых возможностях
Новые возможности развертывания ESXi
Поддержка Boot from SAN
Поддержка Scripted Installation (Kickstart)
Централизованное обновление ПО сторонних производителей
VMware Update Manager может обновлять драйверы, модели CIM и другие компоненты
Улучшенные процедуры аутентификации на хосте
Встроенная служба для интеграции с Active Directory
Доступ в локальную консоль и Tech Support Mode не только для root
Возможности CLI для обнаружения и решения проблем
Полная поддержка Tech Support Mode (локально и по SSH)
Дополнительные команды в Tech Support Mode: vscsiStats, nc, tcpdump-uw
Дополнительные возможности управления через vCLI: SCSI, VAAI, Network, VM
Улучшенный контроль над локальной активностью
Вход в консоль и Tech Support Mode настраивается через vCenter
Полная защита хоста - Total host lockdown
Активность в Tech Support Mode посылается в Syslog
Загрузка ESXi 4.1 из SAN
Полностью поддерживается в ESXi 4.1
Экспериментально поддерживалась в ESXi 4.0
Boot from SAN поддерживает хранилища FC, iSCSI и FCoE
Scripted Installation (Kickstart)
Несколько типов установки
Загрузчик устанавливается с
CD-ROM (default)
Preboot Execution Environment (PXE)
Образ ESXi может находиться на:
CD-ROM (default), HTTP / HTTPS, FTP, NFS
Сценарий установки может храниться и запускаться:
На ESXi Installer ramdisk (по умолчанию)
На установочном CD-ROM
HTTP / HTTPS, FTP, NFS
Сценарий конфигурации (ks.cfg) может включать и другие сценарии:
Preinstall
Postinstall (например, добавление в vCenter)
First boot
Полная поддержка Tech Support Mode
В версии ESXi 4.0 режим Tech Support Mode существовал только для взаимодействия с технической поддержкой компании VMware. Теперь в ESXi 4.1 этот режим полностью поддерживается и может быть включен как локально, так и в интерфейсе vCenter.
Для Tech Support Mode в ESXi 4.1 можно установит таймаут, после которого этот режим станет недоступен с момента загрузки хоста. По умолчанию этот таймаут составляет 10 минут, он может быть настроен в локальной консоли:
Таймаут задается в минутах от 0 (выключен) до 1440 (максимум)
Активные сессии пользователей по истечении таймаута не прерываются
Все команды из Tech Support Mode пересылаются в Syslog
Поддержка служб Active Directory
Возможность аутентификации всех служб:
vSphere Client
Доступ через vSphere API
Локальная консоль
Tech Support Mode (локально и по SSH)
Функциональность групп Active Directory:
Например, члены группы «ESX Admins» в AD имеют административные привилегии
Привилегии включают в себя:
полную административную роль в vSphere Client и доступ через vSphere API
Доступ в локальную консоль
Tech Support Mode (локально и по SSH)
Дополнительные команды в vCLI ESXi 4.1
Команды для работы с системами хранения:
esxcli swiscsi session: управление сессиями iSCSI
esxcli swiscsi nic: управление сетевыми адаптерами iSCSI
esxcli swiscsi vmknic: Просмотр списка сетевых адаптеров VMkernel доступных для привязки к отдельному адаптеру iSCSI
esxcli swiscsi vmnic: Просмотр списка сетевых адаптеров для использования с указанным адаптером iSCSI
esxcli vaai device: Вывод информации об устройствах, используемых VMware VAAI (vStorage APIs for Array Integration) Filter Plugin.
esxcli corestorage device: Просмотр списка устройств или плагинов. Используется совместно с hardware acceleration.
Сетевое взаимодействие:
esxcli network: вывод списка активных соединений или списка записей в таблице ARP
Виртуальные машины:
esxcli vms: останов виртуальной машины, не отвечающей на действия в vSphere Client
Дополнительные команды для решения проблем:
vscsiStats
nc (netcat)
tcpdump-uw
Возможности Total Lockdown
Начиная с версии VMware ESXi 4.1, появилась возможность полностью закрыть хост от доступа по различным интерфейсам. В этом случае хост может быть управляем только сервером vCenter. Доступ может быть закрыт по следующим компонентам:
Локальная консоль сервера (DCUI)
Lockdown Mode (запрещает все, кроме пользователя root локальной консоли)
Tech Support Mode (локально и удаленно)
Внимание: если закрыт доступ к локальной консоли сервера и другим интерфейсам, то при недоступности vCenter будет невозможно управлять сервером ESXi. В этом случае единственный способ выхода из ситуации – переустановка ESXi.
Службы доступности, отказоустойчивости и управления ресурсами
Общая информация о новых возможностях
Увеличение максимальных параметров кластеров HA и DRS
Улучшения механизма VMware High Availability (HA) в области диагностики и надежности
Улучшения продукта VMware Data Recovery для резервного копирования и восстановления виртуальных машин
Увеличение максимальных параметров кластеров HA и DRS
Параметры кластеров VMware HA и VMware DRS теперь унифицированы
Теперь платформа VMware vSphere 4.1 позволяет следующие конфигурации виртуальной инфраструктуры:
3 000 виртуальных машин в кластере VMware HA / DRS (было 1 280)
1 000 хостов под управлением vCenter Server (было 300)
15 000 зарегистрированных ВМ на один vCenter Server (было 4 500)
10 000 одновременно запущенных ВМ на один vCenter Server (было 3 000)
120 одновременно запущенных клиентов vSphere Client на один vCenter Server (было 30)
500 хостов на объект Virtual Datacenter (было 100)
5 000 виртуальных машин на объект Virtual Datacenter (было 2 500)
32 хоста в кластере VMware HA / DRS (такое же, как и в vSphere 4.0)
320 виртуальных машин на хост ESX (вне зависимости от числа хостов в кластере, ранее этот параметр зависел от числа хостов и типа кластера)
Улучшения механизма VMware High Availability (HA)
В VMware vSphere Client появилось новое окно Cluster Operational Status, в котором можно подробно отслеживать корректность конфигурации механизма отказоустойчивости.
HA Healthcheck Status – можно отслеживать состояние кластера VMware HA, которое свидетельствует о том, что все необходимые требования выполнены
HA Operational Status – расширенный статус VMware HA, который отслеживает выполнение требований на уровне каждого хоста ESX, включая ошибки конфигурации
Улучшенная интеграция механизмов HA и DRS, позволяющая DRS автоматически освобождать ресурсы хостов за счет VMotion, чтобы они могли запустить рестартуемые виртуальные машины отказавшего хоста
API для интеграции с VMware HA теперь доступен сторонним разработчикам
Улучшения механизма VMware Fault Tolerance (FT)
Механизм VMware FT теперь полностью интегрирован с VMware DRS, что позволяет балансировать нагрузку на хосты VMware ESX 4.1 для Primary и Secondary виртуальных машин. Также поддерживается и балансировка по первоначальному размещению FT-машин в кластере.
Внимание: для корректной работы этого механизма необходим включенный режим кластера EVC.
Теперь для хостов, поддерживающих FT-машины, отсутствует требование по полному соответствию номеров билдов серверов ESX
События для Primary VM и Secondary VM фиксируются отдельно и могут быть идентифицированы в списке событии VMware vCenter
VMware HA может быть выключен в кластере без необходимости выключения VMware FT для виртуальных машин
VMware FT Logging между серверами ESX работает значительно быстрее за счет улучшений в сетевом стеке
Улучшения VMware VMotion
За счет улучшений в сетевом взаимодействии миграция VMotion между хостами ESX теперь работает значительно быстрее (конкретная степень улучшения зависит от нагрузки в виртуальной машине). Также уменьшено время перехода хоста ESX в Maintenance Mode
Увеличено число одновременных миграций (по умолчанию):
До 4 в сети 1G и до 8 в сети 10G
До 128 на одно виртуальное хранилище (Datastore)
Более гибкая настройка кластера EVC (Enhanced vMotion Compatibility):
Подготовка к отсутствию на хосте с процессором AMD функций 3DNow! (поскольку будущие хосты могут не иметь поддержки этой технологии)
Теперь совместимость виртуальной машины для миграции в кластер EVC определяется не по возможностям процессора хоста, где она находится, а по возможностям CPU самой виртуальной машины. Это упрощает ее перенос в кластер EVC и позволяет более детально описывать ошибки при миграции
Теперь в свойствах виртуальной машины отображаются используемые ей в кластере EVC функции:
Также эта информация доступна на вкладке Summary для виртуальной машины:
Теперь при добавлении хоста VMware ESX 4.1 в кластер EVC его совместимость по CPU проверяется заранее, до начала процесса добавления, что существенно экономит время.
Новые правила DRS Host Affinity
В VMware vSphere 4.1 можно задавать правила существования виртуальных машин на хостах VMware ESX, привязывая группы ВМ к группам хостов. Правила могут быть заданы жестко (Required) - ни при каких условиях виртуальная машина не переедет с помощью VMotion на хосты не из заданной группы (DRS) и не перезапустится на них в случае сбоя физического сервера (HA). Есть также «мягкий» режим работы (Preferential) - когда правило соблюдается по мере возможности, но, в случае недоступности указанных хостов, виртуальная машина использует другие хосты кластера HA/DRS.
Данные правила могут быть полезны в следующих случаях:
Когда модель лицензирования прикладного ПО в виртуальной машине вызывает необходимость разделять виртуальные машины по хостам или группам («жесткие» правила)
Когда требуется разнести некоторые виртуальные машины на уровне точек отказа: например, разные блейдовые шасси («мягкие» правила)
Улучшения механизма DPM
Планирование включения механизма Distributed Power Management (DPM):
Включение / отключение DPM как запланированная задача
DPM может быть отключен в бизнес-часы наибольшей загрузки серверов
При выключении DPM все хосты ESX, находящиеся в режиме Standby, включаются, чтобы не оказаться в отключенном состоянии при отключенном DPM
Улучшения продукта VMware Data Recovery
Поддержка до 10 экземпляров Data Recovery на 1 vCenter для защиты до 1000 виртуальных машин
Клиент для восстановления отдельных файлов из резервных копий систем Linux (File Level Restore client for Linux)
Улучшенная поддержка VSS для Windows 2008 и Windows 7: application level quiescing
Улучшенная поддержка хранилищ DAS, NFS, iSCSI и Fibre Channel, а также ресурсов CIFS в качестве хранилища резервных копий
Увеличенное быстродействие механизма дедупликации
Возможность простого переключения между экземплярами Data Recovery в интерфейсе vCenter
Средства управления виртуальной инфраструктурой
Общая информация о новых возможностях
Улучшения vCenter Server:
Использование 64-битного продукта вместо 32-битного
Улучшенная масштабируемость
Улучшения механизма обновлений Update Manager
Улучшения профилей хостов (Host Profiles)
64-битная версия Orchestrator
Поддержка Active Directory (хосты ESX и модуль vMA)
Улучшения модуля Management Assistant (vMA)
Возможность импорта виртуальных машин Hyper-V с помощью VMware Converter
Устройство Virtual Serial Port Concentrator (VSPC)
Улучшения vCenter Server
VMware vCenter теперь официально поддерживается только в 64-битной ОС Windows. Это связано с ограничениями 32-битных ОС, а также необходимостью поддерживать только одну ветку тестирования и разработки продукта
Максимумы VMware vCenter были увеличены:
3 000 виртуальных машин в кластере VMware HA / DRS (было 1 280)
1 000 хостов под управлением vCenter Server (было 300)
15 000 зарегистрированных ВМ на один vCenter Server (было 4 500)
10 000 одновременно запущенных ВМ на один vCenter Server (было 3 000)
120 одновременно запущенных клиентов vSphere Client на один vCenter Server (было 30)
500 хостов на объект Virtual Datacenter (было 100)
5 000 виртуальных машин на объект Virtual Datacenter (было 2 500)
Улучшения Update Manager
Возможности Patch Recall – поскольку иногда встречается ситуация, когда из-за обновления компонентов VMware vSphere некоторые компоненты начинают работать некорректно, VMware Update Manager (VUM) оперативно (чаще, чем сами обновления) собирает информацию о таких событиях и своевременно оповещает администраторов о необходимости совершения каких-либо действий.
Поддержка механизмов обновлений для ПО сторонних производителей. VMware ESX имеет в своем составе модуль PSA, который может использовать ПО производителя дискового массива (например, EMC PowerPath). С помощью нововведений в VUM становится возможным производить обновление этих модулей.
Отключение функций, препятствующих переходу хоста ESX в режим обслуживания для обновлений (Maintenance Mode). VUM может отключить режим EVC, HA, FT, возможности DPM или присоединенный CD ROM. После проведения обновления эти возможности автоматически включаются.
Улучшение Host Profiles
Поддержка модуля Cisco Nexus 1000V для настройки и применения профиля хоста ESX
Модуль Orchestrator теперь имеет 64-битные серверную и клиентскую части
Опционально 32-битный клиент
Улучшения производительности
Поддержка Active Directory
Учетные записи пользователей серверов ESX / ESXi и vCenter можно централизованно хранить и обслуживать в Active Directory
Возможен откат привилегий на хостах VMware ESX / ESXi с использованием Host Profiles
Улучшения модуля Management Assistant (vMA)
Поддержка аутентификации через Active Directory
Операционная система CentOS вместо Red Hat Enterprise Linux
Улучшения VMware Converter
Возможность импорта виртуальных машин с серверов Microsoft Hyper-V
Устройство Virtual Serial Port Concentrator (VSPC)
Возможность перенаправления последовательного порта виртуальной машины по сети. Эта возможность создана для поддержки старых рабочих процессов по управлению системами через последовательные порты.
Вычислительные ресурсы
Общая информация о новых возможностях
Технология Transparent Memory Compression (TMC)
Использование виртуальных ядер в виртуальных vCPU
Меньшие накладные расходы гипервизора
Расширенный список поддерживаемых процессоров
Презентация USB устройств хоста виртуальной машине
Transparent Memory Compression (TMC)
Transparent Memory Compression (TMC) позволяет сжимать страницы памяти, которые должны были быть направлены в файл подкачки (своп). Каждая виртуальная машина имеет compression cache, где VMware ESX 4.1 может хранить страницы, сжатые до объема 2 KB. Функция Transparent Memory Compression в VMware vSphere 4.1 включена по умолчанию, однако администратор может управлять размером кэша (по умолчанию это 10% от памяти машины) или отключать TMC. Прирост производительности хоста, использующего TMC для оптимизации памяти, может составить от 15% до 25% в зависимости от степени загрузки памяти хост-сервера ESX 4.1.
Результаты тестов VMware:
Использование виртуальных ядер в виртуальных vCPU
Позволяет использовать несколько виртуальных ядер в пределах одного виртуального процессора (vCPU)
Устанавливается параметром cpuid.coresPerSocket в расширенных настройках виртуальной машины
Позволяет обойти ограничения операционных систем на процессоры
Имеет некоторые ограничения (например, отсутствие Hot Add для vCPU)
Меньшие накладные расходы гипервизора
VMware vSphere 4.1 имеет меньшие накладные расходы гипервизора на поддержание работы виртуальных машин, особенно в случаях, когда используются системы с поддержкой MMU (технологии AMD RVI или Intel EPT).
Презентация USB устройств хоста виртуальной машине
Различные USB устройства, подключенные к хост-серверу ESX / ESXi, доступны для презентации виртуальным машинам только данного хоста (например, устройство хранения или USB-ключ). При этом есть возможность настроить доступность USB-устройства виртуальной машине, которая будет перемещена с помощью VMotion или DRS на другой хост ESX / ESXi.
Единовременно только одна виртуальная машина может использовать USB-устройство