Послезавтра, 21 июля, компании Mellanox и StarWind проведут интересный вебинар "100 GbE Performance at 10 GbE Cost", посвященный построению решения для хранилищ виртуальных машин впечатляющей производительности (да-да, 100 GbE, Карл!).
Мероприятие пройдет 21 июля, в 21-00 по московскому времени:
Приходите на вебинар, чтобы узнать, как по цене 10 GbE-решения построить сеть 40 GbE на базе продуктов Mellanox (Infiniband/Ethernet) и добиться в ней 100 GbE производительности за счет решений компании StarWind (в частности, продукта Virtual SAN). Вебинар со стороны StarWind проводит Макс Коломейцев, так что вы можете задавать вопросы на русском языке.
Если вы администратор платформы виртуализации VMware vSphere, то, наверное, часто замечали, что в некоторых случаях при операциях с виртуальными машинами и ее дисками происходит "подмораживание" ВМ (или "stun", он же "quiescence"). В этот момент виртуальная машина ничего не может делать - она недоступна для взаимодействия (в консоли и по сети), а также перестает на небольшое время производить операции ввода-вывода. То есть, ее исполнение ставится на паузу на уровне инструкций, а на уровне ввода-вывода совершаются только операции, касающиеся выполняемой задачи (например, закрытие прежнего VMDK-диска и переключение операций чтения-записи на новый диск при операциях со снапшотами).
Cormac Hogan написал на эту тему интересный пост. Stun виртуальной машины нужен, как правило, для того, чтобы сделать ее на время изолированной от окружающего мира для выполнения значимых дисковых операций, например, консолидация снапшотов. Это может занимать несколько секунд (и даже десятков), но часто это происходит на время около секунды и даже меньше.
Когда может возникать stun виртуальной машины? Есть несколько таких ситуаций.
1. Во время операции "suspend" (постановка ВМ на паузу). Тут происходит такое подмораживание, чтобы скинуть память ВМ на диск, после чего перевести ее в приостановленное состояние.
2. В момент создания снапшота. Об этом написано выше - нужно закрыть старый диск и начать писать в новый. На время этой операции логично, что приостанавливается ввод-вывод.
3. Консолидация снапшотов (удаление всех). Здесь тоже нужно "склеить" все VMDK-диски (предварительно закрыв) и начать работать с основным диском ВМ. А вот удаление снапшота в цепочке stun не вызывает, так как не затрагивает VMDK, в который сейчас непосредственно идет запись.
4. Горячая миграция vMotion. Сначала память передается от одной машины к целевой ВМ без подмораживания, но затем происходит такой же stun, как и при операции suspend, с тем только отличием, что маленький остаток памяти (минимальная дельта) передается не на диск, а по сети. После этого происходит операция resume уже на целевом хосте. Пользователь этого переключения, как правило, не замечает, так как время этого переключения очень жестко контролируется и чаще всего не достигает 1 секунды. Если память гостевой ОС будет меняться очень быстро, то vMotion может затянуться именно во время этого переключения (нужно передать последнюю дельту).
5. Горячая миграция хранилищ Storage vMotion. Здесь stun случается аж дважды: сначала vSphere должна поставить Mirror Driver, который будет реплицировать в синхронном режиме операции ввода-вывода на целевое хранилище. При постановке этого драйвера происходит кратковременный stun (нужно также закрыть диски). Но и при переключении работы ВМ на второе хранилище происходит stun, так как нужно удалить mirror driver, а значит снова переоткрыть диски уже на целевом хранилище.
В современных версиях vSphere работа со снапшотами была оптимизирована, поэтому подмораживания виртуальной машины во время этих операций вы почти не заметите.
Практически все администраторы виртуальных инфраструктур обеспокоены проблемой ее производительности в тех или иных условиях. На днях компания VMware обновила свое основное руководство по производительности платформы виртуализации номер один на рынке - Performance Best Practices for VMware vSphere 6.0.
Это не просто очередной whitepaper - это настоящая книга о производительности, на почти 100 страницах которой можно найти не только теоретические советы, но и вполне практичные настройки и конфигурации среды VMware vSphere. К каждому объясняемому параметру заботливо описаны рекомендуемые значения. В общем, Must Read.
Многие наши читатели интересуются, а есть ли утилиты, предназначенные специально для облачных инфраструктур. Например, которые позволяют оценить качество предоставления услуг сервис-провайдером? Да, есть такое, и одно из подобных средств - AppEnsure - как раз позволяет измерять время отклика для корпоративных приложений и текущую используемую пропускную способность.
Теперь это полноценный продукт, с платным и бесплатным изданиями, который позволяет анализировать качество предоставления услуг облаком (частным или публичным) и искать причину падения производительности приложений.
Вот возможности бесплатной версии AppEnsure:
Обнаружение приложений вашей инфраструктуры и их добавление в окружение мониторинга.
Автоматическое построение топологии зависимости компонентов вашего приложения.
Измерение по шагам (hop-by-hop) и полного (end-to-end) времени отклика, а также пропускной способности канала для каждого приложения.
Возможность предоставления диагностической информации при снижении пропускной способности или увеличении времени отклика.
Продукт AppEnsure (консоль и база данных) поставляется как готовый виртуальный модуль (VMware Virtual Appliance).
Доступны как серверные, так и десктопные агенты для ОС Windows/Linux (до 5 серверов в бесплатной версии).
Поддержка удаленных агентов (в другой сети или облаке по отношению к мастер-инсталляции).
Доступ к веб-порталу технической поддержки.
Сохранение данных в течение 24 часов (в платной версии - сколько угодно).
Вот так выглядит обнаруженная топология:
Так дэшборд приложения:
А вот так - общий дэшборд:
Ну и таблица сравнения изданий:
Загрузить бесплатную версию AppEnsure или попробовать платную версию продукта можно по этой ссылке.
Мы точно знаем, что вам всем интересно узнать, какова же реальная производительность продукта номер 1 для создания отказоустойчивых программных хранилищ StarWind Virtual SAN. Поэтому-то и приглашаем вас на бесплатный вебинар "Get Unbelievable Performance without Expensive All-Flash Arrays", где вы узнаете как достичь высокой производительности подсистемы хранения виртуальных машин, не покупая дорогостоящие All-flash хранилища.
Вебинар пройдет 16 июня в 21-00 по московскому времени. Мероприятие проводит продакт-менеджер StarWind Макс Коломейцев. Вопросы можно задавать на русском языке! Регистрируйтесь!
Интересная история произошла тут между компаниями VMware и Nutanix. Инженеры и сейлы из VMware решили провести сравнение производительности программных отказоустойчивых кластеров на базе локальных хранилищ серверов VMware Virtual SAN и Nutanix. Создав тестовую конфигурацию и выбрав профиль нагрузки, компания VMware сделала тест в средах Virtual SAN и Nutanix.
Кстати, вот конфигурация тестового кластера хранилищ:
4 x Dell XC630-10 для Nutanix,
4 x Dell R630 для vSphere с кластером VSAN
2 x Intel E5-2690 v3 на сервер
12 ядер на процессор 2.6GHz, 256 ГБ памяти на сервер
Двухпортовый 10Gb Ethernet
1 x PERC H730 Mini на сервер
2 x 400GB Intel S3700 на сервер
6 дисков x 1TB 7200 RPM NL-SAS (Seagate) на сервер
Но тут спецы из VMware решили заглянуть в EULA Nutanix, а там написано (п. 2.1, подпункт e):
You must not disclose the results of testing, benchmarking or other performance or evaluation information related to the Software or the product to any third party without the prior written consent of Nutanix
То есть, публиковать результаты тестирования нельзя. Вот такой облом. А ведь VMware много раз ругали за то, что она сама запрещает публиковать результаты тестирования производительности с конкурирующими продуктами. Это также зафиксировано в EULA:
You may use the Software to conduct internal performance testing and benchmarking studies. You may only publish or otherwise distribute the results of such studies to third parties as follows: (a) if with respect to VMware’s Workstation or Fusion products, only if You provide a copy of Your study to benchmark@vmware.com prior to distribution; (b) if with respect to any other Software, only if VMware has reviewed and approved of the methodology, assumptions and other parameters of the study (please contact VMware at benchmark@vmware.com to request such review and approval) prior to such publication and distribution.
VMware, конечно, утверждает, что у нее условия мягче, но по-сути у них написано одно и то же. Публиковать результаты тестов без разрешения нельзя. А разрешение, конечно, никто не даст, так как опубликовать конкуренты захотят только, если у них все работает лучше и быстрее.
Поэтому VMware ничего не оставалось, как опубликовать результаты только своих тестов и разбить их по профилям нагрузки, отметив, что желающие сравнить пользователи сами могут убедиться, что Nutanix работает медленнее, проведя тесты самостоятельно.
Надо также отметить, что VMware отправила запрос на публикацию в Nutanix, на что получила ожидаемый ответ - публиковать нельзя.
Ну и, собственно, результаты тестирования для кластера Virtual SAN:
В документе рассмотрено тестирование производительности 12-узлового кластера Virtual SAN на базе серверов Supermicro в рамках следующей логической архитектуры:
Подробная конфигурация хостов:
В целом инфраструктура тестирования выглядела так:
Для тестов использовалось средство Login VSI (о нем мы уже много писали), которое поставляется вместе с методологией тестирования:
Сводные результаты тестов:
Для получения более подробной информации о результатах по каждому тесту, используемых сценариях и конфигурациях обращайтесь к документу. Все 38 страниц полны картинок, графиков и табличек с цифрами - док составлен очень по делу. Для тех, кто планирует VDI на базе Virtual SAN очень полезный референс, как в плане архитектуры, так и в плане производительности.
Таги: VMware, View, Virtual SAN, VSAN, Storage, HA, VDI, Performance
На днях компания VMware выпустила интересный открытый документ "Virtualizing Microsoft Applications on VMware Virtual SAN", в котором описываются результаты тестирования бизнес-критичных приложений Microsoft в кластере отказоустойчивых хранилищ VMware VSAN.
В документе рассматривается стрессовое тестирование следующих приложений, работающих в кластере Virtual SAN, состоящем из 8 узлов:
Microsoft Exchange 2013 с поддержкой Database Availability Groups (DAG)
Microsoft SQL Server 2014 с включенными AlwaysOn Availability Groups (AAG)
Microsoft SharePoint 2013 как фронтэнд баз данных
Для теста использовалась такая конфигурация серверов:
ESX host CPU - 2 x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz 10C (60 GHz)
Результаты тестирования первого узла с ролью Mailbox средствами Jetstress:
Результаты тестирования второго узла с ролью Mailbox:
Результаты теста Load Generator:
Архитектура сервисов Microsoft SQL Server с технологией защиты данных Always On:
Для тестирования SQL Server использовался инструмент DVD Store. Конфигурация виртуальных машин:
Результаты тестов DVD Store.
Ну и в заключение - сводные результаты тестирования:
В итоге утверждается, что приложения Microsoft уровня Tier 1 прекрасно себя чувствуют в кластере VMware Virtual SAN, и их быстродействие мало чем отличается от ситуации, если бы на бэкэнде были аппаратные SAN/NFS-массивы.
Не так давно мы писали про средство Login VUM, которое позволяет в реальном времени создавать нагрузку в виртуальном ПК для различных приложений (то есть открывать окна, выполнять некоторые операции), будто бы за этой виртуальной машиной работает реальный пользователь. Далее, если время выполнения стандартных операций превышает некоторые пороговые значения (например, приложение запускается слишком долго), Login VUM оповещает системного администратора о возникшей проблеме. Из коробки измеряется время запуска таких приложений, как Microsoft Office, Internet Explorer и Adobe Reader, но скрипты можно настроить на использование любых приложений.
Теперь компания Login VSI выпустила финальную версию этого решения, которое теперь называется Login PI.
Основные варианты использования Login PI:
Мониторинг производительности продуктивных окружений без влияния на работающие системы предприятия.
Оповещения о снижении производительности VDI-инфраструктуры (неважно, Citrix, VMware или другого вендора).
Регулярное тестирование VDI-среды для понимания ее текущего уровня производительности и занятости ресурсов.
Интересный момент - Login PI можно протестировать в реальном времени (hands-on lab) прямо на сайте Login VSI. Для этого нужно заполнить форму вот тут, после чего вам предоставят доступ к тестовой лаборатории, где вы сможете самостоятельно поработать с данным продуктом, управляя консолями двух виртуальных машин:
Руководство по использованию этой тестовой лаборатории можно почитать вот тут.
Login PI основан на фреймворке Login VSI (технология измерений VSImax), который уже надежно зарекомендовал себя для задач тестирования инфраструктуры виртуальных ПК (об этом мы писали ранее). Для запроса 30-дневной триальной версии Login PI используйте вот эту ссылку.
Как вы знаете, в обновленной версии платформы виртуализации VMware vSphere 6.0 появились не только новые возможности, но и были сделаны существенные улучшения в плане производительности (например, вот).
В компании VMware провели тест, использовав несколько виртуальных машин с базами данных SQL Server, где была OLTP-модель нагрузки (то есть большой поток небольших транзакций). Для стресс-теста БД использовалась утилита DVD Store 2.1. Архитектура тестовой конфигурации:
Сначала на хосте с 4 процессорами (10 ядер в каждом) запустили 8 виртуальных машин с 8 vCPU на борту у каждой, потом же на хосте 4 процессорами и 15 ядер в каждом запустили 8 ВМ с 16 vCPU. По количеству операций в минуту (Operations per minute, OPM) вторая конфигурация показала почти в два раза лучший результат:
Это не совсем "сравнение яблок с яблоками", но если понимать, что хосты по производительности отличаются не в два раза - то результат показателен.
Интересен также эксперимент с режимом Affinity у процессоров для "большой" виртуальной машины. В первом случае машину с 60 vCPU привязали к двум физическим процессорам хоста (15 ядер на процессор, итого 30 ядер, но использовалось 60 логических CPU - так как в каждом физическом ядре два логических).
Во втором же случае дали машине те же 60 vCPU и все оставили по дефолту (то есть позволили планировщику ESXi шедулить исполнение на всех физических ядрах сервера):
Результат, как мы видим, показателен - физические ядра лучше логических. Используйте дефолтные настройки, предоставьте планировщику ESXi самому решать, как исполнять виртуальные машины.
Как вы знаете, недавно вышла новая версия платформы виртуализации VMware vSphere 6.0, для которой было также обновлено средство создания кластеров хранилищ VMware Virtual SAN 6.0 на базе локальных дисков серверов. Среди прочих новых возможностей VSAN, было сказано об улучшении производительности решения, что и решили проверить коллеги на тестах вот тут.
Тест проводился дома и не претендует на какую-либо достоверность, но, все же, его весьма интересно посмотреть. Автор взял 3 узла Shuttle SZ87R6 следующей конфигурации (надо отметить, что они не в HCL):
Для тестирования были использованы следующие гипервизоры:
ESXi 5.5 Update 2 (build 2068190)
ESXi 6.0 (build 2494585)
В качестве средства создания нагрузки взяли IOmeter, размещенный в виртуальной машине с двумя vCPU, 4 ГБ памяти и Windows Server 2012 в качестве гостевой ОС. Было также сконфигурировано 2 дополнительных виртуальных диска на контроллере PVSCSI:
Для IOmeter было создано три профиля нагрузки, размер Working Set - 100 МБ (204800 секторов). Малый размер Working Set был выбран для более быстрого прогрева кэша.
Profile 1
Profile 2
Profile 3
Worker 1
vDisk 1
vDisk 1
vDisk 1
Sectors
204800
204800
204800
Outst. IO
16
16
16
Worker 2
vDisk 2
vDisk 2
vDisk 2
Sectors
204800
204800
204800
Outst. IO
16
16
16
Read
100%
0%
65%
Write
0%
100%
35%
Random
100%
100%
60%
Sequential
0%
0%
40%
Block size
4 KB
4 KB
4 KB
Alignment
4096 B
4096 B
4096 B
Результаты (кликабельно):
Как мы видим, VSAN 6.0 показал себя лучше при всех типах нагрузки - выжимает больше IOPS и имеет меньшую задержку (latency), а именно:
VSAN 5.5 (он же 1.0) использует формат vmfsSparse, который, по-сути, является redo-логом. В версии VSAN 6.0 появился новый формат снапшота vsanSparse, который использует механизм redirect-on-write (подробнее тут).
Тест проводился просто - запустили IOmeter (профиль 3) и последовательно снимали снапшоты, наблюдая производительность с помощью VSAN Observer.
Светло-серые картинки - это VSAN 1.0 (5.5), а темно-серые - VSAN 6.0 (кликабельно). Обратите внимание, что значения по осям X и Y на картинках не всегда соответствуют.
Итак, Latency:
Кстати, временами по latency VSAN 6.0 хуже своей предыдущей версии.
По IOPS результаты интереснее:
При создании нагрузки в виде снапшотов VSAN 6.0 снижает производительность по IOPS на 8%, а вот предыдущая версия VSAN - на 49%. Преимущества нового формата очевидны.
Полоса пропускания (Bandwidth):
Интересный эффект - в VSAN 1.0 существенно увеличивается трафик на чтение после снятия каждого снапшота, при этом у VSAN 6.0 такого не происходит. Еще одно улучшение Virtual SAN 6.0.
В целом можно отметить, что производительность кластеров VSAN заметно возрасла, ну а оптимизация снапшотов улучшит и производительность процессов, использующих эту технологию (например, резервное копирование).
Мы уже немало писали про технологию Transparent Page Sharing (TPS) в VMware vSphere, которая позволяет дедуплицировать страницы оперативной памяти на хост-сервере ESXi при недостатке физической памяти для виртуальных машин. Как мы уже писали тут и тут, в VMware vSphere 5.5 Update 3 и более поздних версиях технология TPS отключена (при дедупликации страниц между машинами), чтобы не нагружать хост понапрасну, поскольку в современных ОС используются большие страницы памяти (Large Memory Pages), вероятность дедупликации которых мала. В то же время, технологию TPS никто из vSphere не убирал, и ее можно в любой момент включить.
Как пишет знаменитый Дункан, В VMware vSphere 5.x есть 4 состояния памяти для хост-сервера относительно параметра minFree:
High (100% от minFree)
Soft (64% от minFree)
Hard (32% от minFree)
Low (16% от minFree)
Эти состояния определяют срабатывание определенных триггеров (об этом ниже). Например, если minFree для вашей конфигурации сервера равно 10 ГБ, то при переходе в состояние, когда занято 6,4 ГБ (Soft), произойдет определенное действие с точки зрения техник оптимизации памяти.
В то же время, триггеры не срабатывают жестко по этим пороговым значениям, а плавно включаются перед ними и плавно выключаются за ними, чтобы не вызвать резких изменений.
Например, при переходе из состояния High в Soft, большие страницы памяти "разламываются" на обычные, чтобы TPS мог их тут же дедуплицировать. Однако, это может сказаться не лучшим образом на производительности - у хоста и так возникает недостаток памяти, а тут еще его нагружают дедупликацией.
Поэтому в VMware vSphere 6.0 ввели новое состояние Clear (100% от minFree), а состояние High переопределили до значения 400% от minFree. Для чего это сделано? А вот для чего.
При недостатке памяти, хостом ESXi используется техника разламывания больших страниц памяти на обычные страницы, которые затем могут быть дедуплицированы с помощью TPS. Это делается затем, чтобы предотвратить свопирование страниц на диск, что является самым тормозным способом освобождения ресурсов. Так вот эта штука начинает активно работать при наличии свободной памяти в промежутке от High (400%) до Clear (100%), чтобы начать работать на еще не испытывающем острого недостатка ресурсов хосте. Но при этом TPS сразу не запускается.
Давайте посмотрим на таблицу:
Состояние памяти (State)
Пороговое значение (% от minFree)
Эффект при переходе в диапазон
High
400%
Большие страницы разламываются на обычные, но TPS не запускается и ждет следующего цикла прохода дедупликации (по умолчанию 60 минут, минимально настраиваемое в расширенном параметре Mem.ShareScanTime время равно 10 минут)
Clear
100%
Разламывание больших страниц и мгновенный запуск TPS
Soft
64%
Включение TPS и техники Memory Ballooning
Hard
32%
Включение TPS, Memory Compression и свопирования на диск
Low
16%
Memory Compression + свопирование на диск + блокировка использования памяти
Это красивое решение - начать разламывать страницы заранее и не нагружать теряющий свободную память хост.
Но все что касается TPS, актуально только тогда, когда TPS включено. По умолчанию же эта техника выключена, а о том, как включить ее, написано вот тут.
Неадвно мы писали о новых возможностях средства для создания отказоустойчивых кластеров хранилищ VMware Virtual SAN 6.0, где одной из таких возможностей стала возможность конфигурации
All-Flash кластера VSAN (то есть, когда и для кэша, и для данных используются SSD-диски):
Естественно, эта штука работает намного быстрее, чем раньше, поскольку прежде данные можно было размещать только на HDD-дисках. Но насколько это стало быстрее?
Чтобы показать некоторые цифры на практике, компания VMware провела тест на bootstorm - ситуацию, когда множество десктопов загружаются одновременно (например, в начале рабочего дня). Для этого была использована следующая конфигурация:
64 высокопроизводительных узла кластера Virtual SAN исключительно на SSD-дисках (All-Flash).
6401 виртуальных ПК (то есть по 100 каждом хосте), которые включаются одновременно.
Результаты теста оказались весьма позитивными:
За 24 минуты все виртуальные ПК загрузились.
Еще за 16 минут все десктопы получили IP-адреса и были готовы к работе.
В итоге все заняло 40 минут. Для почти шести с половиной тысяч машин это весьма и весьма неплохой результат. Кроме того, отмечается, что команда VMware не использовала никаких специальных настроек или модификаций ПО - тест работал, что называется, "из коробки".
Компания VMware еще с выходом VMware vSphere 5.1 объявила о нескольких новых начинаниях в сфере хранения данных виртуальных машин, включая возможность использования распределенного кеш на SSD-накопителях локальных дисков серверов ESXi. Данная технология имела рабочее название vFlash и находилась в стадии Tech Preview, превратившись позднее в полноценную функцию vSphere Flash Read Cache (vFRC) платформы VMware vSphere 5.5. И это вполне рабочий инструмент, который можно использовать в задачах различного уровня.
В качестве тестового окружения использовалась инфраструктура VMware vSphere, в которой были запущены виртуальные машины с доступом через Microsoft Remote Desktop Services Host (RDSH) на базе гостевой ОС Windows 2012 R2 Server. Каждой машине было назначено от 2 до 16 виртуальных процессоров (vCPU) и от 16 до 96 ГБ оперативной памяти.
Эти машины взаимодействовали с клиентскими машинами (тоже виртуальными) по протоколу PCoIP. Каждая клиентская машина имела доступ к консоли виртуального ПК и определенному набору приложений. Конфигурация клиентской машины - 32-битная Windows 7 и 1 ГБ памяти:
Схема тестирования выглядела следующим образом:
В качестве средства генерации нагрузки использовался VMware View Planner, который измерял показатели для следующей модели награузок:
Group-A: Interactive operations
Group-B: I/O Operations
Group-C: Background load operations
Нас больше всего интересуют операции группы B. Там замерялось время выполнения следующих конкретных сценариев:
Adobe Acrobat Reader 10 open PDF file
Microsoft Internet Explorer 11 open a file served by Apache, open a file in a Web album
Microsoft Office 2010:
Excel open and save file
PowerPoint open a file
Word open and save a file
Microsoft Outlook 2010 open program and save an attachment
Mozilla Firefox 3.6 open file
Вот какие получились результаты по времени выполнения данных операций в зависимости от числа виртуальных ПК на ядро процессора хост-сервера:
Желтая линия - пороговое значение в 6 секунд, при котором время выполнения одного из действий описанных выше, приемлемо для пользователя. Таким образом, на хост описанной выше конфигурации влезет до 9 виртуальных ПК с данной моделью нагрузки.
Взглянем на загрузку процессора при увеличении числа пользователей (виртуальных ПК) на ядро процессора хост-сервера:
Процессор стабильно держит до 9-10 пользователей на одно ядро физического сервера.
Число сессий опробованных приложений из группы операций B на ядро:
В документе присутствует еще очень много интересных результатов, например, использование полосы пропускания различными протоколами доступа к виртуальному ПК (по-сути, плюс-минус все одинаково):
Скачать документ "VMware Horizon 6 RDSH Performance and Best Practices" можно по этой ссылке.
Наверняка, немногие из вас знают, что недавно компания VMware выпустила минорный апдейт своей платформы для создания инфраструктуры виртуальных ПК Horizon View 6.0.2.
В общем-то, ничего особо примечательного, однако новых возможностей в обновлении оказалось не так уж и мало для небольшого апдейта:
Появились улучшения Windows Media Multimedia Redirection (MMR).
Добавилась поддержка технологии
HTML Access для десктопов RDS.
Scanner redirection - перенаправление сканера в виртуальный ПК.
Сохраняемые настройки для location-based printing (при отключении пользователя от десктопа).
Технологическое превью технологии HTML Access для десктопов, работающих как vDGA.
Были обновлены только следующие компоненты:
Horizon View Agent (64-bit и 32-bit)
HTML Access Web Portal installer
Horizon View HTML Access Direct-Connection
Horizon View GPO Bundle
Компоненты View Connection Server, Security server, View Composer, View Persona Management и View Agent Direct-Connection (VADC) Plug-in остались без изменений.
Самая интересная новая возможность - улучшения Windows Media Multimedia Redirection (MMR). Напомним, что эта техника позволяет производить обработку видео и аудиопотока на стороне клиентского устройства, задействуя его мощности. То есть, медиапоток в нативном формате сжимается и перенаправляется с виртуального ПК на клиентский ПК, где он потом разжимается и рендерится.
В прошлых версиях технология MMR поддерживалась только в Windows XP, Windows Vista и Windows 7. Теперь же ее можно попробовать также в Windows 8 и Windows 8.1. Кроме того, тепер воспроизведение MMR возможно не только через Windows Media Player (WMP), но и в браузере Internet Explorer через WMP plug-in.
Также для MMR была существенно расширена поддержка форматов видео и аудио, и теперь она включает в себя следующие форматы:
MPEG-1, MPEG-2 и MPEG-4 Part 2
WMV 7, 8 и 9
WMA, AVI, ACE, MP3 и WAV
Помимо этого, в MMR были сделаны улучшения производительности и эффективности использования канала для передачи потока.
Скачать обновленную версию VMware Horizon View 6.0.2 можно по этой ссылке.
Многие пользователи VMware Virtual SAN (VSAN), когда проводят тест бэкапа одной виртуальной машины, замечают, что время резервного копирования этой ВМ существенно больше, чем таковое для машины, размещенной на дисковом массиве.
Дункан в своем блоге подробно разбирает эту проблему. Тут дело вот в чем - когда вы используете дисковый массив, то виртуальная машина "размазывается" по дискам RAID-группы, что позволяет читать одновременно с нескольких дисков. Это дает хорошую производительность операции резервного копирования для одной машины.
Кластер же VSAN работает немного по-другому. Это объектное хранилище, в котором виртуальный диск ВМ хранится на одном хосте и его реплика существует на втором. Кроме этого, есть кэш на SSD-диске (но его еще нужно "прогреть"). То есть выглядит все это следующим образом:
Соответственно, при бэкапе одной виртуальной машины данные читаются только с двух HDD-дисков, а не с нескольких как в традиционной архитектуре дисковых массивов, при этом сам кластер VSAN может состоять из нескольких хостов (до 32 узлов). То есть, это архитектурное ограничение.
Однако если мы будем делать одновременный бэкап нескольких виртуальных машин с хранилища Virtual SAN время этой операции уже будет сравнимо с дисковым массивом, поскольку будет задействовано сразу несколько дисков на каждом из хостов, плюс хорошо прогреется кэш. Поэтому проведение такого теста (ведь он ближе к реальным условиям) и было бы более показательным при сравнении Virtual SAN и традиционных хранилищ.
То же самое относится и к VDI-инфраструктуре на базе VSAN - многие пользователи отмечают, что первая фаза операции Recompose (когда создается реплика - полный клон ВМ) отрабатывает весьма медленно. Однако если вы делаете много таких операций - кэш прогревается, и одновременное создание нескольких клонов начинает работать заметно быстрее в расчете на одну машину.
Напомним, что в новой версии платформы Windows Server vNext от компании Microsoft появится механизм Storage Quality of Service (QoS) - возможность динамического отслеживания производительности хранилищ и горячая миграция виртуальных машин при превышении этими хранилищами пороговых значений (IOPS). Все это делается на базе заранее настроенных политик. По-сути, это аналог механизма Storage DRS от компании VMware в продукте vSphere.
В этом документе от Microsoft на 16 страницах объясняется работа механизма Storage QoS и как его использовать для мониторинга производительности хранилищ и выравнивания нагрузки (забавное понятие "Noisy neighbor mitigation").
Содержание документа:
Summary
Goals & Behaviors
Background
Scenario 1: Enabling Storage QoS and basic performance monitoring
Некоторое время назад мы писали о технологии VMware vFlash (она же Virtual Flash), которая позволяет использовать высокопроизводительные накопители SSD (вот тут - о производительности) для решения двух важных задач:
Предоставление виртуальным машинам дополнительного места, в которое будут свопиться страницы памяти в случае недостатка ресурсов на хосте (это намного более производительно, чем свопить на обычный HDD-диск). Эта техника называется Virtual Flash Host Swap и пришла на смену механизму Swap to SSD.
Прозрачное встраивание в поток ввода-вывода на хосте между виртуальными машинами и хранилищами, что позволяет существенно ускорить операции чтения данных виртуальных дисков. Называется это VMware Flash Read Cache (vFRC).
Ниже мы вкратце расскажем о настройке этих двух механизмов через VMware vSphere Web Client (в обычном C#-клиенте этого, к сожалению, нет). Если что, более подробно о технике vFRC можно почитать по этой ссылке.
Итак, в vSphere Web Client переходим на вкладку "Manage" для нужного хоста, далее в разделе "Settings" выбираем пункт "Virtual Flash Resource Management". Это кэш, который мы добавляем для того, чтобы в случае нехватки места, его могли использовать виртуальные машины, чтобы не свопить данные на медленный магнитный диск, кроме того он же будет использоваться для целей vFRC.
Нажимаем Add Capacity:
Выбираем диски, которые мы будем использовать как Host Swap и нажимаем "Ок" (все данные на них будут стерты):
Всего под нужды Virtual Flash может быть выделено до 8 дисков суммарной емкостью до 32 ТБ. Видим, что ресурс добавлен как Virtual Flash Resource (его емкость отдельно учитывается для vFRC и Host Cache):
Настройка Virtual Flash Host Swap
Первым делом рекомендуется настроить именно этот кэш, а остаток уже распределять по виртуальным машинам для vFRC.
Выбираем пункт "Virtual Flash Host Swap Cache Configuration" в левом меню, а далее в правой части мы нажимаем кнопку "Edit":
Указываем необходимый объем, который планируется использовать, и нажимаем "Ок":
После того, как мы настроили нужное значение - в случае недостатка ресурсов на хосте виртуальные машины будут использовать высокоскоростные диски SDD для своих нужд внутри гостевой ОС (файлы подкачки прочее).
Настройка VMware Flash Read Cache (vFRC)
Напомним, что это кэш только на чтение данных, операции записи будут производиться на диск, минуя флэш-накопители. Соответственно, такой кэш улучшает производительность только операций чтения.
Сам кэш vFRC можно настроить на уровне отдельных виртуальных машин на хосте VMware ESXi, а также на уровне отдельных виртуальных дисков VMDK.
Чтобы выставить использование нужного объема vFRC для отдельной виртуальной машины, нужно выбрать пункт "Edit Settings" из контекстного меню ВМ и на вкладке "Virtual Hardware" в разделе "Virtual Flash Read Cache" установить нужное значение для соответствующего виртуального диска:
Если этого пункта у вас нет, то значит у вас версия виртуального "железа" (Virtual Machine Hardware) ниже, чем 10, и ее нужно обновить.
По ссылке "Advanced" можно настроить размер блока для кэша (значение Reservation, установленное тут, обновит значение на предыдущем скрине):
На сайте проекта VMware Labs появилась интересная утилита ESXtopNGC Plugin, позволяющая получить функциональность консольного средства мониторинга производительности esxtop прямо в vSphere Web Client.
Возможности VMware ESXtopNGC Plugin:
Отдельные вкладки для статистик процессора, памяти, сети и дисковой подсистемы.
Гибкий вывод данных, в том числе в пакетном режиме.
Удобный и гибкий выбор необходимых счетчиков.
Полнофункциональное представление статистик с возможностью сортировки колонок, раскрытия строчек и т.п.
Настраиваемый период обновления данных.
Статистики по виртуальным машинам (VM-only stats).
Встроенные тултипы с описаниями назначений счетчиков.
Плагин ESXtopNGC на данный момент работает только с виртуальным модулем vCenter Server Appliance (vCSA) 5.5 или более поздних версий.
Для установки плагина загрузите его в одну из директорий на vCSA и выполните там команду:
Четыре с половиной года назад мы писали про то, что у технологии Transparent Page Sharing (TPS), которая по-умолчанию используется в VMware vSphere, нет будущего. Напомним, что TPS - это механизм поиска и удаления дубликатов страниц памяти в целях экономии физического пространства RAM (вместо самой дублирующейся страницы хранится ссылка на нее).
Технолония потеряла актуальность, когда вовсю стали применяться большие страницы памяти (Large Memory Pages), для которых размер страницы равен 2 МБ, а значит вероятность появления двух полностью одинаковых страниц очень низка.
Более подробно о проблемах с TPS написано вот в этой статье на блогах VMware.
Если же вы хотите отключить этот механизм уже прямо сейчас, то нужно сделать следующее:
Залогиниться на ESX\ESXi или vCenter Server через vSphere Client.
Выбрать нужный хост и зайти на вкладку Configuration, затем перейти в Advanced Settings в секции Software.
Выбираем раздел Mem и в нем устанавливаем значение параметра Mem.ShareScanGHz в 0.
После патча и обновлений ESXi механизм TPS можно будет включить следующим образом (Advanced Settings в секции Software):
Параметр Mem.ShareForceSalting (включение TPS на уровне всего хоста ESXi). Если значение стоит 0 - то значит TPS по-прежнему работает на хосте, если 1 - механизм отключен.
Параметр sched.mem.pshare.salt (ставится на уровне ВМ) позволяет включать/отключать TPS для отдельных виртуальных машин (например, старые Windows или линуксы - для них можно было бы включить). Когда параметр ShareForceSalting установлен в значение 1, то для нуждающихся в TPS машин в их Advanced Configuration нужно установить одинаковые значения "соли". Без этого TPS не работает - соответственно, он отключен.
Некоторые из вас знают, что сейчас в Лас-Вегасе проходит конференция VeeamOn 2014 - первое всемирное офлайн-событие компании Veeam Software, производящей продукт для резервного копирования виртуальных машин номер один на рынке - Veeam Backup and Replication.
Недавно мы писали о новой версии Veeam B&R v8, а на конференции специалисты Veeam рассказали множество интересных подробностей о новых фичах. Одна из таких функций - Backup I/O Control - позволяет ограничивать производительность процедуры резервного копирования на отдельном хранилище.
Veeam очень много сделала в технологическом плане, чтобы бэкапы с хранилища виртуальных машин снимались как можно быстрее - это и распараллеливание задач, и интеллектуальный выбор бэкап-прокси, и многое другое. В итоге бэкапы стали сниматься очень быстро, даже слишком быстро.
Для обычных компаний, системы которых не работают по ночам - это очень хорошо, бэкап отработал ночью, а днем пользователи спокойно работают, а вот для тех компаний, чьи серверы полностью загружены в режиме 24/7, нагрузка хранилищ задачами резервного копирования может оказаться существенной и негативно сказаться на производительности продуктивных систем.
Для этого в Veeam Backup and Replication есть ограничение числа задач, которые могут исполняться одновременно на бэкап-прокси:
Однако это совсем неудобно - непонятно, как и на что это влияет при выполнении операций резервного копирования, потому и была придумана возможность Backup I/O Control, которая ограничивает процесс РК таким образом, чтобы соблюсти требования по производительности хранилищ для нормальной работы виртуальных машин и приложений.
А что является главным мерилом производительности (ну, одним из главных)? Это задержка при операциях чтения-записи, то есть latency. Так вот функция Backup I/O Control в Veeam Backup & Replication v8 позволяет вам указать требуемое latency при превышении которого задача резервного копирования будет "урезаться" и создавать меньшую нагрузку на хранилище:
Если мы укажем данные значения, то при достижении Latency 20 мс новые задачи для данного хранилища перестанут назначаться, а вот если уже вырастет до 30 мс, то и вовсе нагрузка текущих задач будет уменьшена, чтобы соблюсти требования по SLA.
Пример как это работает. Для текущей нагрузки операций резервного копирования включаем функцию Backup I/O Control и нагрузка РК снижается так, чтобы средний уровень latency не превышал 20 мс (зеленая линия). Отключаем эту фичу - и видим, что задержка снова начинает расти, то есть бэкап разгоняется, создавая большую нагрузку.
Конечно же, включение функции Backup I/O Control увеличивает требования к окну резервного копирования, зато позволяет на абсолютно понятном уровне установить устраивающие значения для хранилищ, превышать которые задачи Veeam B&R не будут. Очень удобно.
Для версии Veeam Backup and Replication Enterprise такие настройки можно установить только глобально, а вот в версии Enterprise Plus это уже можно сделать для каждого датастора в отдельности:
Продолжаем следить за новостями с VeeamOn. Выпуск Veeam Backup & Replication v8 ожидается в четвертом квартале этого года, то есть вот-вот.
Те из вас, кто много всего устанавливает в своей тестовой лаборатории или продакшен-среде VMware vSphere, наверное рано или поздно сталкиваются с тем, что vSphere Web Client очень медленно грузится (иногда по 2-3 минуты) или тормозит при работе в нем.
Одна из возможных причин тормозов - наличие установленных плагинов, которые может быть вам уже и не нужны, а отъедают системные ресурсы.
Поэтому иногда целесообразно удалить их. Идем в Managed Object Browser (MOB) на сервере vCenter, для чего переходим в браузере по такой ссылке:
http://<vcenter_name_or_IP>/mob
Далее после аутентификации переходим в раздел "content" (здесь и далее необходимые ссылки подсвечены желтым):
Затем переходим в раздел ExtensionManager:
Там нам нужно найти соответствующий плагин для удаления. Вот таблица всех плагинов VMware, которые могут быть подцеплены к Web Client:
Например, нам надо из vSphere Client удалить плагин vSphere Data Protection, находим его (записываем - все, что в квадратных скобках без кавычек) и проваливаемся дальше:
Вызываем для него метод UnregisterExtension:
В качестве значения при вызове метода указываем имя плагина, например, "com.vmware.vdp":
После успешного вызова метода он должен возвратить результат "void":
Таким вот нехитрым способом можно удалить все лишние плагины с сервера, где установлен vSphere Web Client, после чего последний станет значительно быстрее запускаться.
Многие из вас знают компанию Login VSI, которая выпускает продукт Virtual Session Indexer (VSI), предназначенный для симуляции нагрузки и тестирования VDI-сред. Он уже успел стать стандартом де-факто при тестировании инфраструктуры виртуальных ПК у различных вендоров (например, см. тут). Напомним, что это коммерческое решение, а для бесплатного использования доступен продукт VSI Express.
Теперь компания решила подойти к тестированию VDI-инфраструктуры немного с другой стороны - на прошедшей конференции VMware VMworld 2014 была представлена бета-версия продукта Login VUM.
Это решение позволяет в реальном времени создавать нагрузку в виртуальном ПК для различных приложений (то есть открывать окна, выполнять некоторые операции), будто бы за этой виртуальной машиной работает реальный пользователь. Далее, если время выполнения стандартных операций превышает некоторые пороговые значения (например, приложение запускается слишком долго), Login VUM оповещает системного администратора о возникшей проблеме. Похожий способ используют в Водоканале Санкт-Петербурга - раков, обвешанных датчиками, держат в очищенной воде и измеряют их сердечный ритм, отклонения которого свидетельствуют об изменении качества подаваемой потребителям воды.
То есть, это способ мониторинга реальной производительности виртуальной среды посредством некой эталонной виртуальной машины, симулирующей реальную нагрузку. В веб-консоли можно наблюдать за значениями различных параметров этой машины, полученных в течение дня:
Само собой, Login VUM написан не с нуля, а основан на фреймворке Login VSI (технология измерений VSImax), который уже надежно зарекомендовал себя для задач тестирования инфраструктуры виртуальных ПК.
Пока продукт находится в стадии закрытой беты, но его уже можно будет скачать совсем скоро.
Также Login VSI представила свой графический фреймворк Login VSI: Graphics Framework, который позволяет отдельно тестировать чувствительные к производительности графики нагрузки в виртуальных ПК (такие как AutoCAD, Siemens NX или Photoshop). Фреймворк доступен для пользователей продукта Login VSI Pro.
Пример измерения фреймрейта для Автокада при увеличении числа сессий на хосте ESXi:
Видео о том, как выглядит процедура тестирования интенсивных графических нагрузок:
В результате тестирования данные не попадают в VSImax, так как администратору предлагается самостоятельно решить, какой фреймрейт подходит пользователям VDI-инфраструктуры для конкретного приложения и типа нагрузки.
На данный момент Login VSI: Graphics Framework доступен как публичная бета по этой ссылке.
Как мы уже писали вот тут, компания NVIDIA на прошедшем VMworld US 2014 рассказала о скорой полноценной поддержке технологии vGPU на платформе VMware Horizon View для виртуальных ПК с интенсивными графическими нагрузками.
Для хромбуков появится технология VMware BLAST Performance, которая обеспечит максимальную производительность 3D-графики. Хромбуки на базе NVIDIA Tegra K1, такие, как Acer Chromebook 13, первыми получат поддержку это передовой технологии.
Теперь вот появился небольшой обзор о том, как это будет работать на хромбуках, и премуществах технологии (выглядит впечатляюще):
Также есть небольшое видео с VMworld о сотрудничестве VMware и NVIDIA:
Ну и, наконец, демонстрация графических возможностей железа NVIDIA при работе на платформе VMware:
Ну и для тех, кому не терпится опробовать адаптеры NVIDIA и режим vGPU совместно с платформой VMware в действии, есть вот такой ресурс - Early Access Program.
Компания VMware выпустила интересный документ "Microsoft Exchange Server Performance on VMware Virtual SAN", в котором рассматривается случай тестирования нагрузки виртуальных серверов Microsoft Exchange размещенных в кластере Virtual SAN и работающих на серверах VMware ESXi.
В VMware использовали конфигурацию кластера VSAN из пяти узлов (Dell PowerEdge R720xd с процессорами Intel Xeon Processors E5-2650 и 128 ГБ памяти в каждом), на одном из узлов была машина с контроллером Active Directory, а для генерации нагрузки использовался отдельный клиент:
Детальная конфигурация стенда:
В качестве программной платформы использовался Exchange Server 2010, установленный в ОС Windows Server 2008 R2. На каждом хосте было размещено две виртуальных машины с Exchange - роли Mailbox и HUB.
С помощью Exchange Load Generator была сгенерирована нагрузка пользователей отсылающих и получающих письма. Для теста взяли 12 000, 16 000 и 20 000 пользователей с профилем нагрузки 150 отправляемых писем в день. Каждый почтовый ящик был инициализирован в размере 100 МБ.
При тестах Sendmail на указанном количестве пользователей выведен средний результат выполнения операций (Avg) и результат, уложившийся в 95 процентов опытов (95% latency).
Поскольку принято считать, что Latency до 500 миллисекунд для Exchange считается нормальной при отправке писем - то результаты тестов показывают, что такая конфигурация вполне жизнеспособна на десятках тысяч пользователей.
Больше подробностей можно узнать непосредственно из документа.
Это гостевой пост компании ИТ-ГРАД - облачного провайдера инфраструктур VMware vSphere.
Мне давно не попадался на тесты массив начального уровня, способный пропустить через один контроллер до 1.5 Гб/сек при потоковой нагрузке. NetApp E2700 как раз справился с этой задачей. В июне я провёл Unboxing NetApp E2700. И теперь готов поделиться с вами результатами тестирования этой системы хранения данных. Ниже привожу результаты нагрузочных тестов и получившиеся количественные показатели производительности массива NetApp E-Series 2700 (IOps, Throughput, Latency).
Почти три года назад мы писали про средство VMware I/O Analyzer, предназначенное для генерации нагрузки и анализа статистики ввода-вывода хостов VMware ESXi, доступное на сайте проекта VMware Labs. Не так давно вышло обновление этого средства, которое, как оказалось, живет и развивается.
VMware I/O Analyzer поставляется в виде виртуального модуля (готовой ВМ), предоставляющего администраторам следующие возможности:
Интегрированный фрейворк для тестирования производительности хранилищ средствами генераторов нагрузки.
Готовый к развертыванию виртуальный модуль (управляющая ВМ и "воркеры" - генераторы нагрузки).
Прост в настройке и возможность исполнения тестов на одном или нескольких хостах ESX/ESXi.
Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС.
Возможность экспорта данных для последующего анализа.
Средства "повторения" нагрузки на хранилища путем ее воспроизведения из трейса ввода-вывода.
Возможность загрузки трейсов ввода-вывода для автоматического извлечения необходимых метрик.
Графическая визуализация метрик и результатов анализа производительности.
В обновленном VMware I/O Analyzer 1.6.x появились следующие возможности:
Улучшенный планировщик заданий ввода-вывода.
Сам виртуальный модуль теперь на платформе SLES 64-bit, а сервер на Tomcat 6.
Экспериментальная поддержка статистик клиента NFS.
Возможность использования непостоянной (non-persistent) конфигурации (без сохранения настроек).
Сама ВМ с I/O Analyzer теперь версии 7, что позволяет запускать и использовать ее в ESX/ESXi 4.x.
Улучшения на бэкэнде, позволяющие поддерживать до 240 и более генераторов нагрузки.
На самом деле с 2011 года много что изменилось в этом продукте, поэтому ознакомьтесь с юзер-гайдом, в котором есть история добавления фичей по версиям.
Скачать VMware I/O Analyzer можно по этой ссылке. Очень хорошо, что подобные утилиты не ограничиваются одним релизом, а развиваются и обрастают функционалом.
Некоторое время назад компания VMware выпустила интересный документ "Understanding Data Locality in VMware Virtual SAN", касающийся локальности данных, то есть механизмов соблюдения временных и пространственных характеристик правильного чтения данных в целях оптимизации производительности кластера хранилищ Virtual SAN.
Мысль тут такая: локальность данных бывает двух типов:
временная (Temporal locality) - это когда есть вероятность, что данные, использованные сейчас, потребуются снова в ближайшее время (это актуально, поскольку в инфраструктуре виртуализации несколько машин на хосте часто используют одни и те же данные).
пространственная (Spatial locality) - ситуация, когда есть вероятность, что после чтения некоторой области данных потребуется прочитать и данные находящиеся рядом - то есть в соседних блоках на хранилище.
Так вот, в документе подробно разбирается, каким именно образом обеспечивается работа с этими особенностями локальности данных применительно к кэшированию данных на хранилищах SSD хостов VMware ESXi.
Примерами работы с локальностью данных являются следующие особенности кластеров Virtual SAN:
Каждый раз, когда виртуальная машина читает данные с хранилища, они сохраняются в кэше (Read Cache) на SSD-накопителе и эти данные могут быть востребованы очень быстро. Это работа с Temporal locality.
С точки зрения Spatial locality, при кэшировании данных в кэш сохраняется также и "окрестность" этих данных в рамках чанков по 1 МБ.
Virtual SAN имеет адаптивный алгоритм по вытеснению и сохранению данных в кэше - если данные используются редко, они выпадают с SSD-накопителя, а часто востребованные данные будут находиться там постоянно.
Virtual SAN распределяет экземпляры данных по разным хост-серверам ESXi и работает при чтении сразу с несколькими узлами, но при чтении одного диапазона логических адресов работа идет только с одной репликой. Обусловлено это двумя фактораи: во-первых, увеличивается шанс того, что читаемые данные уже находятся в кэше на SSD, а значит будут прочитаны быстрее, ну и, во-вторых, один блок данных всегда будет закэширован только на одном узле, а значит дорогое SSD-пространство не будет пожираться дубликатами блоков.
В общем документ очень интересный - почитайте. Там еще много полезной информации на эту тему.
Компании VMware и Intel в партнерстве выпустили новый документ "Intel Data Plane Development Kit with VMware vSphere" (DPDK), который описывает работу с данной библиотекой приложений Linux User Space. Она позволяет на высоком уровне работать с подсистемой ввода-вывода и сетевого взаимодействия и на программном уровне обрабатывать то, что ранее необходимо было делать только на аппаратном для высоконагруженных систем, например, Application-specific integrated circuits (ASICs) и Field programmable gate arrays (FPGAs).
Данный DPDK с использованием техник паравиртуализации позволяет напрямую обращаться к аппаратным функциям оборудования или виртуальных устройств VMware vSphere.
Решение DPDK with VMware vSphere может быть использовано для миграции систем (обычно в сфере телекома и какого-то необычного сетевого взаимодействия), которые раньше были жестко завязаны на аппаратные функции "железа", на платформу VMware vSphere.
При использовании DPDK можно взаимодействовать со следующими механизмами VMware vSphere:
Виртуальный сетевой адаптер VMXNET3
Коммутаторы vSwitch и Virtual Distributed Switch
Прямой проброс устройств через VMware vSphere DirectPath I/O или технологию SR-IOV
Стандартная реализация паравиртуализационного взаимодействия гостевой ОС через vSwitch и VDS выглядит так:
Если речь идет о пробросе устройств напрямую в ОС, то схема выглядит следующим образом:
Больше интересных подробностей можно узнать в самом документе.