Новости Статьи VMware Veeam StarWind vStack Microsoft Nakivo Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6330 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Приходите на совместный вебинар Mellanox и StarWind: 100 GbE Performance at 10 GbE Cost.


Послезавтра, 21 июля, компании Mellanox и StarWind проведут интересный вебинар "100 GbE Performance at 10 GbE Cost", посвященный построению решения для хранилищ виртуальных машин впечатляющей производительности (да-да, 100 GbE, Карл!).

Мероприятие пройдет 21 июля, в 21-00 по московскому времени:

Приходите на вебинар, чтобы узнать, как по цене 10 GbE-решения построить сеть 40 GbE на базе продуктов Mellanox (Infiniband/Ethernet) и добиться в ней 100 GbE производительности за счет решений компании StarWind (в частности, продукта Virtual SAN). Вебинар со стороны StarWind проводит Макс Коломейцев, так что вы можете задавать вопросы на русском языке.

Узнайте, сколько IOPS может выжать StarWind из сетевой архитектуры Mellanox - регистрируйтесь на вебинар "100 GbE Performance at 10 GbE Cost".


Таги: StarWind, Mellanox, Infiniband, Network, Storage, Performance, Virtual SAN

Когда происходит "подмораживание" (stun) виртуальной машины в VMware vSphere 6.


Если вы администратор платформы виртуализации VMware vSphere, то, наверное, часто замечали, что в некоторых случаях при операциях с виртуальными машинами и ее дисками происходит "подмораживание" ВМ (или "stun", он же "quiescence"). В этот момент виртуальная машина ничего не может делать - она недоступна для взаимодействия (в консоли и по сети), а также перестает на небольшое время производить операции ввода-вывода. То есть, ее исполнение ставится на паузу на уровне инструкций, а на уровне ввода-вывода совершаются только операции, касающиеся выполняемой задачи (например, закрытие прежнего VMDK-диска и переключение операций чтения-записи на новый диск при операциях со снапшотами).

Cormac Hogan написал на эту тему интересный пост. Stun виртуальной машины нужен, как правило, для того, чтобы сделать ее на время изолированной от окружающего мира для выполнения значимых дисковых операций, например, консолидация снапшотов. Это может занимать несколько секунд (и даже десятков), но часто это происходит на время около секунды и даже меньше.

Когда может возникать stun виртуальной машины? Есть несколько таких ситуаций.

1. Во время операции "suspend" (постановка ВМ на паузу). Тут происходит такое подмораживание, чтобы скинуть память ВМ на диск, после чего перевести ее в приостановленное состояние.

2. В момент создания снапшота. Об этом написано выше - нужно закрыть старый диск и начать писать в новый. На время этой операции логично, что приостанавливается ввод-вывод.

3. Консолидация снапшотов (удаление всех). Здесь тоже нужно "склеить" все VMDK-диски (предварительно закрыв) и начать работать с основным диском ВМ. А вот удаление снапшота в цепочке stun не вызывает, так как не затрагивает VMDK, в который сейчас непосредственно идет запись.

4. Горячая миграция vMotion. Сначала память передается от одной машины к целевой ВМ без подмораживания, но затем происходит такой же stun, как и при операции suspend, с тем только отличием, что маленький остаток памяти (минимальная дельта) передается не на диск, а по сети. После этого происходит операция resume уже на целевом хосте. Пользователь этого переключения, как правило, не замечает, так как время этого переключения очень жестко контролируется и чаще всего не достигает 1 секунды. Если память гостевой ОС будет меняться очень быстро, то vMotion может затянуться именно во время этого переключения (нужно передать последнюю дельту).

5. Горячая миграция хранилищ Storage vMotion. Здесь stun случается аж дважды: сначала vSphere должна поставить Mirror Driver, который будет реплицировать в синхронном режиме операции ввода-вывода на целевое хранилище. При постановке этого драйвера происходит кратковременный stun (нужно также закрыть диски). Но и при переключении работы ВМ на второе хранилище происходит stun, так как нужно удалить mirror driver, а значит снова переоткрыть диски уже на целевом хранилище.

В современных версиях vSphere работа со снапшотами была оптимизирована, поэтому подмораживания виртуальной машины во время этих операций вы почти не заметите.


Таги: VMware, VMDK, Snapshots, Performance, VMachines, vSphere, ESXi

Performance Best Practices for VMware vSphere 6.0 - книга о производительности ведущей платформы виртуализации.


Практически все администраторы виртуальных инфраструктур обеспокоены проблемой ее производительности в тех или иных условиях. На днях компания VMware обновила свое основное руководство по производительности платформы виртуализации номер один на рынке - Performance Best Practices for VMware vSphere 6.0.

Это не просто очередной whitepaper - это настоящая книга о производительности, на почти 100 страницах которой можно найти не только теоретические советы, но и вполне практичные настройки и конфигурации среды VMware vSphere. К каждому объясняемому параметру заботливо описаны рекомендуемые значения. В общем, Must Read.


Таги: VMware, vSphere, Performance, Whitepaper

Интересная утилита для замера времени отклика приложений облачной инфраструктуры - AppEnsure.


Многие наши читатели интересуются, а есть ли утилиты, предназначенные специально для облачных инфраструктур. Например, которые позволяют оценить качество предоставления услуг сервис-провайдером? Да, есть такое, и одно из подобных средств - AppEnsure - как раз позволяет измерять время отклика для корпоративных приложений и текущую используемую пропускную способность.

Эта штука появилась еще весной в рамках программы Citrix Startup Accelerator, где было вот такое видео:

Теперь это полноценный продукт, с платным и бесплатным изданиями, который позволяет анализировать качество предоставления услуг облаком (частным или публичным) и искать причину падения производительности приложений.

Вот возможности бесплатной версии AppEnsure:

  • Обнаружение приложений вашей инфраструктуры и их добавление в окружение мониторинга.
  • Автоматическое построение топологии зависимости компонентов вашего приложения.
  • Измерение по шагам (hop-by-hop) и полного (end-to-end) времени отклика, а также пропускной способности канала для каждого приложения.
  • Возможность предоставления диагностической информации при снижении пропускной способности или увеличении времени отклика.
  • Продукт AppEnsure (консоль и база данных) поставляется как готовый виртуальный модуль (VMware Virtual Appliance).
  • Доступны как серверные, так и десктопные агенты для ОС Windows/Linux (до 5 серверов в бесплатной версии).
  • Поддержка удаленных агентов (в другой сети или облаке по отношению к мастер-инсталляции).
  • Доступ к веб-порталу технической поддержки.
  • Сохранение данных в течение 24 часов (в платной версии - сколько угодно).

Вот так выглядит обнаруженная топология:

Так дэшборд приложения:

А вот так - общий дэшборд:

Ну и таблица сравнения изданий:

Загрузить бесплатную версию AppEnsure или попробовать платную версию продукта можно по этой ссылке.


Таги: AppEnsure, Cloud, IaaS, Cloud Computing, VMware, Virtual Appliance, Performance

Узнайте, наконец, все подробности о производительности StarWind Virtual SAN на вебинаре "Get Unbelievable Performance without Expensive All-Flash Arrays".


Мы точно знаем, что вам всем интересно узнать, какова же реальная производительность продукта номер 1 для создания отказоустойчивых программных хранилищ StarWind Virtual SAN. Поэтому-то и приглашаем вас на бесплатный вебинар "Get Unbelievable Performance without Expensive All-Flash Arrays", где вы узнаете как достичь высокой производительности подсистемы хранения виртуальных машин, не покупая дорогостоящие All-flash хранилища.

Вебинар пройдет 16 июня в 21-00 по московскому времени. Мероприятие проводит продакт-менеджер StarWind Макс Коломейцев. Вопросы можно задавать на русском языке! Регистрируйтесь!


Таги: StarWind, Webinar, Storage, Performance

История VMware и Nutanix - о том, как наступить на свои же грабли.


Интересная история произошла тут между компаниями VMware и Nutanix. Инженеры и сейлы из VMware решили провести сравнение производительности программных отказоустойчивых кластеров на базе локальных хранилищ серверов VMware Virtual SAN и Nutanix. Создав тестовую конфигурацию и выбрав профиль нагрузки, компания VMware сделала тест в средах Virtual SAN и Nutanix.

Кстати, вот конфигурация тестового кластера хранилищ:

  • 4 x Dell XC630-10 для Nutanix,
  • 4 x Dell R630 для vSphere с кластером VSAN
  • 2 x Intel E5-2690 v3 на сервер
  • 12 ядер на процессор 2.6GHz, 256 ГБ памяти на сервер
  • Двухпортовый 10Gb Ethernet
  • 1 x PERC H730 Mini на сервер
  • 2 x 400GB Intel S3700 на сервер
  • 6 дисков x 1TB 7200 RPM NL-SAS (Seagate) на сервер

Но тут спецы из VMware решили заглянуть в EULA Nutanix, а там написано (п. 2.1, подпункт e):

You must not disclose the results of testing, benchmarking or other performance or evaluation information related to the Software or the product to any third party without the prior written consent of Nutanix

То есть, публиковать результаты тестирования нельзя. Вот такой облом. А ведь VMware много раз ругали за то, что она сама запрещает публиковать результаты тестирования производительности с конкурирующими продуктами. Это также зафиксировано в EULA:

You may use the Software to conduct internal performance testing and benchmarking studies. You may only publish or otherwise distribute the results of such studies to third parties as follows: (a) if with respect to VMware’s Workstation or Fusion products, only if You provide a copy of Your study to benchmark@vmware.com prior to distribution; (b) if with respect to any other Software, only if VMware has reviewed and approved of the methodology, assumptions and other parameters of the study (please contact VMware at benchmark@vmware.com to request such review and approval) prior to such publication and distribution.

VMware, конечно, утверждает, что у нее условия мягче, но по-сути у них написано одно и то же. Публиковать результаты тестов без разрешения нельзя. А разрешение, конечно, никто не даст, так как опубликовать конкуренты захотят только, если у них все работает лучше и быстрее.

Поэтому VMware ничего не оставалось, как опубликовать результаты только своих тестов и разбить их по профилям нагрузки, отметив, что желающие сравнить пользователи сами могут убедиться, что Nutanix работает медленнее, проведя тесты самостоятельно.

Надо также отметить, что VMware отправила запрос на публикацию в Nutanix, на что получила ожидаемый ответ - публиковать нельзя.

Ну и, собственно, результаты тестирования для кластера Virtual SAN:

32 VMs, 10 VMDKs ea, 10GB per VM, OIO=2
60% random 50% 4K 50% 8K
IOPS MB/s Read Latency (msec) Write Latency (msec)
VSAN VSAN VSAN VSAN
35% read 20% WS 84439 495 2 10
35% read 50% WS 38516 226 1 25
65% read 20% WS 127898 749 2 9
65% read 50% WS 65420 383 1 25
64 VMs, 10 VMDKs ea, 10GB per VM, OIO=2
60% random 50% 4K 50% 8K
IOPS MB/s Read Latency (msec) Write Latency (msec)
VSAN VSAN VSAN VSAN
35% read 25% WS 36650 215 1 53
65% read 10% WS 131307 769 4 19
65% read 25% WS 65242 382 1 53
32 VMs, 10 VMDKs ea, 10GB per VM, OIO=2
100% random 100% write 4K
IOPS MB/s Read Latency (msec) Write Latency (msec)
VSAN VSAN VSAN VSAN
50% WS 31250 122 0 20
100% WS 19941 78 0 32
100% random 67% read 8K
50% WS 56770 444 1 31
100% random 100% read 4K
50% WS 443334 1732 1 --
100% seq 100% write 32K
50% WS 11269 352 0 56
100% WS 11539 361 0 55
100% seq 100% read 32K
50% WS 92223 2882 6 --
100% WS 51940 1623 12 --

Таги: VMware, Nutanix, Сравнение, Virtual SAN, Performance

Референсная архитектура: Horizon View 6.0.2 и VMware Virtual SAN 6.0.


Совсем недавно компания VMware выпустила полезный документ "VMware Horizon View 6.0.2 and VMware Virtual SAN 6.0 Hybrid", описывающий эталонную архитектуру инфраструктуры виртуальных ПК Horizon View 6, которые хранятся в кластере отказоустойчивости VMware Virtual SAN 6.0, построенном на базе хостов VMware ESXi.

В документе рассмотрено тестирование производительности 12-узлового кластера Virtual SAN на базе серверов Supermicro в рамках следующей логической архитектуры:

Подробная конфигурация хостов:

В целом инфраструктура тестирования выглядела так:

Для тестов использовалось средство Login VSI (о нем мы уже много писали), которое поставляется вместе с методологией тестирования:

Сводные результаты тестов:

Для получения более подробной информации о результатах по каждому тесту, используемых сценариях и конфигурациях обращайтесь к документу. Все 38 страниц полны картинок, графиков и табличек с цифрами - док составлен очень по делу. Для тех, кто планирует VDI на базе Virtual SAN очень полезный референс, как в плане архитектуры, так и в плане производительности.


Таги: VMware, View, Virtual SAN, VSAN, Storage, HA, VDI, Performance

Интересный документ "Virtualizing Microsoft Applications on VMware Virtual SAN".


На днях компания VMware выпустила интересный открытый документ "Virtualizing Microsoft Applications on VMware Virtual SAN", в котором описываются результаты тестирования бизнес-критичных приложений Microsoft в кластере отказоустойчивых хранилищ VMware VSAN.

В документе рассматривается стрессовое тестирование следующих приложений, работающих в кластере Virtual SAN, состоящем из 8 узлов:

  • Microsoft Exchange 2013 с поддержкой Database Availability Groups (DAG)
  • Microsoft SQL Server 2014 с включенными AlwaysOn Availability Groups (AAG)
  • Microsoft SharePoint 2013 как фронтэнд баз данных

Для теста использовалась такая конфигурация серверов:

  • ESX host CPU - 2 x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz 10C (60 GHz)
  • ESX host RAM - 256 GB
  • Network Adapter - 2x Intel Ethernet 82599EB 10-Gigabit SFI/SFP+
  • Storage Adapter - 2x LSI Logic / Symbios Logic LSI-9300-8i
    • Firmware version: 6.00.00.00-IT
    • Driver version: MPT3SAS
  • Power Management - Balanced (поставлено в BIOS)
  • Disks SSD - 2x Intel 400 GB (SSDSC2BA400G3)
  • SSD - 2x Intel 200GB (Intel PCIe 910)
  • HDD - 12 x Seagate 900 GB

Конфигурация дисковых групп кластера Virtual SAN:

  • Diskgroup 1 - 1x Intel 400GB 3x Seagate 900GB
  • Diskgroup 2 - 1x Intel 400GB 3 x Seagate 900GB
  • Diskgroup 3 - 1x Intel 200GB 3 x Seagate 900GB
  • Diskgroup 4 - 1x Intel 200GB 3 x Seagate 900GB

Для тестирования Microsoft Exchange применялись следующие средства:

Архитектура сервисов Exchange:

Конфигурация виртуальных машин:

Результаты тестирования первого узла с ролью Mailbox средствами Jetstress:

Результаты тестирования второго узла с ролью Mailbox:

Результаты теста Load Generator:

Архитектура сервисов Microsoft SQL Server с технологией защиты данных Always On:

Для тестирования SQL Server использовался инструмент DVD Store. Конфигурация виртуальных машин:

Результаты тестов DVD Store.

Ну и в заключение - сводные результаты тестирования:

В итоге утверждается, что приложения Microsoft уровня Tier 1 прекрасно себя чувствуют в кластере VMware Virtual SAN, и их быстродействие мало чем отличается от ситуации, если бы на бэкэнде были аппаратные SAN/NFS-массивы.

За остальными подробностями обращайтесь к документу "Virtualizing Microsoft Applications on VMware Virtual SAN".


Таги: VMware, Virtual SAN, Performance, Microsoft, VSAN, Storage

Вышла финальная версия решения Login PI для создания нагрузки в среде VDI.


Не так давно мы писали про средство Login VUM, которое позволяет в реальном времени создавать нагрузку в виртуальном ПК для различных приложений (то есть открывать окна, выполнять некоторые операции), будто бы за этой виртуальной машиной работает реальный пользователь. Далее, если время выполнения стандартных операций превышает некоторые пороговые значения (например, приложение запускается слишком долго), Login VUM оповещает системного администратора о возникшей проблеме. Из коробки измеряется время запуска таких приложений, как Microsoft Office, Internet Explorer и Adobe Reader, но скрипты можно настроить на использование любых приложений.

Теперь компания Login VSI выпустила финальную версию этого решения, которое теперь называется Login PI.

Основные варианты использования Login PI:

  • Мониторинг производительности продуктивных окружений без влияния на работающие системы предприятия.
  • Оповещения о снижении производительности VDI-инфраструктуры (неважно, Citrix, VMware или другого вендора).
  • Регулярное тестирование VDI-среды для понимания ее текущего уровня производительности и занятости ресурсов.

Интересный момент - Login PI можно протестировать в реальном времени (hands-on lab) прямо на сайте Login VSI. Для этого нужно заполнить форму вот тут, после чего вам предоставят доступ к тестовой лаборатории, где вы сможете самостоятельно поработать с данным продуктом, управляя консолями двух виртуальных машин:

Руководство по использованию этой тестовой лаборатории можно почитать вот тут.

Login PI основан на фреймворке Login VSI (технология измерений VSImax), который уже надежно зарекомендовал себя для задач тестирования инфраструктуры виртуальных ПК (об этом мы писали ранее). Для запроса 30-дневной триальной версии Login PI используйте вот эту ссылку.


Таги: Login VSI, VDI, Performance, Monitoring

Производительность виртуальных машин с Microsoft SQL Server на платформах vSphere 5.5 и vSphere 6.0.


Как вы знаете, в обновленной версии платформы виртуализации VMware vSphere 6.0 появились не только новые возможности, но и были сделаны существенные улучшения в плане производительности (например, вот).

В компании VMware провели тест, использовав несколько виртуальных машин с базами данных SQL Server, где была OLTP-модель нагрузки (то есть большой поток небольших транзакций). Для стресс-теста БД использовалась утилита DVD Store 2.1. Архитектура тестовой конфигурации:

Сначала на хосте с 4 процессорами (10 ядер в каждом) запустили 8 виртуальных машин с 8 vCPU на борту у каждой, потом же на хосте 4 процессорами и 15 ядер в каждом запустили 8 ВМ с 16 vCPU. По количеству операций в минуту (Operations per minute, OPM) вторая конфигурация показала почти в два раза лучший результат:

Это не совсем "сравнение яблок с яблоками", но если понимать, что хосты по производительности отличаются не в два раза - то результат показателен.

Интересен также эксперимент с режимом Affinity у процессоров для "большой" виртуальной машины. В первом случае машину с 60 vCPU привязали к двум физическим процессорам хоста (15 ядер на процессор, итого 30 ядер, но использовалось 60 логических CPU - так как в каждом физическом ядре два логических).

Во втором же случае дали машине те же 60 vCPU и все оставили по дефолту (то есть позволили планировщику ESXi шедулить исполнение на всех физических ядрах сервера):

Результат, как мы видим, показателен - физические ядра лучше логических. Используйте дефолтные настройки, предоставьте планировщику ESXi самому решать, как исполнять виртуальные машины.

Больше информации об этом тесте можно узнать из документа "Performance Characterization of Microsoft SQL Server on VMware vSphere 6".


Таги: VMware, SQL, Performance, ESXi, Microsoft

Сравнение производительности VMware Virtual SAN 1.0 (ESXi 5.5) и 6.0 (ESXi 6.0).


Как вы знаете, недавно вышла новая версия платформы виртуализации VMware vSphere 6.0, для которой было также обновлено средство создания кластеров хранилищ VMware Virtual SAN 6.0 на базе локальных дисков серверов. Среди прочих новых возможностей VSAN, было сказано об улучшении производительности решения, что и решили проверить коллеги на тестах вот тут.

Тест проводился дома и не претендует на какую-либо достоверность, но, все же, его весьма интересно посмотреть. Автор взял 3 узла Shuttle SZ87R6 следующей конфигурации (надо отметить, что они не в HCL):

Chipset  Z87
 Processor  Intel Core i5-4590S
 Memory  32 GB
 NIC 1  1 GE (management)
 NIC 2  1 GE (VSAN)
 HDD 1  Samsung 840 Evo (120GB)
 HDD 2  HGST Travelstar 7K1000 (1TB)

В качестве коммутатора использовался Cisco SG300.

Для тестирования были использованы следующие гипервизоры:

  • ESXi 5.5 Update 2 (build 2068190)
  • ESXi 6.0 (build 2494585)

В качестве средства создания нагрузки взяли IOmeter, размещенный в виртуальной машине с двумя vCPU, 4 ГБ памяти и Windows Server 2012 в качестве гостевой ОС. Было также сконфигурировано 2 дополнительных виртуальных диска на контроллере PVSCSI:

Для IOmeter было создано три профиля нагрузки, размер Working Set - 100 МБ (204800 секторов). Малый размер Working Set был выбран для более быстрого прогрева кэша.

 Profile 1  Profile 2  Profile 3
 Worker 1  vDisk 1  vDisk 1  vDisk 1
 Sectors  204800  204800  204800
 Outst. IO  16  16  16
 
 Worker 2  vDisk 2  vDisk 2  vDisk 2
 Sectors  204800  204800  204800
 Outst. IO  16  16  16
 
 Read  100%  0%  65%
 Write  0%  100%  35%
 Random  100%  100%  60%
 Sequential  0%  0%  40%
 Block size  4 KB  4 KB  4 KB
 Alignment  4096 B  4096 B  4096 B

Результаты (кликабельно):

Как мы видим, VSAN 6.0 показал себя лучше при всех типах нагрузки - выжимает больше IOPS и имеет меньшую задержку (latency), а именно:

  • Нагрузка 100% READ | 100% RANDOM: +37% IOPS | -27% latency
  • Нагрузка 65% READ | 60% RANDOM: +53% IOPS | -35% latency
  • Нагрузка 100% WRITE | 100% RANDOM: +25% IOPS | -24% latency

Производительность снапшотов

VSAN 5.5 (он же 1.0) использует формат vmfsSparse, который, по-сути, является redo-логом. В версии VSAN 6.0 появился новый формат снапшота vsanSparse, который использует механизм redirect-on-write (подробнее тут).

Тест проводился просто - запустили IOmeter (профиль 3) и последовательно снимали снапшоты, наблюдая производительность с помощью VSAN Observer.

Светло-серые картинки - это VSAN 1.0 (5.5), а темно-серые - VSAN 6.0 (кликабельно). Обратите внимание, что значения по осям X и Y на картинках не всегда соответствуют.

Итак, Latency:

Кстати, временами по latency VSAN 6.0 хуже своей предыдущей версии.

По IOPS результаты интереснее:

При создании нагрузки в виде снапшотов VSAN 6.0 снижает производительность по IOPS на 8%, а вот предыдущая версия VSAN - на 49%. Преимущества нового формата очевидны.

Полоса пропускания (Bandwidth):

Интересный эффект - в VSAN 1.0 существенно увеличивается трафик на чтение после снятия каждого снапшота, при этом у VSAN 6.0 такого не происходит. Еще одно улучшение Virtual SAN 6.0.

В целом можно отметить, что производительность кластеров VSAN заметно возрасла, ну а оптимизация снапшотов улучшит и производительность процессов, использующих эту технологию (например, резервное копирование).


Таги: VMware, Virtual SAN, Performance, Storage, VSAN, Update, Сравнение, Blogs

Transparent Page Sharing в VMware vSphere 6.0: разламывание больших страниц памяти.


Мы уже немало писали про технологию Transparent Page Sharing (TPS) в VMware vSphere, которая позволяет дедуплицировать страницы оперативной памяти на хост-сервере ESXi при недостатке физической памяти для виртуальных машин. Как мы уже писали тут и тут, в VMware vSphere 5.5 Update 3 и более поздних версиях технология TPS отключена (при дедупликации страниц между машинами), чтобы не нагружать хост понапрасну, поскольку в современных ОС используются большие страницы памяти (Large Memory Pages), вероятность дедупликации которых мала. В то же время, технологию TPS никто из vSphere не убирал, и ее можно в любой момент включить.

Как пишет знаменитый Дункан, В VMware vSphere 5.x есть 4 состояния памяти для хост-сервера относительно параметра minFree:

  • High (100% от minFree)
  • Soft (64% от minFree)
  • Hard (32% от minFree)
  • Low (16% от minFree)

Эти состояния определяют срабатывание определенных триггеров (об этом ниже). Например, если minFree для вашей конфигурации сервера равно 10 ГБ, то при переходе в состояние, когда занято 6,4 ГБ (Soft), произойдет определенное действие с точки зрения техник оптимизации памяти.

В то же время, триггеры не срабатывают жестко по этим пороговым значениям, а плавно включаются перед ними и плавно выключаются за ними, чтобы не вызвать резких изменений.

Например, при переходе из состояния High в Soft, большие страницы памяти "разламываются" на обычные, чтобы TPS мог их тут же дедуплицировать. Однако, это может сказаться не лучшим образом на производительности - у хоста и так возникает недостаток памяти, а тут еще его нагружают дедупликацией.

Поэтому в VMware vSphere 6.0 ввели новое состояние Clear (100% от minFree), а состояние High переопределили до значения 400% от minFree. Для чего это сделано? А вот для чего.

При недостатке памяти, хостом ESXi используется техника разламывания больших страниц памяти на обычные страницы, которые затем могут быть дедуплицированы с помощью TPS. Это делается затем, чтобы предотвратить свопирование страниц на диск, что является самым тормозным способом освобождения ресурсов. Так вот эта штука начинает активно работать при наличии свободной памяти в промежутке от High (400%) до Clear (100%), чтобы начать работать на еще не испытывающем острого недостатка ресурсов хосте. Но при этом TPS сразу не запускается.

Давайте посмотрим на таблицу:

Состояние памяти (State) Пороговое значение (% от minFree) Эффект при переходе в диапазон
High 400% Большие страницы разламываются на обычные, но TPS не запускается и ждет следующего цикла прохода дедупликации (по умолчанию 60 минут, минимально настраиваемое в расширенном параметре Mem.ShareScanTime время равно 10 минут)
Clear 100% Разламывание больших страниц и мгновенный запуск TPS
Soft 64% Включение TPS и техники Memory Ballooning
Hard 32% Включение TPS, Memory Compression и свопирования на диск
Low 16% Memory Compression + свопирование на диск + блокировка использования памяти

Это красивое решение - начать разламывать страницы заранее и не нагружать теряющий свободную память хост.

Но все что касается TPS, актуально только тогда, когда TPS включено. По умолчанию же эта техника выключена, а о том, как включить ее, написано вот тут.


Таги: VMware, vSphere, Memory, Performance, Обучение, ESXi

Насколько хорошо работает конфигурация All-Flash кластера VMware Virtual SAN - пример с Bootstorm.


Неадвно мы писали о новых возможностях средства для создания отказоустойчивых кластеров хранилищ VMware Virtual SAN 6.0, где одной из таких возможностей стала возможность конфигурации All-Flash кластера VSAN (то есть, когда и для кэша, и для данных используются SSD-диски):

Естественно, эта штука работает намного быстрее, чем раньше, поскольку прежде данные можно было размещать только на HDD-дисках. Но насколько это стало быстрее?

Чтобы показать некоторые цифры на практике, компания VMware провела тест на bootstorm - ситуацию, когда множество десктопов загружаются одновременно (например, в начале рабочего дня). Для этого была использована следующая конфигурация:

  • 64 высокопроизводительных узла кластера Virtual SAN исключительно на SSD-дисках (All-Flash).
  • 6401 виртуальных ПК (то есть по 100 каждом хосте), которые включаются одновременно.

Результаты теста оказались весьма позитивными:

  • За 24 минуты все виртуальные ПК загрузились.
  • Еще за 16 минут все десктопы получили IP-адреса и были готовы к работе.

В итоге все заняло 40 минут. Для почти шести с половиной тысяч машин это весьма и весьма неплохой результат. Кроме того, отмечается, что команда VMware не использовала никаких специальных настроек или модификаций ПО - тест работал, что называется, "из коробки".


Таги: VMware, Virtual SAN, Performance, VDI

Как работает SSD кеширование средствами гипервизора в облаке VMware.


Компания VMware еще с выходом VMware vSphere 5.1 объявила о нескольких новых начинаниях в сфере хранения данных виртуальных машин, включая возможность использования распределенного кеш на SSD-накопителях локальных дисков серверов ESXi. Данная технология имела рабочее название vFlash и находилась в стадии Tech Preview, превратившись позднее в полноценную функцию vSphere Flash Read Cache (vFRC) платформы VMware vSphere 5.5. И это вполне рабочий инструмент, который можно использовать в задачах различного уровня.


Таги: IT-Grad, VMware, SSD, Performance, vSphere, ESXi

Тестирование служб RDSH в VMware View и документ "VMware Horizon 6 RDSH Performance and Best Practices".


Компания VMware на днях выпустила очень интересный документ "VMware Horizon 6 RDSH Performance and Best Practices", в котором можно почитать о производительности механизма удаленного доступа RDSH в инфраструктуре виртуальных ПК VMware Horizon View 6.

В качестве тестового окружения использовалась инфраструктура VMware vSphere, в которой были запущены виртуальные машины с доступом через Microsoft Remote Desktop Services Host (RDSH) на базе гостевой ОС Windows 2012 R2 Server. Каждой машине было назначено от 2 до 16 виртуальных процессоров (vCPU) и от 16 до 96 ГБ оперативной памяти.

Эти машины взаимодействовали с клиентскими машинами (тоже виртуальными) по протоколу PCoIP. Каждая клиентская машина имела доступ к консоли виртуального ПК и определенному набору приложений. Конфигурация клиентской машины - 32-битная Windows 7 и 1 ГБ памяти:

Схема тестирования выглядела следующим образом:

В качестве средства генерации нагрузки использовался VMware View Planner, который измерял показатели для следующей модели награузок:

  • Group-A: Interactive operations
  • Group-B: I/O Operations
  • Group-C: Background load operations

Нас больше всего интересуют операции группы B. Там замерялось время выполнения следующих конкретных сценариев:

  • Adobe Acrobat Reader 10 open PDF file
  • Microsoft Internet Explorer 11 open a file served by Apache, open a file in a Web album
  • Microsoft Office 2010:
    • Excel open and save file
    • PowerPoint open a file
    • Word open and save a file
  • Microsoft Outlook 2010 open program and save an attachment
  • Mozilla Firefox 3.6 open file

Вот какие получились результаты по времени выполнения данных операций в зависимости от числа виртуальных ПК на ядро процессора хост-сервера:

Желтая линия - пороговое значение в 6 секунд, при котором время выполнения одного из действий описанных выше, приемлемо для пользователя. Таким образом, на хост описанной выше конфигурации влезет до 9 виртуальных ПК с данной моделью нагрузки.

Взглянем на загрузку процессора при увеличении числа пользователей (виртуальных ПК) на ядро процессора хост-сервера:

Процессор стабильно держит до 9-10 пользователей на одно ядро физического сервера.

Число сессий опробованных приложений из группы операций B на ядро:

В документе присутствует еще очень много интересных результатов, например, использование полосы пропускания различными протоколами доступа к виртуальному ПК (по-сути, плюс-минус все одинаково):

Скачать документ "VMware Horizon 6 RDSH Performance and Best Practices" можно по этой ссылке.


Таги: VMware View, Performance, RDSH, Microsoft, VDI

Улучшения Windows Multimedia Redirection в VMware Horizon View 6.0.2.


Наверняка, немногие из вас знают, что недавно компания VMware выпустила минорный апдейт своей платформы для создания инфраструктуры виртуальных ПК Horizon View 6.0.2.

В общем-то, ничего особо примечательного, однако новых возможностей в обновлении оказалось не так уж и мало для небольшого апдейта:

  • Появились улучшения Windows Media Multimedia Redirection (MMR).
  • Добавилась поддержка технологии HTML Access для десктопов RDS.
  • Scanner redirection - перенаправление сканера в виртуальный ПК.
  • Сохраняемые настройки для location-based printing (при отключении пользователя от десктопа).
  • Технологическое превью технологии HTML Access для десктопов, работающих как vDGA.

Были обновлены только следующие компоненты:

  • Horizon View Agent (64-bit и 32-bit)
  • HTML Access Web Portal installer
  • Horizon View HTML Access Direct-Connection
  • Horizon View GPO Bundle

Компоненты View Connection Server, Security server, View Composer, View Persona Management и View Agent Direct-Connection (VADC) Plug-in остались без изменений.

Самая интересная новая возможность - улучшения Windows Media Multimedia Redirection (MMR). Напомним, что эта техника позволяет производить обработку видео и аудиопотока на стороне клиентского устройства, задействуя его мощности. То есть, медиапоток в нативном формате сжимается и перенаправляется с виртуального ПК на клиентский ПК, где он потом разжимается и рендерится.

В прошлых версиях технология MMR поддерживалась только в Windows XP, Windows Vista и Windows 7. Теперь же ее можно попробовать также в Windows 8 и Windows 8.1. Кроме того, тепер воспроизведение MMR возможно не только через Windows Media Player (WMP), но и в браузере Internet Explorer через WMP plug-in.

Также для MMR была существенно расширена поддержка форматов видео и аудио, и теперь она включает в себя следующие форматы:

  • MPEG-1, MPEG-2 и MPEG-4 Part 2
  • WMV 7, 8 и 9
  • WMA, AVI, ACE, MP3 и WAV
Помимо этого, в MMR были сделаны улучшения производительности и эффективности использования канала для передачи потока.

Скачать обновленную версию VMware Horizon View 6.0.2 можно по этой ссылке.


Таги: VMware, View, Update, VDI, Performance

Почему резервное копирование одной виртуальной машины VMware vSphere на хранилище Virtual SAN делается медленно?


Многие пользователи VMware Virtual SAN (VSAN), когда проводят тест бэкапа одной виртуальной машины, замечают, что время резервного копирования этой ВМ существенно больше, чем таковое для машины, размещенной на дисковом массиве.

Дункан в своем блоге подробно разбирает эту проблему. Тут дело вот в чем - когда вы используете дисковый массив, то виртуальная машина "размазывается" по дискам RAID-группы, что позволяет читать одновременно с нескольких дисков. Это дает хорошую производительность операции резервного копирования для одной машины.

Кластер же VSAN работает немного по-другому. Это объектное хранилище, в котором виртуальный диск ВМ хранится на одном хосте и его реплика существует на втором. Кроме этого, есть кэш на SSD-диске (но его еще нужно "прогреть"). То есть выглядит все это следующим образом:

Соответственно, при бэкапе одной виртуальной машины данные читаются только с двух HDD-дисков, а не с нескольких как в традиционной архитектуре дисковых массивов, при этом сам кластер VSAN может состоять из нескольких хостов (до 32 узлов). То есть, это архитектурное ограничение.

Однако если мы будем делать одновременный бэкап нескольких виртуальных машин с хранилища Virtual SAN время этой операции уже будет сравнимо с дисковым массивом, поскольку будет задействовано сразу несколько дисков на каждом из хостов, плюс хорошо прогреется кэш. Поэтому проведение такого теста (ведь он ближе к реальным условиям) и было бы более показательным при сравнении Virtual SAN и традиционных хранилищ.

То же самое относится и к VDI-инфраструктуре на базе VSAN - многие пользователи отмечают, что первая фаза операции Recompose (когда создается реплика - полный клон ВМ) отрабатывает весьма медленно. Однако если вы делаете много таких операций - кэш прогревается, и одновременное создание нескольких клонов начинает работать заметно быстрее в расчете на одну машину.


Таги: VMware, Virtual SAN, Backup, VSAN, Performance, Storage, vSphere, ESXi

Новый документ "Windows Server Technical Preview Step-by-Step Guide Storage Quality of Service".


На конференции TechEd Europe 2014 компания Microsoft не только сделала несколько интересных анонсов, касающихся облачной платформы Azure, но и выпустила занимательный документ "Windows Server Technical Preview Step-by-Step Guide Storage Quality of Service".

Напомним, что в новой версии платформы Windows Server vNext от компании Microsoft появится механизм Storage Quality of Service (QoS) - возможность динамического отслеживания производительности хранилищ и горячая миграция виртуальных машин при превышении этими хранилищами пороговых значений (IOPS). Все это делается на базе заранее настроенных политик. По-сути, это аналог механизма Storage DRS от компании VMware в продукте vSphere.

В этом документе от Microsoft на 16 страницах объясняется работа механизма Storage QoS и как его использовать для мониторинга производительности хранилищ и выравнивания нагрузки (забавное понятие "Noisy neighbor mitigation").

Содержание документа:

  • Summary
  • Goals & Behaviors
  • Background
  • Scenario 1: Enabling Storage QoS and basic performance monitoring
  • Scenario 2: Creating and monitoring with policies
  • Known Issues

Таги: Microsoft, vNext, Hyper-V, Storage, QoS, Performance

Небольшой гайд по использованию VMware Virtual Flash в vSphere 5.5.


Некоторое время назад мы писали о технологии VMware vFlash (она же Virtual Flash), которая позволяет использовать высокопроизводительные накопители SSD (вот тут - о производительности) для решения двух важных задач:

  • Предоставление виртуальным машинам дополнительного места, в которое будут свопиться страницы памяти в случае недостатка ресурсов на хосте (это намного более производительно, чем свопить на обычный HDD-диск). Эта техника называется Virtual Flash Host Swap и пришла на смену механизму Swap to SSD.
  • Прозрачное встраивание в поток ввода-вывода на хосте между виртуальными машинами и хранилищами, что позволяет существенно ускорить операции чтения данных виртуальных дисков. Называется это VMware Flash Read Cache (vFRC).

Ниже мы вкратце расскажем о настройке этих двух механизмов через VMware vSphere Web Client (в обычном C#-клиенте этого, к сожалению, нет). Если что, более подробно о технике vFRC можно почитать по этой ссылке.

Итак, в vSphere Web Client переходим на вкладку "Manage" для нужного хоста, далее в разделе "Settings" выбираем пункт "Virtual Flash Resource Management". Это кэш, который мы добавляем для того, чтобы в случае нехватки места, его могли использовать виртуальные машины, чтобы не свопить данные на медленный магнитный диск, кроме того он же будет использоваться для целей vFRC.

Нажимаем Add Capacity:

Выбираем диски, которые мы будем использовать как Host Swap и нажимаем "Ок" (все данные на них будут стерты):

Всего под нужды Virtual Flash может быть выделено до 8 дисков суммарной емкостью до 32 ТБ. Видим, что ресурс добавлен как Virtual Flash Resource (его емкость отдельно учитывается для vFRC и Host Cache):

Настройка Virtual Flash Host Swap

Первым делом рекомендуется настроить именно этот кэш, а остаток уже распределять по виртуальным машинам для vFRC.

Выбираем пункт "Virtual Flash Host Swap Cache Configuration" в левом меню, а далее в правой части мы нажимаем кнопку "Edit":

Указываем необходимый объем, который планируется использовать, и нажимаем "Ок":

После того, как мы настроили нужное значение - в случае недостатка ресурсов на хосте виртуальные машины будут использовать высокоскоростные диски SDD для своих нужд внутри гостевой ОС (файлы подкачки прочее).

Настройка VMware Flash Read Cache (vFRC)

Напомним, что это кэш только на чтение данных, операции записи будут производиться на диск, минуя флэш-накопители. Соответственно, такой кэш улучшает производительность только операций чтения.

Сам кэш vFRC можно настроить на уровне отдельных виртуальных машин на хосте VMware ESXi, а также на уровне отдельных виртуальных дисков VMDK.

Чтобы выставить использование нужного объема vFRC для отдельной виртуальной машины, нужно выбрать пункт "Edit Settings" из контекстного меню ВМ и на вкладке "Virtual Hardware" в разделе "Virtual Flash Read Cache" установить нужное значение для соответствующего виртуального диска:

Если этого пункта у вас нет, то значит у вас версия виртуального "железа" (Virtual Machine Hardware) ниже, чем 10, и ее нужно обновить.

По ссылке "Advanced" можно настроить размер блока для кэша (значение Reservation, установленное тут, обновит значение на предыдущем скрине):

Чтобы понять, какие значения SSD-кэша можно и нужно выставлять для виртуальных машин, рекомендуется почитать документ "Performance of vSphere Flash Read Cache in VMware vSphere 5.5".

 


Таги: VMware, Cache, vFRC, vSphere, Performance, VMachines, Storage, SSD

VMware ESXtopNGC Plugin - утилита esxtop в vSphere Web Client.


На сайте проекта VMware Labs появилась интересная утилита ESXtopNGC Plugin, позволяющая получить функциональность консольного средства мониторинга производительности esxtop прямо в vSphere Web Client.

Возможности VMware ESXtopNGC Plugin:

  • Отдельные вкладки для статистик процессора, памяти, сети и дисковой подсистемы.
  • Гибкий вывод данных, в том числе в пакетном режиме.
  • Удобный и гибкий выбор необходимых счетчиков.
  • Полнофункциональное представление статистик с возможностью сортировки колонок, раскрытия строчек и т.п.
  • Настраиваемый период обновления данных.
  • Статистики по виртуальным машинам (VM-only stats).
  • Встроенные тултипы с описаниями назначений счетчиков.

Плагин ESXtopNGC на данный момент работает только с виртуальным модулем vCenter Server Appliance (vCSA) 5.5 или более поздних версий.

Для установки плагина загрузите его в одну из директорий на vCSA и выполните там команду:

unzip ESXtopNGCPlugin.zip -d /usr/lib/vmware-vsphere-client/plugin-packages/esxtop-plugin
/etc/init.d/vsphere-client restart

После этого в vSphere Web Client на вкладке "Monitor" для хостов появится представление "Top".

Скачать VMware ESXtopNGC Plugin можно по этой ссылке.


Таги: VMware, esxtop, vSphere, Web Client, Performance, Labs

Технология Transparent Page Sharng (TPS) будет отключена по умолчанию в следующих релизах и обновлениях VMware vSphere.


Четыре с половиной года назад мы писали про то, что у технологии Transparent Page Sharing (TPS), которая по-умолчанию используется в VMware vSphere, нет будущего. Напомним, что TPS - это механизм поиска и удаления дубликатов страниц памяти в целях экономии физического пространства RAM (вместо самой дублирующейся страницы хранится ссылка на нее).

Технолония потеряла актуальность, когда вовсю стали применяться большие страницы памяти (Large Memory Pages), для которых размер страницы равен 2 МБ, а значит вероятность появления двух полностью одинаковых страниц очень низка.

Ну вот и пришло время эту технологию отключать. На днях компания VMware выпустила статью базы знаний "Security considerations and disallowing inter-Virtual Machine Transparent Page Sharing", в которой заявляется о том, что в будущих релизах платформы виртуализации VMware vSphere функции TPS будут по умолчанию отключены (хотя и доступны).

Это во многом связано с тем, что TPS (помимо негативного влияния на производительность хоста) - это еще и потенциальный источник проблем, связанных с неавторизованным доступом к данным оперативной памяти. Эти моменты основаны на аналитическом исследовании, выводы из которого опубликованы в статье базы знаний "Additional Transparent Page Sharing management capabilities in ESXi 5.5 patch October 16, 2014 and ESXi 5.1 and 5.0 patches in Q4, 2014 (2091682)".

Вот когда TPS будет отключен в VMware vSphere:

  • ESXi 5.5 Update release – Q1 2015
  • ESXi 5.1 Update release – Q4 2014
  • ESXi 5.0 Update release – Q1 2015
  • VMware ESX 6.x и более поздние версии

Более подробно о проблемах с TPS написано вот в этой статье на блогах VMware.

Если же вы хотите отключить этот механизм уже прямо сейчас, то нужно сделать следующее:

  1. Залогиниться на ESX\ESXi или vCenter Server через vSphere Client.
  2. Выбрать нужный хост и зайти на вкладку Configuration, затем перейти в Advanced Settings в секции Software.
  3. Выбираем раздел Mem и в нем устанавливаем значение параметра Mem.ShareScanGHz в 0.

После патча и обновлений ESXi механизм TPS можно будет включить следующим образом (Advanced Settings в секции Software):

  • Параметр Mem.ShareForceSalting (включение TPS на уровне всего хоста ESXi). Если значение стоит 0 - то значит TPS по-прежнему работает на хосте, если 1 - механизм отключен.
  • Параметр sched.mem.pshare.salt (ставится на уровне ВМ) позволяет включать/отключать TPS для отдельных виртуальных машин (например, старые Windows или линуксы - для них можно было бы включить). Когда параметр ShareForceSalting установлен в значение 1, то для нуждающихся в TPS машин в их Advanced Configuration нужно установить одинаковые значения "соли". Без этого TPS не работает - соответственно, он отключен.

Таги: VMware, vSphere, TPS, Memory, Performance, Security, Update

Новая функция Backup I/O Control в Veeam Backup & Replication v8 как средство соблюдения SLA для приложений.


Некоторые из вас знают, что сейчас в Лас-Вегасе проходит конференция VeeamOn 2014 - первое всемирное офлайн-событие компании Veeam Software, производящей продукт для резервного копирования виртуальных машин номер один на рынке - Veeam Backup and Replication.

Недавно мы писали о новой версии Veeam B&R v8, а на конференции специалисты Veeam рассказали множество интересных подробностей о новых фичах. Одна из таких функций - Backup I/O Control - позволяет ограничивать производительность процедуры резервного копирования на отдельном хранилище.

Veeam очень много сделала в технологическом плане, чтобы бэкапы с хранилища виртуальных машин снимались как можно быстрее - это и распараллеливание задач, и интеллектуальный выбор бэкап-прокси, и многое другое. В итоге бэкапы стали сниматься очень быстро, даже слишком быстро.

Для обычных компаний, системы которых не работают по ночам - это очень хорошо, бэкап отработал ночью, а днем пользователи спокойно работают, а вот для тех компаний, чьи серверы полностью загружены в режиме 24/7, нагрузка хранилищ задачами резервного копирования может оказаться существенной и негативно сказаться на производительности продуктивных систем.

Для этого в Veeam Backup and Replication есть ограничение числа задач, которые могут исполняться одновременно на бэкап-прокси:

Однако это совсем неудобно - непонятно, как и на что это влияет при выполнении операций резервного копирования, потому и была придумана возможность Backup I/O Control, которая ограничивает процесс РК таким образом, чтобы соблюсти требования по производительности хранилищ для нормальной работы виртуальных машин и приложений.

А что является главным мерилом производительности (ну, одним из главных)? Это задержка при операциях чтения-записи, то есть latency. Так вот функция Backup I/O Control в Veeam Backup & Replication v8 позволяет вам указать требуемое latency при превышении которого задача резервного копирования будет "урезаться" и создавать меньшую нагрузку на хранилище:

Если мы укажем данные значения, то при достижении Latency 20 мс новые задачи для данного хранилища перестанут назначаться, а вот если уже вырастет до 30 мс, то и вовсе нагрузка текущих задач будет уменьшена, чтобы соблюсти требования по SLA.

Пример как это работает. Для текущей нагрузки операций резервного копирования включаем функцию Backup I/O Control и нагрузка РК снижается так, чтобы средний уровень latency не превышал 20 мс (зеленая линия). Отключаем эту фичу - и видим, что задержка снова начинает расти, то есть бэкап разгоняется, создавая большую нагрузку.

Конечно же, включение функции Backup I/O Control увеличивает требования к окну резервного копирования, зато позволяет на абсолютно понятном уровне установить устраивающие значения для хранилищ, превышать которые задачи Veeam B&R не будут. Очень удобно.

Для версии Veeam Backup and Replication Enterprise такие настройки можно установить только глобально, а вот в версии Enterprise Plus это уже можно сделать для каждого датастора в отдельности:

Продолжаем следить за новостями с VeeamOn. Выпуск Veeam Backup & Replication v8 ожидается в четвертом квартале этого года, то есть вот-вот.


Таги: Veeam, Backup, Update, Storage, Performance, Enterprise

Тормозит VMware vSphere Web Client? Удалите ненужные плагины!


Те из вас, кто много всего устанавливает в своей тестовой лаборатории или продакшен-среде VMware vSphere, наверное рано или поздно сталкиваются с тем, что vSphere Web Client очень медленно грузится (иногда по 2-3 минуты) или тормозит при работе в нем.

Одна из возможных причин тормозов - наличие установленных плагинов, которые может быть вам уже и не нужны, а отъедают системные ресурсы.

Поэтому иногда целесообразно удалить их. Идем в Managed Object Browser (MOB) на сервере vCenter, для чего переходим в браузере по такой ссылке:

http://<vcenter_name_or_IP>/mob

Далее после аутентификации переходим в раздел "content" (здесь и далее необходимые ссылки подсвечены желтым):

Затем переходим в раздел ExtensionManager:

Там нам нужно найти соответствующий плагин для удаления. Вот таблица всех плагинов VMware, которые могут быть подцеплены к Web Client:

Например, нам надо из vSphere Client удалить плагин vSphere Data Protection, находим его (записываем - все, что в квадратных скобках без кавычек) и проваливаемся дальше:

Вызываем для него метод UnregisterExtension:

В качестве значения при вызове метода указываем имя плагина, например, "com.vmware.vdp":

После успешного вызова метода он должен возвратить результат "void":

Таким вот нехитрым способом можно удалить все лишние плагины с сервера, где установлен vSphere Web Client, после чего последний станет значительно быстрее запускаться.

Идея и картинки взяты здесь.


Таги: VMware, Web Client, Troubleshooting, vSphere, Update, Performance

Компания Login VSI представила бета-версию продукта Login VUM для симуляции VDI-нагрузки в реальном времени + графический фреймворк.


Многие из вас знают компанию Login VSI, которая выпускает продукт Virtual Session Indexer (VSI), предназначенный для симуляции нагрузки и тестирования VDI-сред. Он уже успел стать стандартом де-факто при тестировании инфраструктуры виртуальных ПК у различных вендоров (например, см. тут). Напомним, что это коммерческое решение, а для бесплатного использования доступен продукт VSI Express.

Теперь компания решила подойти к тестированию VDI-инфраструктуры немного с другой стороны - на прошедшей конференции VMware VMworld 2014 была представлена бета-версия продукта Login VUM.

Это решение позволяет в реальном времени создавать нагрузку в виртуальном ПК для различных приложений (то есть открывать окна, выполнять некоторые операции), будто бы за этой виртуальной машиной работает реальный пользователь. Далее, если время выполнения стандартных операций превышает некоторые пороговые значения (например, приложение запускается слишком долго), Login VUM оповещает системного администратора о возникшей проблеме. Похожий способ используют в Водоканале Санкт-Петербурга - раков, обвешанных датчиками, держат в очищенной воде и измеряют их сердечный ритм, отклонения которого свидетельствуют об изменении качества подаваемой потребителям воды.

То есть, это способ мониторинга реальной производительности виртуальной среды посредством некой эталонной виртуальной машины, симулирующей реальную нагрузку. В веб-консоли можно наблюдать за значениями различных параметров этой машины, полученных в течение дня:

Само собой, Login VUM написан не с нуля, а основан на фреймворке Login VSI (технология измерений VSImax), который уже надежно зарекомендовал себя для задач тестирования инфраструктуры виртуальных ПК.

Пока продукт находится в стадии закрытой беты, но его уже можно будет скачать совсем скоро.

Также Login VSI представила свой графический фреймворк Login VSI: Graphics Framework, который позволяет отдельно тестировать чувствительные к производительности графики нагрузки в виртуальных ПК (такие как AutoCAD, Siemens NX или Photoshop). Фреймворк доступен для пользователей продукта Login VSI Pro.

Пример измерения фреймрейта для Автокада при увеличении числа сессий на хосте ESXi:

Видео о том, как выглядит процедура тестирования интенсивных графических нагрузок:

В результате тестирования данные не попадают в VSImax, так как администратору предлагается самостоятельно решить, какой фреймрейт подходит пользователям VDI-инфраструктуры для конкретного приложения и типа нагрузки.

На данный момент Login VSI: Graphics Framework доступен как публичная бета по этой ссылке.


Таги: Login VSI, VUM, Performance, VDI, VMware, View

Анонсы NVIDIA на VMworld 2014 и режим vGPU - пара видеороликов.


Как мы уже писали вот тут, компания NVIDIA на прошедшем VMworld US 2014 рассказала о скорой полноценной поддержке технологии vGPU на платформе VMware Horizon View для виртуальных ПК с интенсивными графическими нагрузками.

Для хромбуков появится технология VMware BLAST Performance, которая обеспечит максимальную производительность 3D-графики. Хромбуки на базе NVIDIA Tegra K1, такие, как Acer Chromebook 13, первыми получат поддержку это передовой технологии.

Теперь вот появился небольшой обзор о том, как это будет работать на хромбуках, и премуществах технологии (выглядит впечатляюще):

Также есть небольшое видео с VMworld о сотрудничестве VMware и NVIDIA:

Ну и, наконец, демонстрация графических возможностей железа NVIDIA при работе на платформе VMware:

Ну и для тех, кому не терпится опробовать адаптеры NVIDIA и режим vGPU совместно с платформой VMware в действии, есть вот такой ресурс - Early Access Program.


Таги: VMware, NVIDIA, Update, Performance, VDI, vGPU

Производительность Microsoft Exchange Server в кластере VMware Virtual SAN.


Компания VMware выпустила интересный документ "Microsoft Exchange Server Performance on VMware Virtual SAN", в котором рассматривается случай тестирования нагрузки виртуальных серверов Microsoft Exchange размещенных в кластере Virtual SAN и работающих на серверах VMware ESXi.

В VMware использовали конфигурацию кластера VSAN из пяти узлов (Dell PowerEdge R720xd с процессорами Intel Xeon Processors E5-2650 и 128 ГБ памяти в каждом), на одном из узлов была машина с контроллером Active Directory, а для генерации нагрузки использовался отдельный клиент:

Детальная конфигурация стенда:

В качестве программной платформы использовался Exchange Server 2010, установленный в ОС Windows Server 2008 R2. На каждом хосте было размещено две виртуальных машины с Exchange - роли Mailbox и HUB.

С помощью Exchange Load Generator была сгенерирована нагрузка пользователей отсылающих и получающих письма. Для теста взяли 12 000, 16 000 и 20 000 пользователей с профилем нагрузки 150 отправляемых писем в день. Каждый почтовый ящик был инициализирован в размере 100 МБ.

При тестах Sendmail на указанном количестве пользователей выведен средний результат выполнения операций (Avg) и результат, уложившийся в 95 процентов опытов (95% latency).

Поскольку принято считать, что Latency до 500 миллисекунд для Exchange считается нормальной при отправке писем - то результаты тестов показывают, что такая конфигурация вполне жизнеспособна на десятках тысяч пользователей.

Больше подробностей можно узнать непосредственно из документа.


Таги: VMware, Virtual SAN, Exchange, Microsoft, Storage, Performance

Тестирование NetApp E2700


Это гостевой пост компании ИТ-ГРАД - облачного провайдера инфраструктур VMware vSphere.

Мне давно не попадался на тесты массив начального уровня, способный пропустить через один контроллер до 1.5 Гб/сек при потоковой нагрузке. NetApp E2700 как раз справился с этой задачей. В июне я провёл Unboxing NetApp E2700. И теперь готов поделиться с вами результатами тестирования этой системы хранения данных. Ниже привожу результаты нагрузочных тестов и получившиеся количественные показатели производительности массива NetApp E-Series 2700 (IOps, Throughput, Latency).

Конфигурация дискового массива следующая:

Схема подключения массива к серверу:

И конфигурация тестового сервера...[читать дальше и комментировать]


Таги: IT-Grad, NetApp, Hardware, Performance

Обновился VMware I/O Analyzer на VMware Labs - новые возможности.


Почти три года назад мы писали про средство VMware I/O Analyzer, предназначенное для генерации нагрузки и анализа статистики ввода-вывода хостов VMware ESXi, доступное на сайте проекта VMware Labs. Не так давно вышло обновление этого средства, которое, как оказалось, живет и развивается.

VMware I/O Analyzer поставляется в виде виртуального модуля (готовой ВМ), предоставляющего администраторам следующие возможности:

  • Интегрированный фрейворк для тестирования производительности хранилищ средствами генераторов нагрузки.
  • Готовый к развертыванию виртуальный модуль (управляющая ВМ и "воркеры" - генераторы нагрузки).
  • Прост в настройке и возможность исполнения тестов на одном или нескольких хостах ESX/ESXi.
  • Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС.
  • Возможность экспорта данных для последующего анализа.
  • Средства "повторения" нагрузки на хранилища путем ее воспроизведения из трейса ввода-вывода.
  • Возможность загрузки трейсов ввода-вывода для автоматического извлечения необходимых метрик.
  • Графическая визуализация метрик и результатов анализа производительности.

В обновленном VMware I/O Analyzer 1.6.x появились следующие возможности:

  • Улучшенный планировщик заданий ввода-вывода.
  • Сам виртуальный модуль теперь на платформе SLES 64-bit, а сервер на Tomcat 6.
  • Экспериментальная поддержка статистик клиента NFS.
  • Возможность использования непостоянной (non-persistent) конфигурации (без сохранения настроек).
  • Сама ВМ с I/O Analyzer теперь версии 7, что позволяет запускать и использовать ее в ESX/ESXi 4.x.
  • Улучшения на бэкэнде, позволяющие поддерживать до 240 и более генераторов нагрузки.

На самом деле с 2011 года много что изменилось в этом продукте, поэтому ознакомьтесь с юзер-гайдом, в котором есть история добавления фичей по версиям.

Скачать VMware I/O Analyzer можно по этой ссылке. Очень хорошо, что подобные утилиты не ограничиваются одним релизом, а развиваются и обрастают функционалом.


Таги: VMware, Storage, Performance, Analyzer, vSphere, ESXi, VMachines, Virtual Appliance

Мудрые мысли о локальности данных в документе "Understanding Data Locality in VMware Virtual SAN".


Некоторое время назад компания VMware выпустила интересный документ "Understanding Data Locality in VMware Virtual SAN", касающийся локальности данных, то есть механизмов соблюдения временных и пространственных характеристик правильного чтения данных в целях оптимизации производительности кластера хранилищ Virtual SAN.

Мысль тут такая: локальность данных бывает двух типов:

  • временная (Temporal locality) - это когда есть вероятность, что данные, использованные сейчас, потребуются снова в ближайшее время (это актуально, поскольку в инфраструктуре виртуализации несколько машин на хосте часто используют одни и те же данные).
  • пространственная (Spatial locality) - ситуация, когда есть вероятность, что после чтения некоторой области данных потребуется прочитать и данные находящиеся рядом - то есть в соседних блоках на хранилище.

Так вот, в документе подробно разбирается, каким именно образом обеспечивается работа с этими особенностями локальности данных применительно к кэшированию данных на хранилищах SSD хостов VMware ESXi.

Примерами работы с локальностью данных являются следующие особенности кластеров Virtual SAN:

  • Каждый раз, когда виртуальная машина читает данные с хранилища, они сохраняются в кэше (Read Cache) на SSD-накопителе и эти данные могут быть востребованы очень быстро. Это работа с Temporal locality.
  • С точки зрения Spatial locality, при кэшировании данных в кэш сохраняется также и "окрестность" этих данных в рамках чанков по 1 МБ.
  • Virtual SAN имеет адаптивный алгоритм по вытеснению и сохранению данных в кэше - если данные используются редко, они выпадают с SSD-накопителя, а часто востребованные данные будут находиться там постоянно.
  • Virtual SAN распределяет экземпляры данных по разным хост-серверам ESXi и работает при чтении сразу с несколькими узлами, но при чтении одного диапазона логических адресов работа идет только с одной репликой. Обусловлено это двумя фактораи: во-первых, увеличивается шанс того, что читаемые данные уже находятся в кэше на SSD, а значит будут прочитаны быстрее, ну и, во-вторых, один блок данных всегда будет закэширован только на одном узле, а значит дорогое SSD-пространство не будет пожираться дубликатами блоков.

В общем документ очень интересный - почитайте. Там еще много полезной информации на эту тему.


Таги: VMware, Virtual SAN, Performance, Whitepaper

Новый документ - Intel Data Plane Development Kit with VMware vSphere.


Компании VMware и Intel в партнерстве выпустили новый документ "Intel Data Plane Development Kit with VMware vSphere" (DPDK), который описывает работу с данной библиотекой приложений Linux User Space. Она позволяет на высоком уровне работать с подсистемой ввода-вывода и сетевого взаимодействия и на программном уровне обрабатывать то, что ранее необходимо было делать только на аппаратном для высоконагруженных систем, например, Application-specific integrated circuits (ASICs) и Field programmable gate arrays (FPGAs).

Данный DPDK с использованием техник паравиртуализации позволяет напрямую обращаться к аппаратным функциям оборудования или виртуальных устройств VMware vSphere.

Решение DPDK with VMware vSphere может быть использовано для миграции систем (обычно в сфере телекома и какого-то необычного сетевого взаимодействия), которые раньше были жестко завязаны на аппаратные функции "железа", на платформу VMware vSphere.

При использовании DPDK можно взаимодействовать со следующими механизмами VMware vSphere:

  • Виртуальный сетевой адаптер VMXNET3
  • Коммутаторы vSwitch и Virtual Distributed Switch
  • Прямой проброс устройств через VMware vSphere DirectPath I/O или технологию SR-IOV

Стандартная реализация паравиртуализационного взаимодействия гостевой ОС через vSwitch и VDS выглядит так:

Если речь идет о пробросе устройств напрямую в ОС, то схема выглядит следующим образом:

Больше интересных подробностей можно узнать в самом документе.


Таги: VMware, Intel, DPDK, SDK, Linux, ESXi, VMachines, Performance, P2V

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Veeam Broadcom Offtopic Microsoft Cloud StarWind VMachines NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V AI VCP Intel Community Ransomware Stretched Backup Private AI vDefend VCF Workstation Network vSAN Tanzu VMUG HCX VCPP Labs Explore Data Protection ONE Live Recovery V2V Aria NSX DPU Update EUC Avi Skyline Host Client GenAI Chargeback Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint ML Director Memory SIOC Troubleshooting Bugs ESA Android Python Upgrade Hub Guardrails CLI Driver Foundation HPC Orchestrator Optimization SVMotion Diagram Ports Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2025, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge