Новости Статьи VMware Veeam StarWind vStack Microsoft Nakivo Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6300 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Расширенный юзер-гайд по Veeam Self Service Backup Portal.


Это гостевой пост нашего партнера - сервис-провайдера ИТ-ГРАД, предлагающего услугу аренды виртуальных машин из облака. Делать бэкапы любят не все. Однако лучше потратить пять минут на бэкап, чем столкнуться с отсутствием возможности восстановления после сбоя. В Veeam это хорошо понимают, поэтому в Availability Suite...


Таги: IT-Grad, Veeam, Cloud, Backup, Portal, IaaS, DR

Veeam Cloud Connect как современное дополнение к правилу 3-2-1.


Статья нашего спонсора - компании ИТ-ГРАД, предоставляющей в аренду виртуальные машины из облака. Слегка перефразируя крылатую фразу «профессора» Воланда, можно сказать: компьютерное железо смертно. Но хуже всего то, что оно внезапно смертно. Регулярное резервное копирование позволяет компаниям защитить данные физической и виртуальной инфраструктуры, минимизировав угрозу их потерь.


Таги: Veeam, IT-Grad, Backup, IaaS, DR

Анонсы VMworld 2019 - часть 8. Что будет нового в DRS 2.0?


На конференции VMworld 2019, которая недавно прошла в Сан-Франциско, было представлено так много новых анонсов продуктов и технологий, что мы не успеваем обо всех рассказывать. Одной из самых интересных новостей стала информация про новую версию распределенного планировщика ресурсов VMware Distributed Resource Scheduler (DRS) 2.0. Об этом было рассказано в рамках сессии "Extreme Performance Series: DRS 2.0 Performance Deep Dive (HBI2880BU)", а также про это вот тут написал Дункан Эппинг.

Надо сказать, что технология DRS, позволяющая разумно назначать хосты ESXi для виртуальных машин и балансировать нагрузку за счет миграций ВМ посредством vMotion между серверами, была представлена еще в 2006 году. Работает она без кардинальных изменений и по сей день (13 лет!), а значит это очень востребованная и надежная штука. Но все надо когда-то менять, поэтому скоро появится и DRS 2.0.

Если раньше основным ресурсом датацентров были серверы, а значит DRS фокусировался на балансировке ресурсов в рамках кластера серверов ESXi, то теперь парадигма изменилась: основной элемент датацентра - это теперь виртуальная машина с приложениями, которая может перемещаться между кластерами и физическими ЦОД.

Сейчас технология DRS 2.0 находится в статусе Technical Preview, что значит, что никто не гарантирует ее присутствие именно в таком виде в будущих продуктах VMware, кроме того нет и никаких обещаний по срокам.

В целом, изменилось 3 основных момента:

  • Появилась новая модель затраты-преимущества (cost-benefit model)
  • Добавлена поддержка новых ресурсов и устройств
  • Все стало работать быстрее, а инфраструктура стала масштабируемее

Давайте посмотрим на самое интересное - cost-benefit model. Она вводит понятие "счастья виртуальной машины" (VM Happiness) - это композитная метрика, которая формируется из 10-15 главных метрик машин. Основные из этого числа - Host CPU Cache Cost, VM CPU Ready Time, VM Memory Swapped и Workload Burstiness.

VM Happiness будет основным KPI, которым будет руководствоваться DRS 2.0 при проведении миграций (то есть цель - улучшить этот показатель). Также эту оценку можно будет увидеть и в интерфейсе. Помимо этого, можно будет отслеживать этот агрегированный показатель и на уровне всего кластера VMware HA / DRS.

Второй важный момент - DRS 2.0 будет срабатывать каждую минуту, а не каждые 5 минут, как это происходит сейчас. Улучшение связано с тем, что раньше надо было снимать "снапшот кластера", чтобы вырабатывать рекомендации по перемещению виртуальных машин, а сейчас сделан простой и эффективный механизм - VM Happiness.

Отсюда вытекает еще одна полезная функциональность - возможность изменять интервал опроса счастливости виртуальных машин - для стабильных нагрузок это может быть, например, 40-60 минут, а для более непредсказуемых - 15-20 или даже 5.

Еще одна интересная фича - возможность проводить сетевую балансировку нагрузки при перемещении машин между хостами (Network Load Balancing). Да, это было доступно и раньше, что было вторичной метрикой при принятии решений о миграции посредством DRS (например, если с ресурсами CPU и памяти было все в порядке, то сетевая нагрузка не учитывалась). Теперь же это полноценный фактор при принятии самостоятельного решения для балансировки.

Вот пример выравнивания такого рода сетевой нагрузки на виртуальные машины на разных хостах:

Модель cost-benefit также включает в себя возможности Network Load Balancing и устройства PMEM. Также DRS 2.0 будет учитывать и особенности аппаратного обеспечения, например, устройства vGPU. Кстати, надо сказать, что DRS 2 будет также принимать во внимание и характер нагрузки внутри ВМ (стабильна/нестабильна), чтобы предотвратить "пинг-понг" виртуальных машин между хостами ESXi. Кстати, для обработки таких ситуаций будет использоваться подход "1 пара хостов source-destination = 1 рекомендация по миграции".

Также мы уже рассказывали, что в настоящее время пользователи стараются не допускать переподписку по памяти для виртуальных машин на хостах (memory overcommit), поэтому вместо "active memory" DRS 2.0 будет использовать параметр "granted memory".

Ну и был пересмотрен механизм пороговых значений при миграции. Теперь есть следующие уровни работы DRS для различных типов нагрузок:

  • Level 1 – балансировка не работает, происходит только выравнивание нагрузки в моменты, когда произошло нарушение правил DRS.
  • Level 2 – работает для очень стабильных нагрузок.
  • Level 3 – работает для стабильных нагрузок, но сфокусирован на метрике VM happiness (включено по умолчанию).
  • Level 4 – нагрузки со всплесками (Bursty workloads).
  • Level 5 – динамические (Dynamic) нагрузки с постоянными изменениями.

В среднем же, DRS 2.0 обгоняет свою первую версию на 5-10% по быстродействию, что весьма существенно при больших объемах миграций. При этом VMware понимает, что новый механизм DRS второй версии может родить новые проблемы, поэтому в любой момент можно будет вернуться к старому алгоритму балансировки с помощью расширенного параметра кластера FastLoadBalance=0.

По срокам доступности технологии DRS 2.0 информации пока нет, но, оказывается, что эта технология уже почти год работает в облаке VMware Cloud on AWS - и пока не вызывала нареканий у пользователей. Будем следить за развитием событий.


Таги: VMware, DRS, Update, vMotion, VMworld

Кластер VMware vSAN и Site Locality - убедитесь, что все диски нерастянутых машин находятся на одной площадке.


Не так давно мы писали о функции Site Locality в кластере VMware vSAN и некоторых ситуациях, когда эту функцию полезно отключать. Недавно Дункан Эппинг еще раз вернулся к этой теме и рассказал, что при использовании растянутых кластеров VMware vSAN надо иметь в виду некоторые особенности этого механизма.

При создании растянутого кластера вам предоставляют опции по выбору уровня защиты данных RAID-1 или RAID-5/6 средствами политики FTT (Failures to tolerate), а также позволяют определить, как машина будет защищена с точки зрения репликации ее хранилищ между датацентрами.

Некоторые дисковые объекты машин вы можете исключить из растянутого кластера и не реплицировать их между площадками. Такая настройка в HTML5-клиенте выглядит следующим образом:

В старом интерфейсе vSphere Web Client это настраивается вот тут:

Смысл настройки этих политик для виртуальной машины в том, чтобы вы могли однозначно определить размещение ее дисковых объектов, так как если у нее несколько виртуальных дисков VMDK, то если вы не зададите их локацию явно - может возникнуть такая ситуация, когда диски одной машины размещаются в разных датацентрах! Потому что при развертывании ВМ решение о размещении принимается на уровне дисковых объектов (то есть на уровне виртуальных дисков), которые по каким-то причинам могут разъехаться в разные сайты, если вы выберите первый пункт на первом скриншоте.

Это, конечно же, со всех сторон плохо, особенно с точки зрения производительности.

Если такая машина работает не в растянутом кластере vSAN, то в случае, если произойдет разрыв между площадками - часть дисков в гостевой системе станет недоступна, что неприемлемо для приложений и ОС.

Поэтому всегда убеждайтесь, что машина и ее дисковые объекты всегда находятся на одном сайте, для этого задавайте их локацию явно:


Таги: VMware, vSAN, DR, VMachines, Storage, VMDK

Ограничения Persistent Memory для виртуальных машин на платформе VMware vSphere.


В августе прошлого года мы сделали статью о новом виде памяти Persistent memory (PMEM) в VMware vSphere, которая находится на уровне между DRAM и Flash SSD с точки зрения производительности:

Надо сказать, что устройства с Persistent Memory (они же, например, девайсы с Intel Optane Memory) уже начинают рассматривать некоторые пользователи для внедрения в своей виртуальной инфраструктуре, поэтому надо помнить об их ограничениях, которые раскрыл Дункан Эппинг.

С точки зрения предоставления памяти PMEM виртуальной машине, на платформе vSphere есть 3 способа:

  • vPMEMDisk - vSphere представляет PMEM как обычный диск, подключенный к виртуальной машине через контроллер SCSI. В этом случае ничего не нужно менять для гостевой ОС или приложений. В таком режиме работают любые системы, включая старые ОС и приложения.
  • vPMEM - vSphere представляет PMEM как устройство NVDIMM для виртуальной машины. Большинство последних версий операционных систем (например, Windows Server 2016 и CentOS 7.4) поддерживают устройства NVDIMM и могут предоставлять их приложениям как блочные или байт-адресуемые устройства. Приложения могут использовать vPMEM как устройство хранения через тонкий слой файловой системы direct-access (DAX), либо замапить регион с устройства и получать к нему прямой доступ через байтовую адресацию. Такой режим может быть использован старыми или новыми приложениями, но работающими в новых версиях ОС, при этом версия Virtual Hardware должна быть не ниже 14.
  • vPMEM-aware - это то же самое, что и vPMEM, но только с дополнительными возможностями приложения понимать, что машина использует такое устройство, и пользоваться его преимуществами.

Если виртуальная машина использует такие устройства, то она имеет очень существенные ограничения, которые на данный момент препятствуют их использованию в производственной среде. Они приведены в документе "vSphere Resource Management Guide" на странице 47 внизу. А именно:

  • vSphere HA - полностью не поддерживается для машин с включенными vPMEM устройствами, вне зависимости от режима использования.
  • vSphere DRS - полностью не поддерживается для машин с включенными vPMEM устройствами (машины не включаются в рекомендации и не мигрируют через vMotion), вне зависимости от режима использования.
  • Миграция vMotion для машин с устройствами vPMEM / vPMEM-aware доступна только на хосты с устройствами PMEM.
  • Миграция vMotion машин с устройством vPMEMDISK возможна на хост без устройства PMEM.

Будем надеяться, что эта ситуация в будущем изменится.


Таги: VMware, vSphere, Memory, PMEM, Intel, VMachines, HA, DRS

Как перейти с обычного VMware Site Recovery Manager под Windows на виртуальный модуль с Photon OS (Virtual Appliance).


Недавно мы писали о выходе обновленной версии решения для обеспечения катастрофоустойчивости виртуальных датацентров VMware Site Recovery Manager 8.2. Многие пользователи после ее релиза задались вопросом миграции на виртуальный модуль (Virtual Appliance), который построен на базе операционной системы Photon OS и управляется через веб-браузер.

Давайте вкратце рассмотрим этот процесс. В целом процедура миграции выглядит так:

  • Убеждаемся, что ваш SRM на базе Windows обновлен до версии 8.2.
  • Экспортируем конфигурацию и останавливаем SRM на хосте с Windows.
  • Развертываем Site Recovery Manager Virtual Appliance и импортируем туда конфиг.

Пошагово этот процесс будет таким:

1. Логинимся в Site Recovery Manager for Windows, открываем командную строку и переходим в папку %SRM_INSTALL_DIR%\bin.

2. Запускаем следующий скрипт, он потребует ввод пароля администратора:

export-srm-data.bat

3. Экспортированную папку перемещаем на виртуальный модуль SRM.

4. Выключаем машину с SRM для Windows и логинимся как root в SRM VA.

5. Если вы создавали кастомные сертификаты, то их надо положить в папку /etc/ssl/certs (это файлы с расширением .pem). Импортировать сертификаты можно через Site Recovery Manager Appliance Management Interface.

Для изменения прав доступа к сертификатам используйте команду:

chmod a+r <new-root-ca>.pem

Далее выполните:

c_rehash

6. После этого запустите импорт окружения SRM, указав папку, которую вы экспортировали из Windows-окружения:

/opt/vmware/srm/bin/import-srm-data.sh <export_dir>

7. Вас попросят пароль администратора vCenter Single Sign-On, root виртуального модуля, а также пароль от файла, который был задан при экспорте конфигурации.

8. На вкладке Home веб-консоли решения SRM VA выберите импортированную пару сайтов и нажмите Actions > Reconnect. Выберите первый сайт из списка, введите адрес Platform Services Controller сервера SRM на резервной площадке и введите имя пользователя и пароль.

9. Далее вас попросят выбрать сервер vCenter, который нужно настроить и его сервисы, где вы просто нажимаете Next, а потом Finish.

Также весь этот процесс описан вот тут.


Таги: VMware, SRM, Virtual Appliance, DR, Migration, Linux

Вышел и доступен для скачивания VMware Site Recovery Manager 8.2 - теперь виртуальный модуль без Windows.


На днях компания VMware выпустила новую версию решения для обеспечения катастрофоустойчивости виртуальных датацентров VMware Site Recovery Manager 8.2. Напомним, что прошлая версия SRM 8.1 вышла довольно давно - аж в апреле прошлого года.

Главное нововведение данного обновления - это отказ от Windows и переход на виртуальный модуль (Virtual Appliance) на базе гостевой ОС Photon. Правда установщик под Windows пока еще доступен, но, скорее всего, его уже не будет в следующих версиях.

Давайте посмотрим, что еще нового появилось в новой версии VMware SRM 8.2:

  • Полная совместимость с платформой виртуализации VMware vSphere 6.7 Update 2.
  • Улучшения интерфейса управления на базе HTML5:
    • Утилита SRM Configuration Import/Export Tool теперь доступна прямо из консоли решения.
    • Теперь можно выбирать цветовые схемы пользовательского интерфейса, включая темную тему, которая показана на скриншоте выше.
    • Отображение информации о емкости на влкадке Protection Groups Datastores.
    • Возможность дать фидбэк в VMware касательно нового интерфейса.
  • Улучшения публичного API:
  • Возможность отсылать логи SRM на удаленный syslog-сервер.
  • Поддержка шифрования сетевого трафика для vSphere Replication 8.2.

Скачать VMware Site Recovery Manager 8.2 (как в виде виртуального модуля, так и в виде установщика для Windows) можно уже сейчас по этой ссылке.


Таги: VMware, SRM, Update, DR

Новое на VMware Labs: синхронизация назначения прав доступа App Volumes Entitlement Sync.


Полтора года назад мы писали о PowerCLI-сценарии, который решает проблему того, что права доступа пользователей (Entitlements) не синхронизированы при резервировании серверов App Volumes Managers и баз данных SQL Server на запасной площадке, что влечет за собой проблемы доступа при переключении в случае сбоя.

При этом данный скрипт не реплицировал данные томов AppStacks, которые можно перенести обычным копированием (также можно автоматизировать этот процесс за счет настройки Storage Groups, как это описано в документе "App Volumes Deployment Considerations").

На днях на сайте проекта VMware Labs появилась GUI-обертка к данному процессу, которая называется App Volumes Entitlement Sync. С помощью нее можно прочитать, сравнить и синхронизировать права доступа к объектам между экземплярами App Volumes на географически разделенных площадках:

После аутентификации на обеих площадках вы сможете выбрать права доступа, которые надо сравнить или синхронизировать:

Перед выполнением синхронизации вам покажут, что именно будет сделано на обеих площадках:

По результатам синхронизации заполняется лог:

Процесс работы с утилитой показан в видео ниже:

Скачать App Volumes Entitlement Sync можно по этой ссылке. Документация доступна тут.


Таги: VMware, App Volumes, DR, Security, VDI, Labs

Приходите на бесплатный вебинар StarWind: Building a stretched cluster: Keep your data always secure.


Компания StarWind, ведущий производитель решений для создания отказоустойчивых программных хранилищ под виртуализацию VMware vSphere и Microsoft Hyper-V, приглашает на бесплатный вебинар "Building a stretched cluster: Keep your data always secure".

Вебинар пройдет 7 февраля в 22-00 по московскому времени.

На мероприятии Алексей расскажет обо всех нюансах развертывания географически "растянутого" кластера для виртуальных машин в части хранилищ. В рамках вебинара будет рассказано, как построить такой кластер, каким аспектам отказоустойчивости (HA) уделить особое внимание, и какие меры необходимо принять в целях обеспечения безопасности такой среды. Ну и, конечно же, Алексей расскажет о том, как предотвратить ситуацию Split Brain в таких сценариях.

Регистрируйтесь бесплатно!


Таги: StarWind, Storage, DR, Webinar

Послеаварийное восстановление как услуга (Disaster Recovery As A Service).


Сейчас трудно представить себе сферу деятельности, в которой доступность IT-инфраструктуры стояла бы на последнем месте. С ростом критических для бизнеса сервисов данный вопрос встает все острее, и сегодня мы хотим рассмотреть варианты резервирования инфраструктуры на удаленной DR-площадке IaaS-провайдера и кейсы, в контексте которых они подходят в качестве стратегии business continuity.

Давайте для начала определимся с базовыми понятиями, которыми оперируют IT-специалисты при разработке плана повышения доступности и без которых невозможно принять взвешенное и объективное решение по его реализации. Подготовка подобного плана всегда включает в себя обязательный диалог между IT и бизнесом, от чьих интересов и особенностей мы всегда должны отталкиваться. И первый вопрос в данном диалоге должен звучать так: Какое время простоя сервисов компании в случае отказа информационных систем не окажет ощутимого воздействие на бизнес? Можно сразу ответить: никакое, ведь любая нештатная ситуация, приводящая к прекращению предоставления услуг, неприятна. Но следует понимать, что организация нулевого даунтайма может обойтись бизнесу дороже, чем потенциальные потери, которые может понести компания, выстроив план так, что время восстановления после сбоя займет, к примеру, 4 часа.

Данное понятие называется RTO (recovery time objective) и его суть сводится к определению времени, за которое работоспособность того или иного сервиса должна быть восстановлена. Мы говорим про сервисы, а не про инфраструктуру в целом, потому что у каждого сервиса есть свой cost и RTO должен рассчитываться применительно именно к сервисам, а не к инфраструктуре в целом. Ведь, к примеру, без сервера печати можно прожить чуть дольше, чем без CRM или сайта компании, если он располагается на вашей площадке.

Следующим в данном диалоге будет вопрос о критичности потери наработанной информации. К примеру, в компании резервное копирование данных происходит ежедневно в 6:00 утра. Люди приходят на работу, вносят изменения в базы, получают новую почту, модернизируют приложение… А вечером происходит критический сбой всех наших систем, и все, что у нас есть, – это резервные копии на момент начала рабочего дня. Если изменений немного и они не критичны, то ничего страшного – восстанавливаемся и работаем дальше. Но если это не так и откат до существующей точки восстановления по тем или иным причинам невозможен без существенных потерь для бизнеса?

Подобный вопрос описывается параметром RPO (recovery point objective) – то есть точка состояния критичных данных, к которой допустимо вернуться в случае сбоя. К примеру, для сервера баз данных мы определяем этот параметр равный 1 часу. Это значит, что актуальная резервная копия данных...Читать статью далее->>
Таги: IT-Grad, DR, IaaS, DRaaS

Что такое сервис VMware Site Recovery, и для чего он нужен?


Не все из вас знают, что в начале этого года компания VMware запустила облачный DR-сервис по обеспечению катастрофоустойчивости виртуальной инфраструктуры в облаке - VMware Site Recovery. Это так называемое DRaaS для публичного облака VMware Cloud on AWS (VMC), которое позволяет организовать disaster recovery (DR) инфраструктуру без капитальных затрат на организацию резервной площадки, покупку оборудования и т.п. для бизнес-критичных приложений - можно просто взять ее в аренду и платить по времени использования.

Это Disaster Recovery as-a-Service (DRaaS) решение на базе публичного облака дает следующие преимущества:

  • Возможность быстро развернуть резервное окружение для онпремизной инфраструктуры vSphere в облаке.
  • Функции vSphere Replication, обеспечивающие, в случае массового сбоя в датацентре, потерю данных в объеме всего RPO=5 минут.
  • Единую консоль Site Recovery Manager (SRM), которая позволяет оркестрировать весь процесс восстановления после аварии.

Учитывая возможности решения Site Recovery, можно выделить 4 основных сценария использования данной технологии:

  • Замена существующего DR-решения (оптимизация затрат, перераспределение ресурсов).
  • Дополнение существующего DR-решения (частичное освобождение мощностей удаленной площадки).
  • Обеспечение DR-инфраструктуры для приложений, которые ранее не были защищены.
  • Возможность репликации данных из облака в другой регион AWS или другую онпремизную инфраструктуру.

Сервис Site Recovery работает с любым решением для организации хранилищ, особенно эффективен он будет вкупе с решением vSAN, которое, в свою очередь, может быть построено на различных аппаратных платформах, например, Dell-EMC VxRail.

Перед тем, как развертывать компоненты решения Site Recovery, вы можете пощупать их в реальной обстановке в рамках бесплатной лабораторной работы HOL-1905-01-SDC - VMware Site Recovery Manager - Data Center Migration and Disaster Recovery.

Кстати, на VMworld 2018 компания VMware объявила, что теперь в рамках одного кластера SDDC на площадке можно защищать до 1000 виртуальных машин, что в 2 раза больше, чем раньше:

Кроме того, теперь добавлена возможность (пока в режиме превью) реплицировать несколько онпремизных площадок в одну облачную VMware Cloud on AWS DR.

Узнать больше информации о VMware Site Recovery можно в специальном блоге, а также посмотрев следующие видео:


Таги: VMware, DR, Cloud, SRM, DRaaS

Увеличение производительности Storage DRS и скорости развертывания ВМ в VMware vSphere 6.7 по сравнению с версией 6.5.


Многие администраторы VMware vSphere весьма консервативны и подолгу не обновляют версию платформы виртуализации, даже когда есть деньги на продление поддержки. Отчасти это верная стратегия - VMware так часто пропускает серьезные баги в мажорных релизах, что многие ждут пока обновление "настоится".

Но долго ждать тоже не стоит, так как можно недополучить преимущества новых версий. Например, всегда от релиза к релизу у платформы vSphere растет производительность в различных аспектах. В частности, давайте посмотрим, как выросла производительность технологии миграции хранилищ Storage DRS в VMware vSphere 6.7 по сравнению с версией 6.5.

VMware провела тестирование двух версий платформы и посмотрела, как быстро происходит генерация рекомендаций DRS в разрезе следующих операций в кластере:

  • CreateVM
  • CloneVM
  • ReconfigureVM (добавление дополнительного диска)
  • RelocateVM (перемещение на другой датастор)
  • Datastore Enter Maintenance (перевод датастора в режим обслуживания)

При одновременном исполнении в кластере множества данных задач одновременно имеет значение своевременное формирование рекомендаций (куда поместить ВМ, куда ее клонировать и т.п.). По итогам тестирования были получены следующие результаты (столбики показывают процент улучшения по времени для 5 одновременных исполняемых операций):

Для 16 одновременных операций:

Отдельно представлен график для операций Datastore Enter Maintenance:

Все это приводит к увеличению скорости развертывания и миграции виртуальных машин и их VMDK-дисков в больших инфраструктурах, где в этом участвует механизм SDRS (генерация рекомендаций по размещению виртуальных машин).


Таги: VMware, Storage DRS, Performance, Storage, ESXi, vSphere, Enterprise

Полезные расширенные настройки (Advanced Options) кластера VMware vSAN 6.7 Update 1.


Как почти все знают, компания VMware в рамках конференции VMworld 2018 анонсировала доступность новой версии решения для создания отказоустойчивых хранилищ VMware vSAN 6.7 Update 1. В обновленном vSAN появилась масса новых возможностей, но сегодня мы расскажем о трех новых расширенных настройках (Advanced Options), про которые написал Cormac Hogan, и которые стали доступны для редактирования в графическом интерфейсе.

Ранее Кормак рассказывал про следующие расширенные настройки кластера vSAN:

  • VSAN.ClomRepairDelay - задержка перед началом ребилда отсутствующих компонентов.
  • VSAN.DomOwnerForceWarmCache - определяет, должны ли операции чтения производится со всех реплик дисковых объектов, либо с определенных сайтов растянутого (stretched) кластера vSAN.
  • VSAN.SwapThickProvisionDisabled - возможность сделать swap-файлы виртуальных машин тонкими, то есть растущими по мере наполнения данными.

Теперь эти три настройки в новой инкарнации можно найти в разделе:

Cluster > Configure > vSAN > Services > Advanced Options

При нажатии на ссылку EDIT можно открыть интерфейс их изменения:

1. Настройка Object Repair Timer.

Как было сказано выше, она определяет задержку, после которой начинается ребилд отсутствующих дисковых объектов в кластере после произошедшего сбоя. По умолчанию она установлена в 60 минут (время, которое нужно VMware Update Manager для обновления хоста ESXi). Также тут нужно достаточное время, чтобы не происходило ненужных срабатываний при временных проблемах в сети. Если вы просто тестируете продукт vSAN, то можете поставить ее, например, в 15 минут, чтобы посмотреть, как начнется процесс ребилда.

Если же надо вывести часть кластера в режим обслуживания дольше чем на час, то можно увеличить этот параметр. Ранее подобную настройку нужно было делать на каждом хосте ESXi, а теперь она едина для всего кластера.

2. Настройка Site Read Locality.

Эта настройка определяет, будут ли данные растянутого (stretched) кластера читаться из реплик дисковых объектов на уровне одного сайта (домена отказа), либо будут читаться из всех реплик дисковых объектов ВМ. Второй вариант подходит, когда между площадками у вас налажено высокоскоростное соединение (inter-site link), не отличающееся по скорости от внутреннего. Если же это совсем не так, то Read Locality можно отключить.

Также эта настройка работает и для кластеров vSAN состоящих только из двух узлов - и вот тут иногда бывает смысл ее менять, чтобы данные ВМ читались, например, только с одного хоста ESXi.

3. Настройка Thin Swap.

Она определяет, будут ли файлы подкачки виртуальных машин "тонкими", то есть растущими по мере наполнения данными. Тонкие swap-файлы экономят дисковое пространство, но создают совсем маленькую нагрузку по IO при аллоцировании блоков. По умолчанию тонкий своп включен.

И тут тоже надо отметить, что теперь эта настройка централизованно задается для всего кластера vSAN, а раньше нужно было ходить на каждый хост ESXi и выставлять ее там.


Таги: VMware, vSAN, Update, Storage, VMachines, DR

Обновленная версия VMware vCloud Availability Cloud-to-Cloud Disaster Recovery 1.5 - новые возможности.


Недавно компания VMware объявила о выпуске обновленной версии решения vCloud Availability Cloud-to-Cloud Disaster Recovery 1.5, которое предназначено для репликации и восстановления виртуальной инфраструктуры в одном из облаков сервис-провайдеров (между датацентрами, в каждом из которых работает vCloud Director).

Напомним, что это решение дополняет семейство продуктов VMware vCloud Availability for vCloud Director, которое предназначено для сервис-провайдеров и выполняет функции обеспечения доступности виртуальных машин в их публичных облаках.

vCloud Availability Cloud-to-Cloud DR - это часть сервисов VMware Cloud Provider Platform, обеспечивающих функционирование публичных облаков. При этом данное решение подключается как плагин для vCloud Director и работает между облаками различной природы (онпремизными и публичными), предоставляя репликацию и восстановление виртуальных машин и сервисов vApp между различными экземплярами vCloud Director в разных датацентрах.

Кстати, первая версия этого решения по отзывам сократила время ручных операций по обслуживанию и диагностике служб репликации на 72%. Давайте посмотрим, что нового появилось в Cloud-to-Cloud DR версии 1.5.

Улучшения произошли в 5 ключевых областях:

1. Интегрированный пользовательский интерфейс в vCloud Director.

Сервис-провайдеры, использующие vCloud Director 9.1 и более поздние версии продукта, получили обновленный интерфейс (для предыдущих версий останется старый). Кроме того, клиенты сервис-провайдеров получили возможность включить функции Disaster Recovery и зайти в vCloud Director прямо из тулбара.

Также обновился и API до версии 1.5 (он позволяет интегрировать функции vCloud Availability Cloud-to-Cloud DR в пользовательские порталы). API теперь позволяет управлять такими продуктами и процессами, как: Replication manager, рабочие процессы репликации vApp, мониторинг состояния системы, первоначальная конфигурация репликации (создание туннеля, DNS, конфигурации точек репликации и т.п.), а также управление системой на уровне всей площадки.

Помимо этого, теперь для Cloud-to-Cloud DR обеспечена сквозная аутентификация из vCloud Director, что очень удобно для пользователей.

2. Улучшения юзабилити и рабочих процессов.

В новой версии Cloud-to-Cloud DR появилась возможность управления политиками, которые позволяют задать RPO ну уровне клиента, что дает возможность обеспечить различным клиентам разный уровень соответствия политикам RPO (а для последней версии vSphere можно обеспечить RPO=5 минут). Также можно установить максимальное число снапшотов и максимальное число репликаций на клиента.

Одна из новых удобных возможностей - это комплексные фильтры, которыми можно вывести виртуальные машины и объекты vApp, к которым далее можно применить некоторые действия (например, создать снапшоты или запустить восстановление).

3. Улучшения масштабируемости инфраструктуры.

Теперь можно использовать до 300 активных репликаций для одного большого узла vCloud Availability Replicator, около 100 клиентов с активными репликациями, до 7 экземпляров vCloud Availability Replicator на один экземпляр vCloud Availability Cloud-to-Cloud и до 2 ТБ объема защищаемых VMDK-дисков. С точки зрения операций, их может быть где-то до 120 штук одновременно, а всего тестировалось до 3000 активных операций для более чем 100 клиентов (программного ограничения нет).

4. Плагин Orchestration plugin для создания собственных рабочих процессов.

Через некоторое время станет доступен отдельный плагин, который будет работать под vRealize Orchestrator и будет позволять конструировать такие рабочие процессы, как, например, построение инвентори или сбор и обработка данных от экземпляров vCloud Availability vApp Replication Manager. Рабочий процесс можно сделать в vRealize Orchestrator Client, после чего импортировать его в vCloud Director и далее исполнять их там.

5. Функции улучшения ежедневной эксплуатации для администраторов.

vCloud Availability Cloud-to-Cloud 1.5 будет иметь плагин для vRealize Operations 6.6.1 и более поздних версий (будет доступен несколько позже), который будет предоставлять информацию о компонентах и их активностях, инвентори, общему состоянию, сработавших алармах, доступной емкости, статусу репликации и прочему. Сервис-провайдеры теперь смогут показывать клиентам расширенные отчеты, в которых будет информация о соблюдении оговоренных KPI и SLA.

Продукт будет доступен по каналам сервис-провайдеров, узнать больше о нем можно на странице vCloud Availability и портале для облачных партнеров.


Таги: VMware, vCloud, DR, Replication, Cloud, Cloud Computing

Плагин к vSphere Client для сервиса DRS Dump Insight.


На сайте проекта VMware Labs появился полезный плагин DRS Dump Insight H5 Plugin, который добавляет функции утилиты DRS Dump Insight в HTML5-интерфейс vSphere Client на сервере vCenter Server Appliance (vCSA).

Напомним, что сервис DRS Dump Insight - это портал самообслуживания, куда пользователи могут загружать файлы дампов DRS. После этого будет выведена информация об операциях по перемещению виртуальных машин, которые рекомендует выполнить механизм балансировки нагрузки DRS:

Плагин DRS Dump Insight в вашем vCSA позволит ответить на следующие вопросы:

  • Где взять список всех рекомендаций DRS?
  • Почему DRS выдал конкретную рекомендацию (улучшить баланс по CPU, по памяти и т.п.)?
  • Почему DRS не вырабатывает рекомендации по балансировке кластера?
  • Как созданное пользователем правило affinity/anti-affinity влияет на балансировку ресурсов в кластере?
  • Если применить некоторую политику в кластере, как изменится балансировка ресурсов DRS?

При установке DRS Dump Insight H5 Plugin нужно выполнить следующие действия:

  • Проверить версию vCenter Server Appliance - подходит только 6.5 и 6.7.
  • Положить пакет с плагином в папку /usr/lib/vmware-vsphere-ui/plugin-packages/ на сервере vCSA.
  • Добавить настройку CompressDrmdumpFiles со значением "0" в advanced options кластера.
  • Перезапустить службу графического интерфейса vsphere-ui командами:
    • service-control --stop vsphere-ui
    • service-control --start vsphere-ui

После установки на вкладке Monitor для каждого кластера вы увидите раздел "DRS Dump Insight".

Загрузить DRS Dump Insight H5 Plugin можно по этой ссылке (в комбо-боксе выберите версию для своего vCenter).


Таги: VMware, DRS, Labs, Resources, vSphere, Client, Plugin

VMware vSAN Stretched Cluster и архитектура Horizon View.


Cormac Hogan, специалист по отказоустойчивым серверным хранилищам на базе хостов VMware vSAN, написал интересный пост о "растянутых кластерах" (vSAN Stretched Clusters). Это кластеры, которые образуют единое пространство хранения между двумя географически разделенными площадками, в котором продолжают работать различные механизмы обеспечения доступности виртуальной инфраструктуры, например, VMware HA (он восстанавливает отдельные ВМ в рамках площадок, а также всю площадку целиком в случае ее сбоя).

Если вы используете виртуальные ПК на базе полных клонов с инфраструктуре VMware Horizon View, то вы можете исполнять их на растянутом кластере в конфигурации Active/Passive в рамках одного View Pod (набора серверов Connection Server):

Это именно Active/Passive конфигурация, которая поддерживает пользовательские соединения только на одной площадке, вторая находится в резерве, а вся инфраструктура десктопов управляется одним набором серверов View Pod, размещенном на основном сайте:

Такая архитектура позволяет поддерживать единое пространство хранения и репликации в рамках растянутого кластера, реплицируемого на уровне дисковых объектов vSAN между площадками, а не виртуальных машин, как в случае с vSphere Replication.

В случае сбоя нужно будет только запустить серверы View Connection Servers, которые будут управлять виртуальными машинами на резервной площадке, находящимися в актуальном состоянии с точки зрения дисков. Обо всем этом отлично написано в Appendix H соответствующего раздела документации.

Надо отметить, что архитектура Active/Active (когда десктопы активно работают на обеих площадках) в решении Horizon View не поддерживается для растянутых кластеров. Причина в том, что группа серверов Connection Servers в рамках одного сайта (Pod) должна иметь отличное соединение по сети LAN, чему нет гарантий в среде растянутого кластера, когда они разместятся на обеих площадках.

При этом ничего не мешает вам использовать Active/Active-конфигурацию не для растянутого кластера, а для двух Pods с разными кластерами vSAN на каждой из площадок в рамках архитектуры Cloud Pod Architecture (CPA).

Ну а если вы используете non-persistent виртуальные десктопы и связанные клоны (Linked Clones) или мгновенные клоны (Instant Clones), то рекомендация VMware тут та же самая - не использовать растянутый кластер vSAN. Потому что, в отличие от полных клонов, данные дисковых объектов могут создаваться и уничтожаться на лету в больших объемах, что пока еще не поддерживается для единого пространства хранения vSAN.

Вместо этого нужно создавать View Pod на каждой из площадок и поддерживать свой кластер vSAN на уровне каждого сайта, как показано на картинке выше.

Ну и еще момент - решение VMware AppVolumes также не поддерживается в растянутых кластерах VMware vSAN.


Таги: VMware, vSAN, Stretched, DR, HA, View, Horizon

Вышла новая версия Cross vCenter Workload Migration Utility - возможности для распределенных датацентров.


На сайте проекта VMware Labs обновилась полезная утилита Cross vCenter Workload Migration, которая предназначена для переноса виртуальных машин средствами Cross vCenter vMotion между виртуальными датацентрами под управлением разных серверов vCenter (поддерживаются как единый SSO-домен, так и разные). Напомним, что о первой ее версии мы писали в конце прошлого года вот тут.

По отзывам пользователей, утилита Cross vCenter Workload Migration часто пригождается, когда требуется массовая миграция сотен и тысяч виртуальных машин между распределенными датацентрами.

Во-первых, в новой версии добавилась возможность указывать целевой пул ресурсов и папку (VM Folder), куда требуется переместить выбранные виртуальные машины:

Это позволяет реализовывать массовые миграции с точки зрения организационной структуры (папки) и с точки зрения использования ресурсов (пулы).

Во-вторых, появилась поддержка VMware Cloud on AWS (VMC). Раньше Cross vCenter vMotion Utility не поддерживала специфическую иерархию ресурсов и прав доступа AWS, но теперь все работает отлично. Вот пример миграции ВМ в облачный датацентр из онпремизного:

Также обратим внимание, что за прошедшие несколько месяцев утилита приобрела следующую функциональность:

  • Увеличилось число одновременных миграций с 10 до 100.
  • Появилась возможность выбрать целевой хост ESXi для миграции.
  • Поддерживается миграция ВМ с общими хранилищами, а также еще и функции клонирования в дополнение к миграции.
  • Улучшилось отображение свойств и ресурсов ВМ, а также интерфейс REST API.

Скачать Cross vCenter Workload Migration Utility можно по этой ссылке. А вот, кстати, обзорное видео об этом средстве:


Таги: VMware, vCenter, vMotion, Labs, Update, DR

Растянутый кластер, Witness VM и лицензия VMware vCenter Server Foundation.


Некоторые из вас знают, что у VMware есть лицензия VMware vCenter Server Foundation, которая позволяет подцепить к серверу vCenter до 4 хостов VMware ESXi. Такая лицензия стоит дешевле обычного vCenter и позволяет построить растянутый кластер (stretched cluster) из четырех хостов ESXi, например, на уровне основного датацентра и филиала (это обеспечивает отказоустойчивость HA на уровне каждой площадки):

Проблема здесь возникает тогда, когда вы пытаетесь добавить виртуальный модуль Witness Virtual Appliance на один из хостов. Так как Witness VM - это виртуальный хост ESXi, то несмотря на то, что он не исполняет виртуальных машин, сервер vCenter считает его пятым хостом и отказывается добавлять его.

Решение проблемы описано в Release Notes для VMware vCenter Server 6.5 Update 2 (см. пункт в самом низу) - нужно просто с самого начала импортировать Witness VM в inventory сервера vCenter (при добавлении первым он не будет съедать лицензию), после чего уже добавить 4 хоста ESXi, которые в этом случае подцепятся без проблем.


Таги: VMware, vCenter, HA, ESXi, Troubleshooting, DR

Новое на VMware Labs: DRS Entitlement Viewer.


На сайте проекта VMware Labs появилась очередная утилита DRS Entitlement Viewer, которую давным-давно ожидали пользователи еще с третьей версии ESX Server. Это средство позволяет визуализовать иерархию пулов ресурсов, в которой для каждого пула показаны выделенные ему ресурсы процессора и памяти:

Кроме этого, как вы видите на картинке, также показываются и ресурсы, выделенные всем виртуальным машинам кластера VMware DRS. Эти параметры вычисляются и отображаются на основе фактически потребляемых машинами и пулами ресурсов, а также параметров reservation, limit и shares.

Помимо этого, утилита DRS Entitlement Viewer поддерживает 3 сценария "что если" (What-If):

  • Изменение настроек reservation, limit и shares для ВМ и/или пула ресурсов.
  • Что если ВМ будет потреблять столько ресурсов, сколько сможет (то есть нагружена на 100%).
  • Сочетание обоих предыдущих сценариев.

После применения этих сценариев пользователь сможет увидеть новую картину, которая не повлияет на реальные настройки кластера DRS.

И самое полезное - результат what-if моделирования можно выгрузить в виде консольной команды PowerCLI, которую можно затем применить в реальном окружении VMware vSphere, чтобы получить смоделированную конфигурацию кластера DRS.

Скачать DRS Entitlement Viewer можно по этой ссылке. Работает это как плагин к клиенту vSphere Client на базе технологии HTML5. Для запуска плагина вам потребуется vCenter Server Appliance версии 6.5 или 6.7.

Установить плагин просто:

  • Распаковываем архив дистрибутива в папку /usr/lib/vmware-vsphere-ui/plugin-packages/.
  • Добавляем следующие расширенные настройки (Advanced Settings) в кластер HA/DRS:
    • CompressDrmdumpFiles = 0
    • DrmdumpResActions = 1
  • Перезапускаем службу командами:
    • service-control --stop vsphere-ui
    • service-control --start vsphere-ui

После этого вы увидите раздел "DRS entitlements" на вкладке "Monitor" для каждого кластера.


Таги: VMware, DRS, Labs, Resources, VMachines

Новые возможности VMware Site Recovery Manager 8.1.


Во время большой серии весенних релизов, в рамках которой VMware выпустила обновление платформы виртуализации vSphere 6.7 и других продуктов, была также анонсирована и новая версия решения для обеспечения катастрофоустойчивости виртуальной инфраструктуры - VMware Site Recovery Manager 8.1.

Давайте посмотрим, что нового появилось в VMware SRM 8.1:

1. Улучшенный интерфейс на базе HTML5.

Теперь интерфейс управления решением SRM и репликацией построен на базе фреймворка Clarity и технологии HTML5 - это значит, что все работает быстро, а сам интерфейс удобен и приятно выглядит.

2. Переработанные рабочие процессы.

Теперь в SRM рабочие процессы сделаны более гибко и удобно. Например, при настройке защиты виртуальной машины можно добавить ее в существующий план восстановления (Recovery plan) или сразу же создать новый:

3. Гибкость при соединении площадок.

Теперь в SRM 8.1 отсутствует требование по идентичности версий VMware vCenter на обеих площадках. Это значит, что обновления на уровне сайтов вы можете проводить независимо. SRM 8.1 и vSphere Replication 8.1 поддерживают любую комбинацию из vCenter 6.0 Update 3, vCenter 6.5 и vCenter 6.7.

Это дает возможность обновить vCenter, не затрагивая при этом конфигурацию VMware SRM. Кроме того, теперь поддерживается и облачная инфраструктура VMware Cloud on AWS.

4. Упрощенный путь апгрейда SRM.

Теперь SRM поддерживает не только апгрейд с прошлой версии (SRM 8.0), но и прямое обновлений с версий SRM 6.5.

Это позволяет выполнять меньше операций при обновлении, а также не рисковать нарушить конфигурацию при выполнении многошаговых апгрейдов.

5. Утилита по сохранению и загрузке конфигураций Configuration Import/Export Tool.

Эта утилита командной строки, появившаяся впервые в этой версии, позволяет сохранить или накатить конфигурацию SRM. Ее давно ждали, теперь она позволяет не только делать резервные копии сложнейших конфигураций, но и реализовывать миграции, например, на другую СУБД.

Вот список того, что может быть экспортировано и импортировано в инфраструктуру SRM:

  • Protection Groups
  • Recovery Plans
    • Приоритетная группировка ВМ
    • Взаимосвязи ВМ
    • Callouts
    • Кастомизация настроек IP
  • Маппинги сетей, папок, пулов ресурсов и политик хранилищ
    • Правила маппинга IP-подсетей
  • Информация о ВМ-плейсхолдерах
  • Расширенные настройки (Advanced settings)
  • Локальный и удаленные адреса площадок
  • Объекты Array Managers с информацией об SRA-адаптерах

6. Поддержка большего числа Protection Groups.

Теперь защищаемых групп может быть 500 вместо 250 в прошлой версии. Это сделано для Enterprise-пользователей, которым нужно создавать отдельную Protection Group для отдельного приложения, а таких приложений в датацентре может быть очень много.

7. Поддержка виртуальных машин, защищенных Fault Tolerance.

Эту возможность давно ждали. Теперь можно защищать ВМ с включенной технологией непрерывной доступности Fault Tolerance. Однако тут есть несколько ограничений:

  • Поддерживается только репликация на уровне дискового массива.
  • Обе FT-машины (Primary и Secondary) должны быть в одной группе array consistency group.
  • Машина при сбое восстанавливается без включенной FT (ее придется запускать руками на резервной площадке).

8. Улучшения автоматизации.

В SRM 8.1 появилось два дополнительных API:

  • Получение и настройка параметров IP-кастомизации.
  • Добавление и удаление датасторов из групп Array-Based Replication Protection Groups.

9. Миграция на Photon OS.

Виртуальный модуль vSphere Replication 8.1 (VR Appliance) с SLES переехал на Photon OS. Это очередной шаг в сторону унификации инфраструктуры виртуальных модулей.

Загрузить VMware Site Recovery Manager 8.1 можно по этой ссылке. Release Notes доступны тут.


Таги: VMware, SRM, Update, DR

Вышел Veeam Availability Orchestrator - послеаварийное восстановление для реплик ВМ, созданных с помощью Veeam Backup & Replication.


Еще весной прошлого года мы писали про продукт Veeam Availability Orchestrator, который предназначен для восстановления виртуальной инфраструктуры из реплик Veeam Backup & Replication после аварии или катастрофы на основной площадке предприятия.

По сути, это качественная замена неказистого продукта VMware Site Recovery Manager. Инженеры Veeam хорошо поработали и сделали один из самых интересных и нужных продуктов компании - теперь стратегии Data Protection и Disaster Recovery можно сделать на базе продуктов одного вендора. На днях Veeam Availability Orchestrator стал доступен для загрузки.

Давайте посмотрим на самые интересные возможности этого решения:

1. Документация инфраструктуры катастрофоустойчивости.

Эта функция позволяет создать необходимый набор документации, в которой отражены основные процедуры и схемы восстановления инфраструктуры после крупного сбоя или аварии средствами Veeam. Тут важны вот какие моменты:

  • Решение содержит 4 полностью кастомизируемых шаблона отчетности для катастрофоустойчивой инфраструктуры в удобном для пользователя формате.
  • Возможность соответствия требованиям законодательства и комплаенсу в сфере disaster recovery. Также эти отчеты на регулярной основе не стыдно предоставлять директорам C-level (CEO, CIO и т.п.).
  • Автоматическое обновление документации при внесении изменений в виртуальную инфраструктуру - то есть поддержание актуальности данных в отчетах.

2. Тестирование плана восстановления после сбоев.

Для того, чтобы организация была уверена в том, что в случае форс-мажора можно будет восстановить функционирование ИТ-инфраструктуры, нужно регулярно проводить тестирование восстановления виртуальной инфраструктуры. Здесь важны следующие моменты:

  • Возможность исполнения ручного и запланированного тестирования с верификацией восстановления работы ИТ-сервисов.
  • Доступ в реальном времени к отчетам и дэшбордам, предоставляющим информацию о плановой готовности сервисов, исполнении плана тестирования и восстановления.
  • Регулярное исполнение тестов без влияния на производственную среду, производительность сервисов и пользователей.

3. Исполнение плана аварийного восстановления в случае аварии.

Это, понятное дело, самая важная фича продукта. Она подразумевает как восстановление работоспособности сервисов основного сайта на резервной площадке (failover), так и обратное восстановление виртуальной инфраструктуры на основную площадку (failback).

Здесь есть вот какие особенности:

  • Верификация восстановления на уровне виртуальных машин, приложений и сервисов - например, для Microsoft Exchange, SQL Server и IIS — при фейловере с заранее определенным порядком запуска сервисов.
  • Через открытый API процесс восстановления можно интегрировать с другими средствами обеспечения доступности ИТ-инфраструктуры.
  • Доступ к средствам планирования и исполнения disaster recovery можно регулировать с помощью ролевой модели доступа (role-based access control, RBAC).

Более подробно о функциях Veeam Availability Orchestrator можно прочитать вот тут. Скачать продукт можно по этой ссылке.


Таги: Veeam, Availability, Orchestrator, DR

Обновленные версии утилит VMware vCenter VM Mobility и DRS Lens.


На днях компания VMware обновила пару своих утилит на сайте проекта VMware Labs, которые могут оказаться вам полезными.

Во-первых, решение VMware vCenter VM Mobility, о котором мы писали вот тут, обновилось до версии 1.5. Напомним, что это средство позволяет через интерфейс командной строки (CLI) перенести машину между серверами vCenter, которые связаны в режиме Linked Mode или размещены независимо друг от друга. Надо отметить, что в режиме Linked Mode и так можно перемещать виртуальную машину между датацентрами, поэтому полезна утилита именно для несоединенных vCenter.

Давайте посмотрим, что нового появилось в версиях vCenter VM Mobility 1.2-1.5:

  • Добавлена возможность выбрать папку ВМ в месте назначения, а также storage pod (для механизма storage drs).
  • Поддержка соединения на сайте назначения, чтобы не прервалась задача перемещения ВМ.
  • Пофикшен баг, когда при миграции нескольких виртуальных машин с одной виртуальной сетью назначения мигрировалась только одна.
  • Поддержка передачи пароля в качестве аргумента для автоматизации задач клонирования и перемещения ВМ между датацентрами.

Скачать VMware vCenter VM Mobility 1.5 можно по этой ссылке. Напомним, что утилитой лучше не пользоваться для миграции связанных клонов ВМ (linked clones).

Вторая обновившаяся утилита - это DRS Lens, про которую мы рассказывали вот тут. Она позволяет администраторам виртуальных инфраструктур получить больше информации о работе механизма балансировки нагрузки на хост-серверы VMware vSphere DRS.

На днях вышла версия DRS Lens версии 1.2. Приведем ниже новые возможности утилиты версий 1.1-1.2:

  • Добавлена поддержка архивирования старых данных мониторинга.
  • Добавлена страница общей информации для vCenter, чтобы получать информацию о кластерах и архивах.
  • Улучшения пользовательского интерфейса.
  • Добавлена совместимость процесса логина с vCenter 5.5.
  • Пофикшены некоторые серьезные баги.

Скачать DRS Lens 1.2 можно по этой ссылке.


Таги: VMware, vCenter, DRS, Monitoring, vMotion, CLI, Update, Labs

Максимальное число виртуальных машин на хосте, защищенных VMware Fault Tolerance.


Дункан Эппинг написал интересную заметку о максимальных настройках виртуальных машин, защищенных средствами кластера непрерывной доступности VMware Fault Tolerance.

Некоторые из вас знают, что у Fault Tolerance есть ограничения как по числу одновременно защищенных виртуальных машин на хосте, так и по числу виртуальных процессоров (vCPU) на один хост ESXi. Напомним, что эти ограничения были улучшены в VMware vSphere 6.0, теперь можно с помощью FT защищать машины с четырьмя vCPU, а всего таких машин может быть до четырех штук. Но при этом заявлено, что для FT не может быть более 8 vCPU на хосте (то есть 4 машины по 4 vCPU в каждой поддерживать не получиться).

Но это, оказывается, только в дефолтной конфигурации. Для регулирования этих параметров есть две расширенные настройки (Advanced Settings) кластера HA/DRS:

  • das.maxftvmsperhost - максимальное число защищенных ВМ на хост (4).
  • das.maxFtVCpusPerHost - максимальное число защищенных vCPU на хост (8).

Они по умолчанию равны значениям, описанным выше, но вы можете выставить свои значения - и это будет работать. Тогда откуда они взялись? Очень просто - инженеры взяли типовые нагрузки, посадили их на адаптер 10G и получили, что хост потянет где-то 8 vCPU для Fault Tolerance (4 машины по 2 vCPU). Это условие выполняется при старте машин пользователем, миграциях vMotion, а также механизмом DRS при расчете рекомендаций.

Но у вас своя инфраструктура (может уже и адаптеры 40 Gbps), поэтому вы можете использовать какие захотите разумные значения. Кстати, если вы поставите значение 0, то кластер VMware DRS будет полностью игнорировать данное требование к числу FT-машин на хост.

Но помните, что со стороны VMware превышение указанных значений не будет официально поддерживаемой конфигурацией.


Таги: VMware, DRS, HA, Fault Tolerance

CPU Overcommitment для кластеров DRS в VMware vSphere.


Многие из вас хотя бы раз задумывались о том, сколько виртуальных машин должно в среднем приходиться на один хост, а кроме того, в частности, сколько виртуальных процессоров (vCPU) могут исполняться на физических процессорах (pCPU) хост-сервера VMware ESXi.

На этот счет системные архитекторы часто дают следующие рекомендации (в соответствии с критичностью нагрузок в кластере):

  • Tier 1 cluster (mission-critical приложения) - соотношение 1:1 vCPU / pCPU.
  • Tier 2 cluster (business-critical приложения) - соотношение 3:1 vCPU / pCPU.
  • Tier 3 cluster (инфраструктурные и обеспечивающие приложения) - соотношение 5:1 vCPU / pCPU.
  • Tier 4 cluster (виртуальные десктопы) - соотношение 10:1 vCPU / pCPU.

Это общие рекомендации и, конечно же, не железные правила - отталкиваться нужно от имеющегося оборудования и характера нагрузок в виртуальных машинах.

Для того, чтобы регулировать это соотношение со стороны кластера балансировки нагрузки VMware DRS есть 2 специальные расширенные настройки:

  • MaxVcpusPerClusterPct - регулирует соотношение vCPU/pCPU на уровне всего кластера, не привязываясь к конкретным хостам ESXi (то есть сумма vCPU всех машин делится на сумму pCPU всех хостов).
  • MaxVCPUsPerCore - регулирует соотношение vCPU/pCPU на уровне каждого из хостов ESXi, то есть ни на одном из них это соотношение не может быть превышено.

Указываются эти расширенные настройки в разделе Configuration Parameters в vSphere Web Client при настройке DRS-кластера:

Также их можно задать и в HTML5-клиенте vSphere Client:

Но самое интересное - это то, что в vSpher Web Client эта настройка есть в GUI и регулирует параметр MaxVcpusPerClusterPct на уровне всего кластера (можно задать процент от 0 до 500, но разумно задавать значения от 100 до 500, если задать 500 - число vCPU может быть больше pCPU в пять раз):

А вот в vSphere Client - эта настройка уже MaxVCPUsPerCore, то есть задание CPU Overcommitment на уровне каждого из хостов ESXi, о чем и написано в интерфейсе:

Кстати, выставить эту настройку можно в диапазоне от 0 до 32.


Таги: VMware, DRS, Blogs, Web Client, Client, vSphere

Как VMware DRS работает с памятью при балансировке кластера - Active, Consumed и Configured Memory.


Как вы знаете, механизм динамической балансировки нагрузки VMware DRS используется для того, чтобы в условиях неравномерной нагрузки на хост-серверы VMware ESXi выравнивать ее за счет дачи рекомендаций по миграции виртуальных машин средствами vMotion на другие хосты, либо автоматического выполнения этих рекомендаций.

Давайте посмотрим как Distributed Resource Scheduler работает с оперативной памятью. В кластере DRS есть такая настройка "Memory Metric for Load Balancing", которая отключена по умолчанию, и если почитать к ней описание, то становится понятно, что DRS по умолчанию руководствуется параметром Active memory для балансировки.

У машины есть три основных параметра памяти, учитываемых DRS - это Active, Consumed и Configured Memory:

  • Configured - это память, указанная в настройках виртуальной машины, то есть ее максимальное значение.
  • Consumed - это память, которая использовалась виртуальной машиной с момента ее загрузки (а вы знаете, что при загрузке операционная система обращается к большему объему памяти, чем затем ее использует).
  • Active - это активные страницы памяти (RAM), которые сейчас используются гостевой ОС.

На картинке ниже показан пример - у машины 16 ГБ памяти, при этом при загрузке она наинициализировала страниц памяти на 12 ГБ, а активно использует только 5734 МБ.

Для того чтобы подчитывать используемую память, планировщик DRS подсчитывает working set из страниц Active Memory и прибавляет к нему 25% от разницы между Consumed и Active (это называется Idle Consumed Memory) на незапланированные резкие изменения нагрузки - и это число использует в своих вычислениях балансировки кластера:

В данном случае будет использоваться значение 5734+0,25*(12288-5734) = 7372,5 МБ (на картинке 7373 МБ). Кстати, это еще не все - к машине с памятью в 16 ГБ прибавляются накладные расходы (Overhead) в размере 90 МБ, поэтому DRS в своих вычислениях будет использовать значение 7373+90 = 7463 МБ.

Если же включить настройку DRS-кластера, упомянутую выше, то DRS в своих вычислениях будет использовать Consumed Memory и также прибавлять Memory Overhead:

В обновлении vSphere 6.5 update 1d клиент позволяет вам просматривать как метрику Active Memory, так и Consumed Memory.

Вот так выглядит картинка для сбалансированного кластера DRS (рекомендаций и ошибок нет):

Кстати, если вы посмотрите на Active Memory сбалансированного кластера, то там вполне может быть дисбаланс:

В этом нет ничего страшного, так как машины используют менее 20% active memory от памяти хоста, всем памяти хватает, и DRS решает, что балансировать машины в таком случае - это только тратить ресурсы CPU и сети на vMotion.

Переключимся теперь на Consumed memory:

Тут мы видим большой дисбаланс и разница между хостами более 20% от значений Consumed memory на них. Поэтому если мы включим настройку "Memory Metric for Load Balancing", то кластер DRS начнет работу по миграции виртуальных машин между хост-серверами. Итогом будет вот такая картина:

Вывод тут вот какой. Если у вас кластер работает без оверкомита (non-overcommitted) и есть большой запас по RAM на хостах, то, возможно, вам и следует поставить настройку "Memory Metric for Load Balancing", чтобы DRS балансировал хосты по consumed memory, а сами рекомендации по миграциям, например, можно применять в ручном режиме, чтобы контролировать ситуацию.


Таги: VMware, vSphere, DRS, Memory

Полезный документ для Enterprise-администраторов: "Horizon 7 Enterprise Edition Multi-Site Reference Architecture".


Недавно компания VMware опубликовала интересный документ, описывающий референсную архитектуру решения для виртуализации и доставки виртуальных ПК и приложений - "Horizon 7 Enterprise Edition Multi-Site Reference Architecture". Он предназначен для тех Enteprise-администраторов, которые планируют построение распределенной VDI-инфраструктуры для VDI-пользователей на базе двух географически разделенных площадок.

Цель подобных документов (Reference Architecture) - показать на высоком уровне возможные сферы применения продукта для построения указанной архитектуры (в данном случае - отказо и катастрофоустойчивости), а также валидировать ее дизайн и соответствие его решаемым задачам.

Вот какие кейсы раскрываются и сравниваются в документе:

С точки зрения рассматриваемых архитектур, в документе приводятся следующие варианты использования:

1. Архитектура Active/Active и Active/Passive для сервисов.

Тут Windows-сервис пользователю доставляется в виде терминальной сессии на RDS-хосте, либо через виртуальную машину, которая реплицируется на другой хост. Приложения, которые развертываются в ВМ в виде подключаемых виртуальных дисков App Volumes, также реплицируются. Опционально настраивается также репликация профилей пользователей и их данных.

В этом случае пользователи могут получить доступ к своим данным и приложениями через любую площадку, которая ему географически ближе:

А вот так выглядит в этом случае архитектура Active/Passive, которая берет на себя нагрузку только с случае отказа основной площадки:

2. Архитектура Active/Active и Active/Passive для приложений через App Volumes.

В этом случае можно использовать хосты RDS и подключать к ним тома App Volumes напрямую с приложениями при загрузке серверов, либо при логине пользователей. Пользователь может использовать свои приложения при соединении с любой площадкой:

А так выглядит отказоустойчивая архитектура Active/Passive для AppVolumes:

3. Архитектура Active/Active для профилей пользователей.

В этом случае можно обеспечить отказо и катастрофоустойчивость данных пользователей и их профилей при использовании доставляемых через RDSH-сервисы приложений.

Также возможно настроить инфраструктуру таким образом, чтобы на резервной площадке, например, пользователи получали ограниченную функциональность реплицируемых профилей.

4. Резервирование рабочего пространства Workspace ONE.

Workspace ONE - это веб-портал, через который пользователь корпоративной ИТ-инфраструктуры посредством SSO получает доступ к своим приложениям. Здесь используется решение VMware Identity Manager и репликация баз данных этого продукта средствами SQL AlwaysOn:

Ну и главное, что рассматриваются все аспекты переключения VDI-инфраструктуры на резервную площадку в контексте хранилищ, сетей и серверов:

Ну а все технические подробности и детали настройки конфигураций приведены в интересном 136-страничном документе.


Таги: VMware, Horizon, DR, VDI, HA, Whitepaper

Вышла новая версия VMware vCloud Availability for vCloud Director 2.0.


На днях компания VMware выпустила обновленную версию решения vCloud Availability for vCloud Director 2.0, предназначенного предназначенного для создания резервной инфраструктуры в одном из публичных облаков сервис-провайдеров на основе VMware vCloud Director (так называемая услуга Disaster-Recovery-as-a-Service, DRaaS). Напомним, что о первой версии данного продукта мы писали вот тут.

Это решение, работающее на площадках IaaS-провайдеров, построено на базе технологии vSphere Replication и используется у тысяч клиентов по всему миру.

Посмотрим на новые возможности vCloud Availability for vCloud Director 2.0:

1. Five-minute Recovery Point Objective.

Теперь показатель RPO (требования к контрольной точке восстановления) уменьшен до 5 минут, что позволяет защищать приложения уровня Tier 1.  Совместно с технологией Multi Point in Time Recovery Snapshots (MPIT) это позволит обеспечить постоянную защиту бизнес-критичных систем.

2. vSphere 6.5 Support.

Последняя версия платформы виртуализации vSphere 6.5 теперь полностью поддерживается. Долговато конечно ждали этого релиза, но по уверениям VMware большинство сервис-провайдеров еще только начало апгрейд на новую версию платформы.

3. Enhancements to Service Provider Portal.

Для клиентов сервис-провайдера теперь предоставляется отдельный интерфейс по управлению и мониторингу процесса репликации. Например, клиент сам может отрегулировать параметр RPO для своих виртуальных сервисов, реплицируемых в облако, или посмотреть статус реплицируемых виртуальных машин. Кроме того, была существенно улучшена производительность, а также появилась функция impersonation, которая позволяет сервис-провайдеру войти в панель управления инфраструктурой как клиент и видеть то же, что и он, в целях поддержки и решения проблем.

4. Seamless upgrades.

Обновления продукта теперь бесшовны и теперь не представляют собой болезненный для сервис-провайдера процесс.

Полезные ссылки по продукту:


Таги: VMware, vCloud, IaaS, DRaaS, Enterprise, Cloud

Как создавать и удалять SDRS Anti-Affinity правила с PowerCLI – Часть 2.


Это Часть 2 в серии о Storage DRS. Часть 1 «Как конфигурировать Storage DRS кластеры с PowerCLI – Часть 1» находится здесь. Часть 3 «Как конфигурировать SDRS Anti-Affinity правила с PowerCLI – Часть 3» и может быть даже Часть 4 «Как просмотреть историю операций SDRS кластеров с PowerCLI – Часть 4» ожидаются в ближайшем будущем. Следите за новыми публикациями! Эта статья расскажет о 4 новых функциях...


Таги: VMware, PowerCLI, DRS, vSphere

Балансировка нагрузки в облаке IaaS


Гостевой пост компании ИТ-ГРАД. Виртуальная инфраструктура в облаке гарантирует стабильную производительность, доступность и надежность, однако, чтобы достичь таких результатов, недостаточно мощной аппаратной платформы и качественного программного обеспечения. Когда виртуальных машин очень много, нагрузка на физические хосты может стать неравномерной и для ее ручного контроля требуется слишком много человеческих ресурсов. Корпоративные облачные провайдеры используют такие инструменты балансировки нагрузки, как, например, VMware DRS (Distributed Resource Scheduler).

Зачем нужен DRS

DRS позволяет наиболее эффективно использовать существующие мощности физической инфраструктуры, повысить качество предоставляемых услуг и выполнять миграцию виртуальных машин между хостами без остановки сервиса. В итоге администратору облака проще осуществлять мониторинг работы платформы без необходимости вручную перемещать машины между хостами, так как балансировщик делает это автоматически, выравнивая нагрузку.

Причем процесс автоматического распределения нагрузки работает значительно лучше ручного. Эксперименты показали, что после того как администратор платформы виртуализации распределил нагрузку между хостами в ручном режиме, а затем включил DRS, система нашла еще более эффективную схему размещения виртуальных машин.

Как работает DRS

В отличие от vMotion (перенос виртуальных машин с хоста на хост) для осуществления работы DRS необходимо, чтобы физические хосты были объединены в кластер – именно в его пределах будет осуществляться миграция виртуальных машин для распределения нагрузки без их перезапуска, так, что пользователь не заметит данного процесса.

Администратор отвечает за настройку правил распределения физических ресурсов, например, может закрепить определенные машины за выбранным хостом или исключить сам хост из кластера DRS, а также определяет режим работы.

После этого инструменты DRS начинают постоянный контроль за нагрузкой на хостах. В случае, когда она резко возрастает, часть виртуальных серверов переносится на менее нагруженный хост. DRS может работать в трех режимах: автоматическом, полуавтоматическом и ручном. Если активирован ручной режим, то осуществляется только расчет миграций, в полуавтоматическом администратор получает рекомендацию о переносе и сам принимает решение о его осуществлении, в автоматическом – кластер сам занимается распределением без вмешательсва человека.

Если DRS обнаруживает слишком низкую нагрузку на физическом сервере, она может отключить его питание для экономии электроэнергии и сообщить администратору о неэффективном использовании мощностей виртуальной инфраструктуры.

Эффективное использование мощности – одна из главных задач любого IaaS-провайдера, от этого зависит стоимость и качество предоставляемых облачных услуг.

Метрики для DRS

В своей работе DRS опирается на две метрики, которые позволяют ей определить, сбалансированно ли работает система. Если она видит отклонение от заданного значения в нагрузке одного из хостов, тот считается «несбалансированным» и виртуальные машины с него начинают распределяться по другим узлам кластера. Миграция производится бесшовно и без простоев, работа сервиса не приостанавливается, а пользователь не замечает данного процесса.

Метриками для определения нормальной работы являются загрузка CPU и оперативной памяти. По ним определяется средний уровень и стандартное отклонение от него. Относительно него регулярно осуществляется повторная оценка нагрузки на узлы и выполняется математическое восстановление баланса в случае отклонения. DRS выполняет оценку не только физического хоста, но и виртуальных машин, которые на нем запущены. Это необходимо для определения приоритета перемещения, машины с критическими показателями производительности будут перенесены в первую очередь.

Для вычисления баланса между хостами в кластере используется специальная формула:

В скобках данной формулы приведен читать статью далее->>


Таги: IT-Grad, DRS, Cloud, IaaS

Новое на VMware Labs - утилита DRS Dump Insight для аналитики рекомендаций по миграциям vMotion.


На днях компания VMware выпустила утилиту DRS Dump Insight, описание которой доступно на сайте VMware Labs. Это портал самообслуживания, куда пользователи могут загружать файлы дампов DRS. После этого будет выведена информация об операциях по перемещению виртуальных машин, которые рекомендует выполнить механизм балансировки нагрузки DRS :

Утилита DRS Dump Insight позволит ответить на следующие вопросы:

  • Почему DRS выдал конкретную рекомендацию (улучшить баланс по CPU, по памяти и т.п.)?
  • Почему DRS не вырабатывает рекомендации по балансировке кластера?
  • Какие рекомендации DRS выработал для анализа cost/benefit (затраты/выгоды)?
  • Можно ли получить список вообще всех рекомендаций, выданных DRS?

После того, как вы загрузите файл дампа на портал, вы можете получить детальную информацию о том, через какие промежуточные рекомендации по миграциям механизм DRS прошел, чтобы выработать финальный список.

Вот так выглядит этот отчет (его можно экспортировать в PDF):

Нажав "Show" можно увидеть исходный и целевой хосты ESXi, для которых сформирована рекомендация по перемещению ВМ в данной категории.

Также в утилите доступна аналитика вида "что если?" (what-if analysis), которая позволяет смоделировать следующие ситуации:

  • Изменение пороговых значений миграции (DRS Migration Threshold).
  • Удаление правил affinity/anti-affinity rules в кластере.
  • Изменение расширенных настроек DRS.

Средство DRS Dump Insight будет очень полезно Enterprise-администраторам, ищущим средство для аналитики, тонкого тюнинга DRS и оптимизации миграций vMotion в рамках больших кластеров. Утилита доступна по адресу https://www.drsdumpinsight.vmware.com/.


Таги: VMware, DRS, Troubleshooting, Labs, vSphere, ESXi, vMotion

<<   <    1 | 2 | 3 | 4 | 5 | 6    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Broadcom Offtopic Microsoft Veeam Cloud StarWind VMachines NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V Private AI HCX vSAN VCPP VCF Workstation Labs Backup Explore vDefend Data Protection ONE Tanzu AI Intel Live Recovery VCP V2V Aria NSX DPU Update EUC Avi Community Skyline Host Client GenAI Chargeback Horizon SASE Workspace ONE Networking Ransomware Tools Performance Lifecycle Network AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile VMUG SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint Director Memory SIOC Troubleshooting Stretched Bugs ESA Android Python Upgrade ML Hub Guardrails CLI Driver Foundation HPC Orchestrator Optimization SVMotion Diagram Ports Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2025, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge