Новости Статьи VMware Veeam StarWind vStack Microsoft Nakivo Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6230 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: VMware Explore Video Library

Права доступа инициаторов к таргетам StarWind Virtual SAN - как это работает


Продолжаем рассказывать о главном продукте для создания отказоустойчивых хранилищ StarWind Virtual SAN, который позволяет обеспечивать бесперебойное функционирование кластеров виртуальных машин на базе серверов виртуализации VMware ESXi или Microsoft Hyper-V. Сегодня мы рассмотрим механизм назначения прав доступа инициаторов в консоли StarWind Management Console, с помощью которой администраторы управляют всеми аспектами виртуальных хранилищ.


Таги: StarWind, iSCSI, Virtual SAN, VSAN, Security, Storage, HA

StarWind Virtual SAN - настройка таймаутов iSCSI для быстрого реагирования на отказы, критичные для приложений


Продолжаем рассказывать технические подробности о работе продукта StarWind Virtual SAN, позволяющего создавать программные и программно-аппаратные отказоустойчивые кластеры iSCSI для виртуальных сред. Сегодня мы поговорим о расширенных настройках протокола iSCSI на стороне StarWind и на стороне VMware ESXi, чтобы обеспечить непрерывное функционирование приложений в виртуальных машинах при обрыве соединений.

Стек работы с хранилищами VMware ESXi настроен таким образом, чтобы адекватно реагировать на кратковременную потерю сигнала в канале iSCSI, которая может возникнуть по разным причинам (кто-то перекоммутировал соединение, дрогнул порт и т.п.). По умолчанию расширенные настройки iSCSI выставлены так, чтобы переживать кратковременные сбои в рамках одного пути в интервале 25-35 секунд. В это время I/O-запросы будут копиться в очереди, а потом, либо произойдет продолжение передачи при восстановлении текущего соединения, либо хост переключится на резервный путь (failover) текущего или резервного адаптера.

В то время, как такое поведение не является критичным для большинства приложений, иногда есть специфические требования, которые надо выполнять для отдельных систем. Например, если речь идет о системе видеонаблюдения, то там задержка в полминуты является неприемлемой, и ее надо обрабатывать быстрее.

Для этого, если вы используете хранилища StarWind Virtual SAN, есть специальные настройки реагирования на подобные ситуации.

Итак, для начала вам нужно остановить службы StarWind Virtual SAN:

  • В консоли StarWind Management Console проверить, что все устройства StarWind HA находятся в статусе "Synchronized" на всех серверах
  • Проверить, что все датасторы имеют активные задублированные пути для всех серверов StarWind, а политика доступа по нескольким путям (MPIO) установлена в Round Robin
  • На StarWind VSAN для Windows нужно выполнить команду для остановки служб StarWind: net stop starwindservice
  • На виртуальном модуле StarWind VSA нужно выполнить такую команду: systemctl stop StarWindVSA

Далее открываем конфигурационный файл:

  • На StarWind VSAN для Windows: C:\Program Files\StarWind Software\StarWind\StarWind.cfg
  • На виртуальном модуле StarWind VSA: nano /opt/StarWind/StarWindVSA/drive_c/StarWind/StarWind.cfg

Далее там находим параметр iScsiPingCmdSendCmdTimeoutInSec и выставляем его значение, например в "1" (одна секунда).

Ну и, наконец, надо запустить службы StarWind VSAN:

  • На StarWind VSAN для Windows: net start starwindservice
  • На виртуальном модуле StarWind VSA: systemctl start StarWindVSA

Теперь нужно добраться до расширенных настроек iSCSI инициатора VMware ESXi. Открываем Advanced Options для адаптера в разделе Storage Adapters нужного нам инициатора:

И смотрим, какие настройки там выставлены:

Нас интересует:

  • RecoveryTimeout - это как раз время, через которое активный путь помечается как "мертвый" (переводится в DEAD_STATE), когда по нему больше не приходит команд ввода-вывода.
  • NoopInterval - это интервал, с которым происходит пассивное тестирование неактивных путей на предмет того, живы ли они.
  • NoopTimeout - это время, через которое происходит пометка неактивного пути как DEAD, если по нему не получено ответа.

Эти настройки по умолчанию установлены в оптимальные с точки зрения вероятности отказа/потерь значения. Меняйте их только, если у вас есть особые требования приложений по непрерывной доступности хранилищ, и вы знаете, какое поведение системы хотите получить. Уменьшение таймаутов, очевидно, ведет к загрузке сети пингами каналов iSCSI и дополнительной нагрузке на устройства.


Таги: StarWind, VSAN, Virtual SAN, Storage, ESXi, iSCSI

Интересный список виртуальных модулей для хранения виртуальных машин (Virtual Storage Appliances, VSA) и симуляторов хранилищ (SAN Storage Simulators).


Нил Андерсон (Neil Anderson) прислал нам ссылку на интересный список "List of VSA Virtual Storage Appliances and SAN Storage Simulators", в котором представлены основные виртуальные модули (Virtual Storage Appliances, VSA) и симуляторы для создания программных общих SAN-хранилищ.

Вот список VSA-модулей и SAN-симуляторов, представленный по ссылке:

  • FreeNAS VSA
  • StarWind Virtual SAN VSA
  • Open Media Vault VSA
  • OpenFiler Unified Storage VSA
  • NetApp ONTAP Simulator
  • NetApp ONTAP Select VSA
  • HPE 3PAR StoreServ Simulator
  • HPE StoreVirtual VSA
  • Dell EMC UnityVSA
  • Dell EMC ViPR Software Defined Storage
  • Dell EMC Isilon Simulator
  • Dell EMC Data Domain Virtual Edition – Community Edition
  • Oracle ZFS Storage Simulator
  • IBM Spectrum Scale Virtual Machine
  • HDS HCS Simulator
  • Nimble Virtual Array VSA
  • Nutanix Community Edition
  • Synology DSM XPEnology Simulator
  • NexentaStor Community Edition VSA
  • Datacore Hyperconverged Virtual SAN
  • StorMagic SvSAN Trial

Бонусом идет список программных и аппаратных продуктов, для которых можно посмотреть на их управляющий интерфейс в рамках демо:

  • IBM StorWize V-Series Demo
  • Dell EMC Unity All Flash Simulator Demo
  • Dell EMC VNXe Demo
  • Synology DSM NAS Demo
  • QNAP QTS NAS Demo
  • Thecus NAS Demo
  • NetGear ReadyNAS NAS Demo

К каждому продукту автор приложил описание системных требований, а также ссылки на туториалы (в том числе видео) и документацию. Довольно полезная штука, скажу я вам!


Таги: VSAN, Virtual SAN, VSA, Storage, Appliance

Новый релиз StarWind Virtual SAN V8 от 25 октября.


На днях компания StarWind Software выпустила серьезное обновление своего флагманского продукта для создания отказоустойчивых программных хранилищ под виртуализацию StarWind Virtual SAN V8. Напомним, что это решение на сегодняшний день является лидером отрасли и, на наш взгляд, является самым удобным и мощным средством создания реплицируемых хранилищ для виртуальных машин.

Давайте посмотрим, что нового появилось в Virtual SAN V8 (build 12585) от 25 октября:

1. Виртуальная ленточная библиотека VTL и функции облачной репликации (Cloud Replication)
  • Добавлена поддержка ленточных устройств LTO8.
  • Добавлены новые команды PowerShell для управления устройствами VTL и настройками Cloud Replication. Вы можете посмотреть примеры использования по адресу C:\Program Files\StarWind Software\StarWind\StarWindX\Samples\powershell\.

2. Демо-версия NVMf Target.

  • Простой NVMf Target можно создать в демонстрационных целях. Существующий NVMf initiator можно теперь использовать для соединения с этим таргетом.
  • Простые устройства RAM Disk и Flat Storage теперь поддерживаются. Например, рекомендуется использовать сетевые адаптеры Mellanox RDMA-enabled с последними драйверами от производителя.
  • Также можно использовать любые другие адаптеры, которые реализуют слой NetworkDirect API.
  • Учитывайте, что процесс установки StarWind VSAN перезаписывает конфигурационный файл NVMf Target (nvmf.conf). Если во время установки уже есть файл nvmf.conf, он будет сохранен как nvmf.conf.bak.
  • Для новой версии запросите новый лицензионный ключ (даже если сейчас NVMf работает) - как для издания Free, так и для триальной лицензии.
3. Улучшения синхронной репликации.
  • Исправлена проблема, когда процессор (CPU) узла хранения мог оказаться загружен на 100% CPU. Это происходило потому, что в некоторых случаях транспорт канала синхронизации мог загружать одно ядро CPU полностью. Если число каналов синхронизации совпадало с числом ядер CPU, сервис переставал отвечать.
4. Изменения Management Console.
  • Раздел помощи был пермещен и теперь доступен по адресу: https://www.starwindsoftware.com/help/
  • Другие полезные ссылки были добавлены в меню Help.
5. Улучшения ядра.
  • Была пофикшена проблема, когда служба ядра Virtual SAN падала в системах с устройствами NVMe.

Скачать StarWind Virtual SAN V8 (build 12585) можно по этой ссылке.


Таги: StarWind, Virtual SAN, Update, VSAN, Storage, HA

Вышел VMware vRealize Operations Management Pack for vSAN.


Для пользователей решения vRealize Operations Management (vROPS), предназначенного для комплексного управления и мониторинга виртуальной инфраструктуры vSphere, отличная новость - вышел VMware vRealize Operations Management Pack for vSAN.

Теперь за счет интеграции vSAN и vROPS можно использовать множество различных дэшбордов для управления, оптимизации и мониторинга производительности объектов vSAN в окружении vCenter Server. vRealize Operations Management Pack for vSAN построен на базе vRealize Operations 6.4 и предназначен для интеграции vSAN в единую Enterprise-инфраструктуру под управлением vROPS.

Основные возможности vRealize Operations Management Pack for vSAN:

Вывод информации и аналитика

  • Просмотр полного стэка объектов от приложений/виртуальных машин до кластера vSAN на дэшборде vSAN Overview. vSAN MP идентифицирует все ресурсы кластера - вычислительные, хост-системы и датасторы.
  • Унифицированное представление для распределенных датацентров, включая "растянутые" кластеры vSAN.
  • Вывод результатов проверок кластера по состоянию и конфигурации (health & configuration checks).
  • Аналитика по метрикам производительности в стиле "до и после" для виртуальных машин и приложений, перемещенных в кластер vSAN

Операционные возможности и мониторинг

  • Мониторинг и алертинг проблем кластеров vSAN через Alert Groups - по состоянию, емкости и конфигурации. Это основано на хэлсчеках самого кластера vSAN.
  • Специализированный vSAN Performance Dashboard для поиска и траблшутинга проблем.
  • Интеграция с системами сервисдеска, такими как ServiceNow, а также различными чатами (hipchat, Slack) и средствами нотификации (Pagerduty) через механизм Webhooks (также есть несколько предсозданных примеров).

Управление использованием кластеров и прогнозирование утилизации

  • Идентификация кластеров, в которых не хватает места или скоро закончится место.
  • Сравнение кластеров Non-vSAN и VSAN при развертывании или балансировке рабочих нагрузок в виртуальных машинах в целях выбора оптимального хранилища по производительности и занятому дисковому пространству.
  • Возможность получить информацию о физических дисках совместно с решением Management Pack for storage  devices 6.0.5.

Загрузить VMware vRealize Operations Management Pack for vSAN можно по этой ссылке.


Таги: VMware, vROPS, Virtual SAN, VSAN, Operations

Разница в шифровании на уровне виртуальных машин в VMware vSphere 6.5 и на уровне кластера Virtual SAN 6.5.


Как вы уже знаете, в новой версии платформы виртуализации VMware vSphere 6.5 появилось шифрование на уровне виртуальных машин, которое так давно запрашивали пользователи.

Устроено это шифрование ВМ на базе алгоритма AES-NI, а управление ключами происходит по стандарту KMIP 1.1. Когда операция ввода-вывода приходит на диск виртуальной машины - она сразу же шифруется "на лету", что обеспечивает полную безопасность при попытке несанкционированного доступа к данным.

Шифруются не только виртуальные диски, но и конфигурационные файлы VMX, файлы снапшотов и все прочие файловые объекты, относящиеся к виртуальной машине. Шифрованные виртуальные машины всегда перемещаются между хостами ESXi средствами также шифрованного vMotion.

Между тем, на уровне отказоустойчивого кластера хранилищ Virtual SAN также есть возможность шифрования их содержимого. Как же эти два вида шифрования соотносятся между собой, и зачем они оба нужны?

Для начала посмотрим, как это работает на примере схемы шифрования на уровне виртуальных машин:

VM Encryption реализован на уровне программного интерфейса VAIO (vSphere APIs for IO Filters), который позволяет специальному фильтру обрабатывать команды ввода-вывода непосредственно до того, как они поступят в виде блоков на устройство хранения (помимо шифрования, фильтры могут еще и некоторым другим образом обрабатывать ввод-вывод).

Непосредственно - это означает, перед тем как отправить конечную команду ввода-вывода на устройство, фреймворк VAIO проверяет, назначено ли шифрование для ВМ в политике хранения (Storage policy), и если это так - то команда процессится на уровень соответствующего I/O-фильтра, после чего сразу же отправляется на блочный девайс.

Таким образом, на самом нижнем уровне происходит шифрование ввода-вывода, и это очень безопасно. Зато не очень удобно - зашифрованные таким образом блоки, поступающие в пространство хранения VSAN теперь уже не могут быть эффективно дедуплицированы (малая вероятность совпадения блоков), а также и сжаты - ведь шифрованные данные обладают большой энтропией, а значит неэффективны для алгоритмов сжатия.

Поэтому в кластере VSAN, где на первом плане, как правило, эффективность хранения виртуальных машин в плане экономии дискового пространства, шифрование организуется иным образом. Тут используется концепция "encryption at rest". Сначала данные в незашифрованном виде идут по сети (в целях ускорения и работы сжатия), затем они в зашифрованном виде падают в кэш. После чего, перед тем, как отправиться на постоянное хранение (destaging), они будут расшифрованы, дедуплицированы/сжаты и снова зашифрованы уже на целевом устройстве.

Поэтому шифрование на уровне кластера VSAN - это настройка также на уровне всего кластера. Таким образом, ключевые отличия данных методов шифрования состоят в следующем:

  • Шифрование уровня ВМ (VM Encryption) средствами VAIO:
    • Основано на политиках хранения (и включается для конкретной ВМ)
    • Передача данных также шифрована (vMotion)
    • Дедупликация на целевом хранилище неэффективна
  • Шифрование уровня кластера хранилищ (vSAN Encryption):
    • Включается для всего кластера в целом
    • Данные передаются между хостами в незашифрованном виде, но в кэше хранятся шифрованными
    • Полная совместимость со всеми сервисами VSAN, такими как компрессия и дедупликация

Таги: VMware, vSphere, VSAN, Security, Virtual SAN

Основные анонсы VMworld Europe 2016 - все, что вам нужно знать о новых версиях продуктов VMware в одной статье.


Совсем недавно закончилась одна из главных конференций по виртуализации VMworld Europe 2016, которая, по традиции, проходит несколько позже главного VMworld в США. Если в Америке компания VMware рассказывала о новых технологиях и концепциях построения будущих датацентров, то в Европе гораздо больше внимания было уделено новым возможностям обновленных версий продуктов VMware...
Таги: VMware, VMworld, vSphere, Update, VVols, SRM, Virtual SAN, VSAN

Анонсы VMworld Europe 2016: VMware представила Virtual SAN 6.5.


На проходящей сейчас конференции VMworld Europe 2016 в Барселоне компания VMware анонсировала даже больше продуктов, чем на VMworld 2016 в Лас-Вегасе (там было больше про технологии). Напомним анонсы уже этого, европейского VMworld:

Ну а сейчас мы расскажем про обновление средства для создания отказоустойчивых кластеров хранения VMware Virtual SAN 6.5. Напомним, что о прошлой версии Virtual SAN 6.2 мы писали здесь, а про VSAN 6.0 можно почитать вот тут.

Давайте посмотрим, что нового в VMware VSAN 6.5:

1. Обновленные Virtual SAN API и vSphere PowerCLI.

Теперь интерфейсы доступа из командной строки и внешних систем были существенно обновлены и доработаны. Стало возможным автоматизировать конфигурацию и управление настройками кластера, дисковых групп, доменов отказа (fault domains) и растянутых кластеров. Также можно управлять различными активностями, такими как режим обслуживания и выключение кластера. Более подробно можно все это увидеть вот в этом видео:

Также через PowerCLI можно отслеживать состояние кластера Virtual SAN.

2. Поддержка двухузловой конфигурации через кросс-кабели.

Ранее кластер Virtual SAN можно было собрать только из трех или более узлов, что препятствовало внедрению технологии в небольших компаниях и филиалах. Теперь же можно создать двухузловую конфигурацию, где хосты соединены между собой кросс-кабелями (без коммутаторов) и там развертывать и виртуальную инфраструктуру, и хранилища виртуальных машин.

Также важно отметить, что теперь лицензирование Virtual SAN for ROBO поддерживает All-Flash конфигурации. Лицензия называется Virtual SAN for ROBO Advanced и позволяет использовать компрессию, дедупликацию и защиту от ошибок (erasure coding).

3. Увеличенная гибкость Virtual SAN 6.5.

Теперь таргеты Virtual SAN можно использовать для физических серверов, что дает решению намного больше гибкости в плане хранения данных предприятия. Функциональность iSCSI targets для Virtual SAN управляется таким же образом, как и виртуальные объекты через механизм Storage Policy Based Management (SPBM).

Также поддерживаются дедупликация, компрессия, мирроринг и erasure coding. Для аутентификации используется CHAP и Mutual CHAP.

4. Поддержка контейнеров.

Средствами механизма vSphere Integrated Containers Engine технология Virtual SAN 6.5 поддерживает контейнеры Docker и другие. Специальный драйвер Docker Volume Driver для vSphere позволяет управлять данными контейнеров, которые размещены на хранилищах VMFS, NFS и Virtual SAN.

Кроме того, в рамках данной новой функции предоставляется API для развертывания контейнеров на хранилищах Virtual SAN, а также средства перемещения виртуальных машин с контейнерами между хостами без перемещения их данных.

5. Поддержка нового аппаратного обеспечения.

Вместе с VMware vSphere 6.5 средства Virtual SAN 6.5 поддерживают новое аппаратное обеспечение, такое как диски 512e очень большой емкости, а также протоколы доступа к SSD-накопителям по шине PCIe - NVMe. Это на идеальных тестах дает до 150 тысяч IOPS на один хост. Также теперь полноценно поддерживается большой спектр хранилищ All-Flash.

Обновленная версия решения VMware Virtual SAN 6.5 будет доступна для загрузки до конца 2016 года.


Таги: VMware, Virtual SAN, Update, VSAN, Storage

VMware открыла запись на новую бету Virtual SAN.


Сразу после конференции VMworld 2016 (напоним наши последние новости тут и тут), компания VMware открыла запись на бета-программу новой версии решения Virtual SAN.

Дункан Эппинг уже рассказал о трех новых возможностях обновленной версии VSAN:

  • Программное шифрование неиспользуемых данных (Data at rest).
  • Технология Nested Fault Domains (FDs), которая обеспечивает двухуровневую защиту "растянутых" кластеров (stretched clusters) - локально и между сайтами. Получается RAID 1 между сайтами, а внутри сайта можно организовать RAID 1, 5 или 6.
  • Новые улучшения с точки зрения средств управления виртуальной инфраструктурой - интеграция со средством vReealize Automation, отправка состояния жизнедеятельности на vCenter (healthchecks), мониторинг сетевой активности кластеров хранилищ и другое.

В новой бете VSAN ожидается еще несколько интересных возможностей, так что подписывайтесь на нее вот тут.


Таги: VMware, Virtual SAN, Beta, VSAN, Blogs

Новый VMware VSAN 6.2 Online resource calculator для сайзинга инфраструктуры хранилищ.


Некто Kim Bottu в своем блоге опубликовал интересный калькулятор, предназначенный для определения того, сколько хостов, хранилища, физических/виртуальных процессоров, памяти и кэша вам потребуется, чтобы поддерживать кластеры VMware Virtual SAN для вашей инфраструктуры виртуальных хранилищ.

VMware VSAN 6.2 Online resource calculator представляет собой Excel-таблицу, размещенную в облаке Microsoft OneDrive, в которой показаны только редактируемые поля для ввода данных, влияющие на результат (а параметры, которые используются в качестве исходных данных, можно посмотреть в таблице, начиная с ячейки EO:1660).

В верхней части таблицы черным шрифтом обозначаются ресурсы, которые рассчитываются только для того, чтобы можно было исполнять виртуальные машины в кластере Virtual SAN, а красным шрифтом выделен тот объем ресурсов, который вам потребуется, чтобы обеспечить требуемый уровень избыточности и отказоустойчивости.

В синей (верхней) области таблицы данные параметры рассчитываются для All-Flash архитектуры кластера Virtual SAN, а зеленая часть предназначена для расчетов гибридной архитектуры (обычные HDD-диски для данных, а SSD-носители - для кэша).

Также жирным шрифтом выделены реальные ресурсы (процессоры хостов, память, хранилища), которые вам нужно приобрести для своей инфраструктуры, а обычным шрифтом - вспомогательные параметры (как именно эти ресурсы распределяются).

Калькулятор весьма интересный, доступ к нему можно получить по этой ссылке. Кроме того, напомним, что мы писали еще об одном калькуляторе для VMware Virtual SAN от компании VMware, который также помогает вам проводить сайзинг инфраструктуры VSAN и считать совокупную стоимость владения такой инфраструктурой (TCO - total cost of ownership). В принципе, ничто вам не мешает воспользоваться обоими калькуляторами и сравнить результаты, которые должны, по идее, более-менее сходиться.


Таги: VMware, Virtual SAN, Calculator, VSAN, Blogs

Новый документ VMware Virtual SAN 6.2 Network Design Guide с практическими рекомендациями по конфигурации сетевого окружения.


Компания VMware выпустила весьма полезный документ "VMware Virtual SAN 6.2 Network Design Guide", в котором приведены конкретные рекомендации по настройке и конфигурации сети при организации отказоустойчивых кластеров хранилищ.

Посмотрим, какие интересные моменты есть в документе. Например, рассматривается следующая архитектура построения кластера Virtual SAN (это Leaf-Spine архитектура):

В такой сети показатель переподписки (oversubscription) между стойками равен 4:1 (от хостов идет 16 линков по 10 Гбит к свичу, от которого идет 4 линка по 10 Гбит к Spine-коммутатору). В этом случае, если предположить, что на хостах 10 ТБ емкости, из которых 6 ТБ занимают данные виртуальных машин, и вдруг возникнет необходимость операции rebuild для кластера (при FTT=1), то при использовании 3/4 пропускной способности канала (то есть 30 Гбит/с) операция займет 26 минут. Если же объем данных на хосте увеличить до 12 ТБ, а канал уменьшить до 10 Гбит/с, то rebuild займет 156 минут. Мораль такова - нельзя перебарщивать с переподпиской, а также нужно обеспечить широкий канал между узлами кластера.

Еще из рекомендаций в документе:

  • Отключите Flow Control на физическом оборудовании, у Virtual SAN есть свой механизм контроля перегрузки канала.
  • Используйте vSphere Distributed Switch (VDS) совместно с Virtual SAN.
  • Настройте Load Based Teaming (LBT), который балансирует нагрузку, в зависимости от загрузки физического адаптера (похоже на Virtual Port ID, только привязка к порту пересматривается каждые 30 секунд).
  • Если используете несколько кластеров Virtual SAN - помещайте трафик каждого из них в отдельный VLAN.
  • Если в датацентре используются большие кадры jumbo frames - используйте их в кластере Virtual SAN, но если не используются - то отдельно включать их не надо.
  • Включите Cisco Discovery Protocol (CDP) и Link Layer Discovery Protocol (LLDP) в режимах и приема, и передачи.

В документе присутствует еще несколько интересных рекомендаций, прочитать которые будет особенно интересно администраторам крупных инфраструктур и больших кластеров Virtual SAN.


Таги: VMware, Virtual SAN, Whitepaper, Performance, Обучение, VSAN, Networking

Как VMware HA и Virtual SAN обрабатывают изоляцию площадки для виртуальных машин.


Интересный пост написал Duncan Epping о растянутом кластере (Stretched Cluster) Virtual SAN и обработке события изоляции площадки механизмами HA и VSAN. Изложим тут его вкратце.

Как вы знаете, растянутый кластер Virtual SAN состоит из трех компонентов - две площадки с хранилищами VSAN и виртуальными машинами и одна площадка, выступающая как "свидетель" (Witness) и необходимая для принятия решения о том, какая площадка выпала из внешнего мира (то есть с ней нет связи), а какая способна продолжать поддерживать работу виртуальных машин (как в плане хранения, так и в плане исполнения на вычислительных ресурсах хостов).

Таким образом, обычно схема растянутого кластера выглядит так:

Теперь, допустим, на основной площадке (Site 1) произошла авария - и хосты ESXi с виртуальными машинами стали частично или полностью недоступны. При этом теряется ее связь как со второй площадкой (Site 2), так и с компонентом Witness на третьей площадке.

В этом случае происходит следующее:

  • Хосты площадки Site 1 имеют связь между собой, события внутренней изоляции не происходит, поэтому HA не реагирует на ситуацию.
  • Однако кластер Virtual SAN понимает, что площадка Site 1 изолирована от Site 2 и Witness (нет кворума), а значит и от внешнего мира, поэтому принимает решение выключить виртуальные машины. Это поведение можно изменить, установив расширенную настройку VSAN.AutoTerminateGhostVm в значение 0 (но делать это не рекомендуется).
  • На второй площадке (Site 2) происходят выборы нового Master-узла в кластере VMware HA. Этот узел сверяется со списком protectedlist (в нем пока нет машин из Site 1), добавляет новые ВМ туда и берет на себя владение машинами с первого узла, так как теперь есть кворум у второй площадки. Что такое кворум? Это 2 компонента из трех (большинство) в растянутом кластере - сама эта площадка и компонент Witness (они видят связь друг с другом). Таким образом, VMware HA на второй площадке начинает восстановление виртуальных машин первого сайта.
  • Как VMware HA убеждается, что на первой площадке эти машины выключены? Да никак - просто по дизайну заложено, что кластер Virtual SAN в случае изоляции площадки Site 1 потушит все ее виртуальные машины, поэтому владение этими машинами перейдет ко второй площадке.

Ну и, конечно же, тут нельзя не порекомендовать интереснейший документ VMware vSphere 6.x HA Deepdive, в котором есть все ответы на подобные вопросы.


Таги: VMware, HA, Stretched, Virtual SAN, VSAN, Blogs, vSphere, ESXi

Поведение обычных и растянутых кластеров VMware Virtual SAN при невозможности выполнить политику хранилищ.


Есть пара интересных постов, на базе которых мы попробуем вкратце описать поведение кластера VMware Virtual SAN в случае, если при развертывании виртуальной машины кластер не способен обеспечить требуемые политики хранилищ (Storage Policies).

1. Обычный кластер Virtual SAN.

Если при развертывании новой ВМ в кластере VSAN невозможно обеспечить требуемые политики хранилищ (например, не хватает места для создания зеркалируемых объектов реплик), а именно:

  • NumberOfFailuresToTolerate (FTT)
  • NumberOfDiskStripesPerObject (SW)
  • FlashReadCacheReservation (FRCR)

то виртуальная машина не сможет быть развернута в кластере. Но есть такая настройка Force Provisioning для VM Storage Policy, которая позволяет игнорировать указанные 3 параметра при развертывании новой ВМ в кластере.

Однако надо понимать, что при использовании Force Provisioning происходит не понижение требований кластера к хранилищу виртуальной машины (например, вместо FTT=2 можно было бы проверить FTT=1), а использование следующих параметров:

  • NumberOfFailuresToTolerate = 0
  • NumberOfDiskStripesPerObject = 1
  • FlashReadCacheReservation = 0

То есть нужно просто аллоцировать место под виртуальную машину, совершенно без соблюдения требований к дублированию данных и резервированию кэша.

Но кластер Virtual SAN имеет еще одну специфическую черту - если вы использовали Force Provisioning при недостатке дисковых ресурсов, то когда они освободятся, для хранилища машины будут сделаны реплики дисковых объектов и прочие операции, чтобы она все-таки соответствовала требуемым политикам хранилищ. Администраторам надо иметь эту особенность в виду.

И еще один момент - так как в случае Force Provisioning может храниться только одна копия дисковых объектов, то, например, если при переводе хоста в режим Maintenance Mode случится какой-нибудь сбой с его хранилищем - реально можно потерять эту машину целиком. Делайте бэкап и, по-возможности, не используйте Force Provisioning - старайтесь соблюдать политики хранилищ хотя бы на уровне FTT=1.

2. Растянутый кластер (Stretched Cluster).

В случае растянутого кластера появляется еще один компонент - Witness Appliance, следящий за ситуацией Split Brain, которая может появиться между площадками. Если вырубить этот виртуальный модуль и попытаться включить виртуальную машину или создать новую ВМ, то кластер Virtual SAN (несмотря на то, что он Failed и политика хранилищ не соблюдена) позволит это сделать, правда будет ругаться, что машина не соответствует текущим политикам хранилищ:

В остальном растянутый кластер ведет себя по отношению к Force Provisioning так же, как и обычный.


Таги: VMware, Virtual SAN, Storage, Blogs, vSphere, VMachines, Stretched, VSAN

Ruby vSphere Console - пример использования для поиска проблем в кластере VMware Virtual SAN.


Некоторые из вас знают, что для поиска и решения проблем в виртуальной инфраструктуры, среди прочих интерфейсов командной строки, есть такой инструмент, как Ruby vSphere Console (RVC).

Используется она достаточно редко, но ниже мы покажем пример ее использования на базе вот этой заметки от Кормака Хогана.

Чтобы запустить Ruby vSphere Console, нужно набрать в командной строке ESXi команду в следующем формате:

rvc [options] [username[:password]@]hostname

Например:

# rvc administrator:vmware@192.168.1.100

После этого появится приглашение ко вводу различных команд:

login as: root
VMware vCenter Server Appliance
administrator@192.168.1.100's password:
Last login: Thu Jul 17 22:29:15 UTC 2014 from 10.113.230.172 on ssh
Last failed login: Fri Jul 18 06:31:16 UTC 2014 from 192.168.1.20 on ssh:notty
There was 1 failed login attempt since the last successful login.
Last login: Fri Jul 18 06:31:35 2014 from 192.168.1.20
vcsa:~ # rvc administrator:vmware@192.168.1.100
0 /
1 192.168.1.100/

Их можно выполнять в рамках следующих пространств имен (namespaces):

Во второй снизу строчке мы видим пространство имен VSAN, относящееся к кластерам хранилищ Virtual SAN. Давайте посмотрим на решение одной проблемки с его помощью.

Допустим, вы увидели в кластере VSAN следующую ошибку в разделе Component Metadata Health:

Invalid state

Согласно вот этой статье KB 2108690, эта ошибка может относиться к физической проблеме с диском - когда процесс выделения физических блоков при сбрасывании их из кэша на диск идет очень медленно. Эта ошибка может свидетельствовать просто о высокой нагрузке на диск, в этом случае она уходит при спаде нагрузки. Но если она повторяется при малой нагрузке - значит с диском явно что-то не так.

В столбце "Component" указан component UUID диска, с которым возникла проблема - но как узнать, на каком хранилище он расположен, в консоли vSphere Web Client? Для этого мы и возьмем Ruby vSphere Console, а именно команду vsan.cmmds_find:

> vsan.cmmds_find 0 -u dc3ae056-0c5d-1568-8299-a0369f56ddc0
---+---------+-----------------------------------------------------------+
   | Health  | Content                                                   |
---+---------+-----------------------------------------------------------+
   | Healthy | {"diskUuid"=>"52e5ec68-00f5-04d6-a776-f28238309453",      |
   |         |  "compositeUuid"=>"92559d56-1240-e692-08f3-a0369f56ddc0", 
   |         |  "capacityUsed"=>167772160,                               |
   |         |  "physCapacityUsed"=>167772160,                           | 
   |         |  "dedupUniquenessMetric"=>0,                              |
   |         |  "formatVersion"=>1}                                      |
---+---------+-----------------------------------------------------------+
/localhost/Cork-Datacenter/computers>

Тут мы видим diskUuid, где расположен проблемный компонент. Найдем теперь символьное имя устройства:

> vsan.cmmds_find 0 -t DISK -u 52e5ec68-00f5-04d6-a776-f28238309453
---+---------+-------------------------------------------------------+
   | Health  | Content                                               |
---+---------+-------------------------------------------------------+
   | Healthy | {"capacity"=>145303273472,                            |
   |         |  "iops"=>100,                                         |
   |         |  "iopsWritePenalty"=>10000000,                        |
   |         |  "throughput"=>200000000,                             |
   |         |  "throughputWritePenalty"=>0,                         |
   |         |  "latency"=>3400000,                                  |
   |         |  "latencyDeviation"=>0,                               |
   |         |  "reliabilityBase"=>10,                               |
   |         |  "reliabilityExponent"=>15,                           |
   |         |  "mtbf"=>1600000,                                     |
   |         |  "l2CacheCapacity"=>0,                                |  
   |         |  "l1CacheCapacity"=>16777216,                         |
   |         |  "isSsd"=>0,                                          |   
   |         |  "ssdUuid"=>"52bbb266-3a4e-f93a-9a2c-9a91c066a31e",   |
   |         |  "volumeName"=>"NA",                                  |
   |         |  "formatVersion"=>"3",                                |
   |         |  "devName"=>"naa.600508b1001c5c0b1ac1fac2ff96c2b2:2", | 
   |         |  "ssdCapacity"=>0,                                    |
   |         |  "rdtMuxGroup"=>80011761497760,                       |
   |         |  "isAllFlash"=>0,                                     |
   |         |  "maxComponents"=>47661,                              |
   |         |  "logicalCapacity"=>0,                                |
   |         |  "physDiskCapacity"=>0,                               |
   |         |  "dedupScope"=>0}                                     |
---+---------+-------------------------------------------------------+
>

В параметре devName мы и видим имя устройства: naa.600508b1001c5c0b1ac1fac2ff96c2b2:2. Найти его можно в консоли vSphere Client можно вот тут:

Более подробно о командах и неймспейсах Ruby Virtual Console написано вот в этом документе.


Таги: VMware, vSphere, Ruby, Console, Troubleshooting, VSAN, Virtual SAN

Вышли VMware Virtual SAN 6.2, vSphere 6.0 Update 2 и прочие обновления продуктов VMware.


Компания VMware на днях выпустила множество обновлений своей продуктовой линейки в сфере серверной виртуализации. Прежде всего, важно, что было выпущено обновление VMware Virtual SAN 6.2, о котором мы подробно писали вот тут. Теперь его можно скачать и использовать в производственной среде.

Также для того, чтобы была обеспечена полная поддержка новых возможностей VSAN 6.2 была выпущена обновленная версия платформы виртуализации VMware vSphere 6.0 Update 2. Но самое главное там - это то, что теперь VMware Host Client (который вы знаете как ESXi Embedded Host Client) включен в стандартную поставку ESXi и доступен из коробки!

Напомним также, что о прошлом апдейте vSphere 6 Update 1, который вышел почти полгода назад, мы писали вот тут.

Посмотрим на новые возможности vSphere 6.0 Update 2. Что нового в ESXi 6.0 Update 2:

  • High Ethernet Link Speed: теперь ESXi 6.0 U2 поддерживает скорости ethernet-соединения 25G и 50G.
  • VMware Host Client: новый HTML5-клиент для управления одиночным хостом VMware ESXi, о последних версиях которого в виде VMware Fling мы писали вот тут, тут и тут. Это средство для выполнения основных административных задач, управления ресурсами и виртуальными машинами. Также Host Client подходит для поиска и решения проблем, возникших на отдельных хостах VMware ESXi, когда, например, vCenter Server или Web Client недоступны. Смотрите также Host Client 1.0 Release Notes.
  • vSphere APIs for I/O Filtering (VAIO): ESXi 6.0 Update 2 теперь поддерживает компонент IO Filter VASA Provider в полноценном IPv6-окружении.
  • Поддержка VMIOF версий 1.0 и 1.1, а также множество исправлений ошибок.

Новые возможности VMware vCenter 6.0 Update 2:

  • Поддержка двухфакторной аутентификации в vSphere Web Client средствами следующих технологий:
    • RSA SecurID
    • Смарт-карты (UPN based Common Access Card)
  • Поддержка изменения уровня логгирования vSphere ESX Agent Manager без его перезагрузки.
  • Поддержка vSphere Web Cient для Microsoft Windows 10.
  • Поддержка новых версий в качестве внешних СУБД VMware vCenter:
    • Microsoft SQL Server 2012 Service Pack 3
    • Microsoft SQL Server 2014 Service Pack 1

Помимо всего этого, в последнее время компания VMware выпустила также обновления следующих своих продуктов (о новых возможностях вы можете узнать из соответствующих Release Notes):


Таги: VMware, vSphere, Update, ESXi, vCenter, Virtual SAN, VSAN

Возможность Sparse Swap в VMware Virtual SAN 6.2 - как сэкономить кучу байтов


Среди возможностей решения для создания отказоустойчивых хранилищ VMware Virtual SAN 6.2 мы забыли упомянуть о нововведении в части обработки файлов подкачки - Sparse Swap.

Как вы знаете при создании виртуальной машины в обычной инфраструктуре под нее резервируется файл *.vswp, который равен по размеру объему сконфигурированной оперативной памяти виртуальной машины (либо объему незарезервированной памяти, то есть разнице между сконфигурированной и зарезервированной памятью, если она указана в настройке reservation). Это нужно на случай, когда машине не хватает свободной физической памяти (в ситуации, если уже не спасают техники memory overcommit), и она начинает сбрасывать страницы памяти в своп-файл на диске.

То есть, если вы создали ВМ с оперативной памятью 4 ГБ, то столько же займет и файл подкачки для этой ВМ. А теперь посмотрим на инфраструктуру Virtual SAN: если у вас задан параметр FTT=1, то каждый дисковый объект (в том числе и файл *.vswp) будет задублирован (если у вас mirror-конфигурация).

Теперь посчитаем, сколько места съест своп 100 виртуальных машин, у каждой из которых 4 ГБ оперативной памяти и которые размещены в кластере VMware Virtual SAN с FTT=1 в зеркальной конфигурации:

100 ВМ * 4 ГБ * 2 (FTT равен 1) = 800 ГБ

Да, именно так - почти терабайт только под своп. Кому-то это покажется расточительством, поэтому в Virtual SAN сделали такую штуку, как Sparse Swap. Эта функция позволяет создавать файлы подкачки vswp как тонкие, то есть растущие по мере наполнения данными, диски.

Для того, чтобы включить опцию Sparse Swap, нужно выполнить следующую команду на хосте VMware ESXi:

esxcfg-advcfg -s 1 /VSAN/SwapThickProvisionDisabled

Ну а вот тут вы можете найти PowerCLI-скрипт для автоматизации применения этой настройки и отката назад.


Таги: VMware, vSphere, Virtual SAN, VSAN, Storage, VMachines

Полезная утилита от VMware - VSAN Hardware Compatibility List Checker.


На сайте проекта VMware Labs появилась интересная и полезная утилита для тех, кому нужно проверить совместимость контроллеров хранилищ на хостах VMware ESXi со списком поддерживаемых устройств в кластере VMware Virtual SAN. C помощью VSAN Hardware Compatibility List Checker можно проверить модель и версию firmaware контроллеров LSI и HP, а также их различных OEM-вариаций.

Утилита поставляется в виде exe-файла, который находится в папке с архивом:

Для начала работы нужно просто ввести имя хоста ESXi и пароль пользователя root:

В качестве результата в папке с утилитой будет сформирован html-файл (этот шаблон можно редактировать в файле reportTemplate.html), в котором будет информация о совместимости контроллеров хранилищ со списком VSAN HCL (шильдики yes и N/A).

Некоторые нюансы работы утилиты:

  • Обнаружение версии firmware доступно только для контроллеров HP/LSI.
  • Необходимо, чтобы был установлен компонент LSI/HP CIM provider.
  • Требуется запущенная служба CIM Service (secure) на хосте ESXi на порту 5989.
  • Нужен доступ к хостам ESXi по протоколу HTTPS, по порту 443.

Интересно, что утилита VSAN Hardware Compatibility List Checker работает не только с последней версией Virtual SAN, но и с более ранними версиями. Скачать HCL Checker можно по этой ссылке.


Таги: VMware, VSAN, Labs, Virtual SAN

Новые возможности VMware Virtual SAN 6.2


На прошедшем анонсе новых продуктов и технологий на 2016 год компания VMware рассказала о нескольких интересных вещах. О некоторых из них мы уже писали:

В этой заметке мы рассмотрим новые возможности решения для создания отказоустойчивых хранилищ на базе хост-серверов VMware Virtual SAN 6.2. Напомним, что о прошлой версии Virtual SAN 6.1, вышедшей осенью прошлого года, мы писали вот тут.

Итак, давайте посмотрим на новые возможности VSAN 6.2:

1. Дедупликация и сжатие данных.

Теперь обе этих технологии оптимизации хранилищ используются совместно, чтобы достичь наилучших результатов по стоимости хранения данных. Сначала данные виртуальных машин дедуплицируются на уровне дисковой группы, а потом сжимаются, что позволяет уменьшить исходный размер ВМ до 7 раз, в зависимости от типов нагрузки в гостевых ОС, по сравнению с первоначальным размещением.

Каждый vmdk хранит только оригинальные дисковые блоки:

2. Технология Erasure Coding (коррекция ошибок - "RAID из узлов").

В версии Virtual SAN 6.1 если вы используете параметр failures to tolerate =1 (FTT, зеркальная избыточность), то вам нужна двойная емкость в кластере. То есть, если будет 100 ГБ под виртуальные машины, то на хостах суммарная емкость должна составлять 200 ГБ.

По аналогии с RAID5/6 и другими типами RAID с чередованием, пространство хранения Virtual SAN 6.2 представляет собой "RAID из хостов ESXi". Таким образом, можно использовать схемы 3+1 или 4+2, которые позволят иметь лишь в 1,3 раза больше физического пространства (для первой схемы), чем полезной емкости. Об этом мы уже писали вот тут.

Вот интересная таблица соответствия параметров FTT, требований к инфраструктуре хранения и получаемых емкостей при различных типах RAID из хостов VMware ESXi:

3. Регулирование Quality of Service (QoS).

Теперь на уровне виртуальных дисков VMDK доступна регулировка полосы ввода-вывода на уровне IOPS:

Эти настройки могут быть применены через механизм политик хранилищ Storage Policy-Based Management (SPBM). Скорее всего, это будет востребовано в больших облачных инфраструктурах, особенно у сервис-провайдеров, которым необходимо обеспечивать различные уровни обслуживания своим клиентам. Также это позволяет создать механизм для того, чтобы рабочие нагрузки, размещенные на одном хранилище, не влияли друг на друга в моменты наибольшей нагрузки на подсистему хранения.

4. Техника Software Checksum.

Эта техника позволяет своевременно обнаруживать сбои, относящиеся к аппаратным и программным компонентам во время операций чтения/записи. Тут выделяются 2 типа сбоев: первый - "latent sector errors", который, как правило, свидетельствует о физической неисправности носителя, и второй - "silent data corruption", который происходит без предупреждения и может быть обнаружен только путем глубокой проверки поверхности накопителя.

5. Полноценная поддержка IPv6.

Теперь Virtual SAN поддерживает не только IPv4 и IPv6, но и смешанные окружения IPv4/IPv6 (для тех случаев, когда, например, на предприятии идет процесс миграции на новую версию протоколов).

6. Сервис мониторинга производительности.

Эти службы позволяют наблюдать за производительностью кластера Virtual SAN со стороны сервера vCenter. Теперь не обязательно идти в консоль vRealize Operations, чтобы решать базовые проблемы. Теперь в плане мониторинга доступны как высокоуровневые представления (Cluster latency, throughput, IOPS), так и более гранулярные (на базе дисков, попадания в кэш, статистика для дисковой группы и т.п.). 

Также предусмотрена возможность предоставления данных о производительности кластера Virtual SAN сторонним сервисам через API. Для хранения событий используется собственная распределенная база данных, не зависящая от сервисов vCenter и хранящаяся в рамках кластера.

Более подробно о решнии VMware Virtual SAN 6.2 можно почитать вот в этом техническом документе.


Таги: VMware, Virtual SAN, Update, VSAN, Storage, Cloud

Доступность кластера VMware Virtual SAN - шесть девяток (99,9999%). Доказательство!


Компания VMware в своем блоге, посвященном продуктам линейки VMware vSphere, представила интереснейшее доказательство, что кластер VMware Virtual SAN дает надежность "шесть девяток", то есть доступность данных 99,9999% времени в году. А это меньше, чем 32 секунды простоя в год.

Бесспорно, приведенное ниже "доказательство" основано на множестве допущений, поэтому заявление о шести девятках является несколько популистским. С моей точки зрения, гораздо более вероятно, что админ с бодуна не туда нажмет, или, например, в команде vmkfstools укажет не тот LUN и снесет все виртуальные машины на томе VMFS (привет, Антон!), чем откажет оборудование с дублированием компонентов. Но все же, рассмотрим это доказательство ниже.

Прежде всего, введем 2 понятия:

  • AFR – Annualized Failure Rate, то есть вероятность отказа в год (носителя данных или другого компонента), выраженная в процентах.
  • MTBF – Mean Time Between Failures (среднее время между отказами). Это время в часах.

Эти 2 величины взаимосвязаны и выражаются одна через другую в соответствии с формулой:

AFR = 1/(MTBF/8760) * 100%

Обычно, как HDD, так и SSD накопители, имеют AFR от 0.87% до 0.44%, что дает от 1 000 000 до 2 000 000 часов MTBF. Далее для примера берут диск 10K HDD от Seagate (популярная модель ST1200MM0088), для которой AFR равен 0.44% (см. вторую страницу даташита) или 2 миллиона часов в понятии MTBF. Ну и взяли популярный SSD Intel 3710 для целей кэширования, который также имеет MTBF на 2 миллиона часов.

Для того, чтобы вычислить время доступности данных на таких накопителях, нужно понимать время, которое необходимо для восстановления бэкапа на новый накопитель в случае сбоя. По консервативным оценкам - это 24 часа. Таким образом, доступность данных будет равна:

2 000 000/ (2 000 000 + 24) = 0,99998

То есть, 4 девятки. Но диск - это еще не весь сервис. Есть еще надежность дискового контроллера, самого хост-сервера и стойки в целом (по питанию). VMware запросила данные у производителей и получила следующие параметры доступности:

  • Rack: 0,99998
  • Host: 0,9998
  • Controller: 0,9996

Итого, мы имеем доступность:

0,99998 (Rack) * 0,9998 (Host) * 0,9996 (Controller) * 0,99998 (SSD Cache) * 0,99998 (SSD/HDD Capacity) = 0,9993

Вот, доступность уже 3 девятки, что эквивалентно 8,76 часов простоя в год. Не так плохо, но это слишком оптимистичные значения - на деле есть прочие факторы, влияющие на доступность, поэтому уберем последнюю цифру из долей для доступности каждого из компонентов:

0,9999 (Rack) * 0,999 (Host) * 0,999 (Controller) * 0,9999 (SSD Cache) * 0,9999 (SSD/HDD Capacity) = 0,997

Получается 2 девятки, а это 3,65 дня простоя в год, что уже довольно критично для многих бизнесов.

Ну а теперь применим технологию VMware Virtual SAN, которая дублирует данные на уровне виртуальных машин и отдельных виртуальных дисков. Если мы используем параметр FTT (Numbers of failures to tolerate) равный 1, что подразумевает хранение одной реплики данных, то вероятность недоступности хранилища Virtual SAN данных будет равна вероятности отказа 2-х хранилищ одновременно, то есть:

(1-0.997)^2 = 0.00000528

Ну а доступность в данном случае равна:

1-0.00000528 = 0.999994

То есть, уже 5 девяток. Но это доступность для одного объекта VSAN, а отдельная виртуальная машина обычно имеет несколько объектов, допустим, 10. Тогда ее доступность будет равна:

0.999994^10 = 0.99994

В итоге, 4 девятки. Это 52,56 минуты простоя в год. В зависимости от того, сколько объектов у вас будет на одну ВМ, вы будете иметь доступность от 4 до 5 девяток.

А теперь возьмем FTT=2, то есть конфигурацию, когда имеется 2 дополнительных копии данных для каждого объекта в кластере Virtual SAN. В этом случае вероятность полного отказа всех трех копий данных:

(1-0.997)^3 = 0.00000001214

А доступность для ВМ с десятью объектами:

0.999999988^10 = 0.999999879

То есть, те самые 6 девяток, о которых говорится на слайде. Конечно, все это допущения, фантазии и игра с вероятностями, но читать это все равно интересно. Еще более интересно то, что оригинал этой статьи написала женщина)


Таги: VMware, Virtual SAN, HA, VSAN, Enterprise, Blog, Availability, Storage

Как работает кэш на чтение в VMware Virtual SAN и новый документ о кэшировании на SSD.


Компания VMware выпустила очень познавательный документ "An overview of VMware Virtual SAN caching algorithms", который может оказаться полезным всем тем, кто интересуется решением для создания программных хранилищ под виртуальные машины - VMware Virtual SAN. В документе описан механизм работы кэширования, который опирается на производительные SSD-диски в гибридной конфигурации серверов ESXi (то есть, SSD+HDD).

SSD-диски используются как Performance tier для каждой дисковой группы, то есть как ярус производительности, который преимущественно предназначен для обеспечения работы механизма кэширования на чтение (Read cache, RC). По умолчанию для этих целей используется 70% емкости SSD-накопителей, что экспериментально было определено компанией VMware как оптимальное соотношение.

SSD-диски значительно более производительны в плане IOPS (тысячи и десятки тысяч операций в секунду), поэтому их удобно использовать для кэширования. Это выгодно и с экономической точки зрения (доллары на IOPS), об этом в документе есть наглядная табличка:

То есть, вы можете купить диск SSD Intel S3700 на 100 ГБ за $200, который может выдавать до 45 000 IOPS, а это где-то $0,004 за IOPS. С другой же стороны, можно купить за те же $200 диск от Seagate на 1 ТБ, который будет выдавать всего 100 IOPS, что составит $2 на один IOPS.

Кэш на чтение (RC) логически разделен на "cache lines" емкостью 1 МБ. Это такая единица информации при работе с кэшем - именно такой минимальный объем на чтение и резервирование данных в памяти используется. Эта цифра была высчитана экспериментальным путем в исследовании нагрузок на дисковую подсистему в реальном мире, которое VMware предпочитает не раскрывать. Кстати, такой же величины объем блока в файловой системе VMFS 5.x.

Помимо обслуживания кэша на SSD, сервер VMware ESXi использует небольшой объем оперативной памяти (RAM) для поддержки горячего кэша обслуживания этих самых cache lines. Он содержит несколько самых последних использованных cache lines, а его объем зависит от доступной памяти в системе.

Также в памяти хранятся некоторые метаданные, включая логические адреса cache lines, валидные и невалидные регионы кэша, информация о сроке хранения данных в кэше и прочее. Все эти данные постоянно хранятся в памяти в сжатом виде и никогда не попадают в своп. При перезагрузке или выключении/включении хоста кэш нужно прогревать заново.

Итак, как именно работает кэширование на SSD в VMware Virtual SAN:

1. Когда операция чтения приходит к Virtual SAN, сразу же включается механизм определения того, находятся ли соответствующие данные в кэше или нет. При этом запрашиваемые данные за одну операцию могут быть больше одной cache line.

2. Если данные или их часть не находятся в RC, то для них резервируется буфер нужного объема с гранулярностью 1 МБ (под нужное количество cache lines).

3. Новые аллоцированные cache lines вытесняют из кэша старые в соответствии с алгоритмом Adaptive Replacement Cache (ARC), который был лицензирован VMware у IBM.

4. В случае промаха кэша каждое чтение одной cache line с HDD разбивается на чанки размером 64 КБ (этот размер тоже был определен экспериментально в ходе исследований). Это сделано для того, чтобы не забивать очередь на чтение с HDD "жирной" операцией чтения в 1 МБ, которая бы затормозила общий процесс ввода-вывода на диск.

5. В общем случае, одна операция чтения запрашивает лишь часть данных одной cache line, а первыми читаются именно нужные 64 КБ чанки с HDD-диска от этой cache line.

6. Запрошенные с HDD-диска данные сразу отдаются к подсистеме вывода и направляются туда, откуда их запросили, а уже потом в асинхронном режиме они попадают в соответствующие cache lines кэша и под каждую из них выделяется буфер 1 МБ в памяти. Таким образом устраняются потенциальные затыки в производительности.

В документе описаны также и механики работы кэша на запись (Write cache), для которого используется техника write-back, а также рассматриваются All Flash конфигурации. Читайте - это интересно!


Таги: VMware, Virtual SAN, Performance, VSAN, Whitepaper, vSphere

Конфигурация "растянутого" кластера VMware HA Stretched Cluster вместе с отказоустойчивыми хранилищами Virtual SAN.


Недавно Cormac Hogan написал интересный пост о том, как нужно настраивать "растянутый" между двумя площадками HA-кластер на платформе VMware vSphere, которая использует отказоустойчивую архитектуру Virtual SAN.

Напомним, как это должно выглядеть (два сайта на разнесенных площадках и witness-хост, который обрабатывает ситуации разделения площадок):

Основная идея такой конфигурации в том, что при отказе отдельного хоста или его компонентов виртуальная машина обязательно должна запуститься на той же площадке, где и была до этого, а в случае отказа всей площадки (аварии) - машины должны быть автоматически запущены на резервном сайте.

Откроем настройки кластера HA. Во-первых, он должен быть включен (Turn on vSphere HA), и средства обнаружения сетевых отказов кластера (Host Monitoring) также должны быть включены:

Host Monitoring позволяет хостам кластера обмениваться сигналами доступности (heartbeats) и в случае отказа предпринимать определенные действия с виртуальными машинами отказавшего хоста.

Для того, чтобы виртуальная машина всегда находилась на своей площадке в случае отказа хоста (и использовала локальные копии данных на виртуальных дисках VMDK), нужно создать Affinity Rules, которые определяют правила перезапуска ВМ на определенных группах хостов в рамках соответствующей площадки. При этом эти правила должны быть "Soft" (так называемые should rules), то есть они будут соблюдаться при возможности, но при отказе всей площадки они будут нарушены, чтобы запустить машины на резервном сайте.

Далее переходим к настройке "Host Hardware Monitoring - VM Component Protection":

На данный момент кластер VSAN не поддерживает VMCP (VM Component Protection), поэтому данную настройку надо оставить выключенной. Напомним, что VMCP - это новая функция VMware vSphere 6.0, которая позволяет восстанавливать виртуальные машины на хранилищах, которые попали в состояние All Paths Down (APD) или Permanent Device Loss (PDL). Соответственно, все что касается APD и PDL будет выставлено в Disabled:

Теперь посмотрим на картинку выше - следующей опцией идет Virtual Machine Monitoring - механизм, перезапускающий виртуальную машину в случае отсутствия сигналов от VMware Tools. Ее можно использовать или нет по вашему усмотрению - оба варианта полностью поддерживаются.

На этой же кариинке мы видим настройки Host Isolation и Responce for Host Isolation - это действие, которое будет предпринято в случае, если хост обнаруживает себя изолированным от основной сети управления. Тут VMware однозначно рекомендует выставить действие "Power off and restart VMs", чтобы в случае отделения хоста от основной сети он самостоятельно погасил виртуальные машины, а мастер-хост кластера HA дал команду на ее восстановление на одном из полноценных хостов.

Далее идут настройки Admission Control:

Здесь VMware настоятельно рекомендует использовать Admission Control по простой причине - для растянутых кластеров характерно требование самого высокого уровня доступности (для этого он, как правило, и создается), поэтому логично гарантировать ресурсы для запуска виртуальных машин в случае отказа всей площадки. То есть правильно было бы зарезервировать 50% ресурсов по памяти и процессору. Но можно и не гарантировать прям все 100% ресурсов в случае сбоя, поэтому можно здесь поставить 30-50%, в зависимости от требований и условий работы ваших рабочих нагрузок в виртуальных машинах.

Далее идет настройка Datastore for Heartbeating:

Тут все просто - кластер Virtual SAN не поддерживает использование Datastore for Heartbeating, но такого варианта тут нет :) Поэтому надо выставить вариант "Use datastores only from the secified list" и ничего из списка не выбирать (убедиться, что ничего не выбрано). В этом случае вы получите сообщение "number of vSphere HA heartbeat datastore for this host is 0, which is less than required:2".

Убрать его можно по инструкции в KB 2004739, установив расширенную настройку кластера das.ignoreInsufficientHbDatastore = true.

Далее нужно обязательно установить кое-какие Advanced Options. Так как кластер у нас растянутый, то для обнаружения наступления события изоляции нужно использовать как минимум 2 адреса - по одному на каждой площадке, поэтому расширенная настройка das.usedefaultisolationaddress должна быть установлена в значение false. Ну и нужно добавить IP-адреса хостов, которые будут пинговаться на наступление изоляции хост-серверов VMware ESXi - это настройки das.isolationaddress0 и das.isolationaddress1.

Таким образом мы получаем следующие рекомендуемые настройки растянутого кластера HA совместно с кластером Virtual SAN:

vSphere HA Turn on
Host Monitoring Enabled
Host Hardware Monitoring – VM Component Protection: “Protect against Storage Connectivity Loss” Disabled (по умолчанию)
Virtual Machine Monitoring Опционально, по умолчанию "Disabled"
Admission Control 30-50% для CPU и Memory.
Host Isolation Response Power off and restart VMs
Datastore Heartbeats Выбрать "Use datastores only from the specified list", но не выбирать ни одного хранилища из списка

Ну и должны быть добавлены следующие Advanced Settings:

das.usedefaultisolationaddress False
das.isolationaddress0 IP-адрес VSAN-сети на площадке 1
das.isolationaddress1 IP-адрес VSAN-сети на площадке 2

Более подробно об этом всем написано в документе "Virtual SAN 6.1 Stretched Cluster Guide".


Таги: VMware, HA, Virtual SAN, VSAN, Stretched, DR

VSAN Assessment - интересный способ сайзинга кластеров хранилищ виртуальных машин на платформе VMware vSphere.


Интересный сервис по продвижению решения Virtual SAN предлагает компания VMware через своих партнеров. Поскольку сам продукт стоит очень дорого, и мало кого можно на него подписать вот так вот сразу, VMware предлагает воспользоваться услугой VSAN Assessment. Она бесплатна, может быть оказана любым партнером VMware и позволяет получить необходимую конфигурацию аппаратного обеспечения для консолидации существующих виртуальных машин в отказоустойчивых кластерах Virtual SAN (напомним, что емкость там формируется из емкости локальных дисков серверов, являющихся узлами кластеров VSAN).

Суть сервиса такова: партнер регистрирует в закрытой партнерской секции новое обследование инфраструктуры (VSAN Assessment), после чего отправляет инвайт на него потенциальному заказчику. Он, в свою очередь, скачивает готовый виртуальный модуль (Collector Appliance), настраивает его и держит запущенным в течение, по крайней мере, одной недели (минимально).

В течение этого времени происходит сбор профилей рабочей нагрузки по вводу-выводу, на основании чего можно уже нарисовать необходимые ресурсы кластера хранилищ, выбрать нужную модель сервера для узла VSAN и определить требуемое число таких узлов.

Сначала анализируется виртуальная инфраструктура VMware vSphere на площадке клиента:

Затем выводятся рекомендуемые к консолидации в кластере хранилищ виртуальные машины. Также показывается совместимость с типом кластера Virtual SAN (All-flash или гибридная модель, где данные размещаются на магнитных накопителях):

Затем мы видим требуемые ресурсы как для одного узла, так и для всего кластера Virtual SAN, а также видим, какой именно сервер и с какими аппаратными характеристиками имеется в виду (производителя сервера можно выбрать, само собой):

Ну и для того, чтобы заказчика отвлечь от высокой входной цены продукта Virtual SAN, используется метод убеждения по снижению совокупной стоимости владения (TCO - total cost of ownership) при внедрении решения VMware VSAN:

Ну и прямо расписывают вам экономию по годам:

Ну то есть, если вы все же решили потестировать технологию VMware Virtual SAN, обратитесь к своему поставщику - он заведет вам VSAN Assessment и вы сами посмотрите, какие железки рекомендуется использовать именно под ваши нагрузки по вводу-выводу для размещения виртуальных машин.


Таги: VMware, Virtual SAN, Update, VSAN, Storage, Assessment

Референсная архитектура: Horizon View 6.0.2 и VMware Virtual SAN 6.0.


Совсем недавно компания VMware выпустила полезный документ "VMware Horizon View 6.0.2 and VMware Virtual SAN 6.0 Hybrid", описывающий эталонную архитектуру инфраструктуры виртуальных ПК Horizon View 6, которые хранятся в кластере отказоустойчивости VMware Virtual SAN 6.0, построенном на базе хостов VMware ESXi.

В документе рассмотрено тестирование производительности 12-узлового кластера Virtual SAN на базе серверов Supermicro в рамках следующей логической архитектуры:

Подробная конфигурация хостов:

В целом инфраструктура тестирования выглядела так:

Для тестов использовалось средство Login VSI (о нем мы уже много писали), которое поставляется вместе с методологией тестирования:

Сводные результаты тестов:

Для получения более подробной информации о результатах по каждому тесту, используемых сценариях и конфигурациях обращайтесь к документу. Все 38 страниц полны картинок, графиков и табличек с цифрами - док составлен очень по делу. Для тех, кто планирует VDI на базе Virtual SAN очень полезный референс, как в плане архитектуры, так и в плане производительности.


Таги: VMware, View, Virtual SAN, VSAN, Storage, HA, VDI, Performance

Интересный документ "Virtualizing Microsoft Applications on VMware Virtual SAN".


На днях компания VMware выпустила интересный открытый документ "Virtualizing Microsoft Applications on VMware Virtual SAN", в котором описываются результаты тестирования бизнес-критичных приложений Microsoft в кластере отказоустойчивых хранилищ VMware VSAN.

В документе рассматривается стрессовое тестирование следующих приложений, работающих в кластере Virtual SAN, состоящем из 8 узлов:

  • Microsoft Exchange 2013 с поддержкой Database Availability Groups (DAG)
  • Microsoft SQL Server 2014 с включенными AlwaysOn Availability Groups (AAG)
  • Microsoft SharePoint 2013 как фронтэнд баз данных

Для теста использовалась такая конфигурация серверов:

  • ESX host CPU - 2 x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz 10C (60 GHz)
  • ESX host RAM - 256 GB
  • Network Adapter - 2x Intel Ethernet 82599EB 10-Gigabit SFI/SFP+
  • Storage Adapter - 2x LSI Logic / Symbios Logic LSI-9300-8i
    • Firmware version: 6.00.00.00-IT
    • Driver version: MPT3SAS
  • Power Management - Balanced (поставлено в BIOS)
  • Disks SSD - 2x Intel 400 GB (SSDSC2BA400G3)
  • SSD - 2x Intel 200GB (Intel PCIe 910)
  • HDD - 12 x Seagate 900 GB

Конфигурация дисковых групп кластера Virtual SAN:

  • Diskgroup 1 - 1x Intel 400GB 3x Seagate 900GB
  • Diskgroup 2 - 1x Intel 400GB 3 x Seagate 900GB
  • Diskgroup 3 - 1x Intel 200GB 3 x Seagate 900GB
  • Diskgroup 4 - 1x Intel 200GB 3 x Seagate 900GB

Для тестирования Microsoft Exchange применялись следующие средства:

Архитектура сервисов Exchange:

Конфигурация виртуальных машин:

Результаты тестирования первого узла с ролью Mailbox средствами Jetstress:

Результаты тестирования второго узла с ролью Mailbox:

Результаты теста Load Generator:

Архитектура сервисов Microsoft SQL Server с технологией защиты данных Always On:

Для тестирования SQL Server использовался инструмент DVD Store. Конфигурация виртуальных машин:

Результаты тестов DVD Store.

Ну и в заключение - сводные результаты тестирования:

В итоге утверждается, что приложения Microsoft уровня Tier 1 прекрасно себя чувствуют в кластере VMware Virtual SAN, и их быстродействие мало чем отличается от ситуации, если бы на бэкэнде были аппаратные SAN/NFS-массивы.

За остальными подробностями обращайтесь к документу "Virtualizing Microsoft Applications on VMware Virtual SAN".


Таги: VMware, Virtual SAN, Performance, Microsoft, VSAN, Storage

Virtual SAN 6.0 Health Check Plugin - мониторинг кластера хрнилищ VSAN.


Компания VMware анонсировала плагин для мониторинга состояния кластера хранилищ - Virtual SAN 6.0 Health Check Plugin. Напомним, что о возможностях VSAN 6.0 мы писали вот тут.

На самом деле, новый плагин от VMware полезен не только тем, что мониторит состояние компонентов решения во время работы, но и позволяет понять, что вы все развернули и настроили правильным образом, а кластер готов к промышленной эксплуатации. Расскажем о новом плагине на основе описания, которое привел Cormac Hogan.

Плагин состоит из двух компонентов: плагин для vCenter и установочные VIB-пакеты для хостов VMware ESXi. Для vCenter под Windows доступен MSI-установщик плагина, а для vCSA есть соответствующий RPM-пакет. По умолчанию Healthcheck-сервис отключен, когда вы нажмете кнопку "Enable" - на все хосты ESXi установится VIB-пакет агента.

После установки VIB'а, если у вас есть DRS-кластер, хосты будут переходить в Maintenance Mode и перезагружаться, поочередно накатывая обновление. Если DRS-кластера нет, то придется делать это вручную.

После установки агентов, вы будете видеть состояние основных компонентов в разделе Monitor > Virtual SAN:

Важный момент - плагин проверяет совместимость вашего оборудования с требованиями VMware Compatibility Guide к кластеру Virtual SAN, что обычно является головной болью администраторов vSphere. Если vCenter имеет доступ в интернет, то можно напрямую загрузить базу данных HCL, если же нет - ее можно скачать вручную и импортировать.

Прикольная функция - каждая проверка привязана к базе знаний VMware, поэтому если у вас загорелось предупреждение или ошибка, можно нажать кнопку "Ask VMware", и откроется страничка с подробной информацией по теме:

Интересно также то, что Virtual SAN Health Check Plugin ведет себя не только реактивно, реагируя на возникающие ошибки, но и способен выполнять набор проактивных тестов. Например, это может быть полезно, когда нужно проверить кластер хранилищ перед его вводом в промышленную эксплуатацию - проверить состояние виртуальных машин, эффективную ширину канала между узлами и т.п. Ну и, конечно, же полезно посмотреть результаты теста производительности, они будут показаны в колонках IOPS и Latency:

Кстати, можно регулировать время выполнения теста.

Также есть еще одна важная и полезная вещь - поддержка Support Assistant. Если у вас есть открытый Service Request (SR), логи могут быть загружены через Support Assistant и ассоциированы с вашим SR.

Более подробную информацию о Virtual SAN 6.0 Health Check Plugin можно получить в VSAN 6.0 Health Services Plugin guide. Скачать сам плагин можно по этой ссылке.


Таги: VMware, Virtual SAN, Healthcheck, VSAN, Storage, vSphere

Сравнение производительности VMware Virtual SAN 1.0 (ESXi 5.5) и 6.0 (ESXi 6.0).


Как вы знаете, недавно вышла новая версия платформы виртуализации VMware vSphere 6.0, для которой было также обновлено средство создания кластеров хранилищ VMware Virtual SAN 6.0 на базе локальных дисков серверов. Среди прочих новых возможностей VSAN, было сказано об улучшении производительности решения, что и решили проверить коллеги на тестах вот тут.

Тест проводился дома и не претендует на какую-либо достоверность, но, все же, его весьма интересно посмотреть. Автор взял 3 узла Shuttle SZ87R6 следующей конфигурации (надо отметить, что они не в HCL):

Chipset  Z87
 Processor  Intel Core i5-4590S
 Memory  32 GB
 NIC 1  1 GE (management)
 NIC 2  1 GE (VSAN)
 HDD 1  Samsung 840 Evo (120GB)
 HDD 2  HGST Travelstar 7K1000 (1TB)

В качестве коммутатора использовался Cisco SG300.

Для тестирования были использованы следующие гипервизоры:

  • ESXi 5.5 Update 2 (build 2068190)
  • ESXi 6.0 (build 2494585)

В качестве средства создания нагрузки взяли IOmeter, размещенный в виртуальной машине с двумя vCPU, 4 ГБ памяти и Windows Server 2012 в качестве гостевой ОС. Было также сконфигурировано 2 дополнительных виртуальных диска на контроллере PVSCSI:

Для IOmeter было создано три профиля нагрузки, размер Working Set - 100 МБ (204800 секторов). Малый размер Working Set был выбран для более быстрого прогрева кэша.

 Profile 1  Profile 2  Profile 3
 Worker 1  vDisk 1  vDisk 1  vDisk 1
 Sectors  204800  204800  204800
 Outst. IO  16  16  16
 
 Worker 2  vDisk 2  vDisk 2  vDisk 2
 Sectors  204800  204800  204800
 Outst. IO  16  16  16
 
 Read  100%  0%  65%
 Write  0%  100%  35%
 Random  100%  100%  60%
 Sequential  0%  0%  40%
 Block size  4 KB  4 KB  4 KB
 Alignment  4096 B  4096 B  4096 B

Результаты (кликабельно):

Как мы видим, VSAN 6.0 показал себя лучше при всех типах нагрузки - выжимает больше IOPS и имеет меньшую задержку (latency), а именно:

  • Нагрузка 100% READ | 100% RANDOM: +37% IOPS | -27% latency
  • Нагрузка 65% READ | 60% RANDOM: +53% IOPS | -35% latency
  • Нагрузка 100% WRITE | 100% RANDOM: +25% IOPS | -24% latency

Производительность снапшотов

VSAN 5.5 (он же 1.0) использует формат vmfsSparse, который, по-сути, является redo-логом. В версии VSAN 6.0 появился новый формат снапшота vsanSparse, который использует механизм redirect-on-write (подробнее тут).

Тест проводился просто - запустили IOmeter (профиль 3) и последовательно снимали снапшоты, наблюдая производительность с помощью VSAN Observer.

Светло-серые картинки - это VSAN 1.0 (5.5), а темно-серые - VSAN 6.0 (кликабельно). Обратите внимание, что значения по осям X и Y на картинках не всегда соответствуют.

Итак, Latency:

Кстати, временами по latency VSAN 6.0 хуже своей предыдущей версии.

По IOPS результаты интереснее:

При создании нагрузки в виде снапшотов VSAN 6.0 снижает производительность по IOPS на 8%, а вот предыдущая версия VSAN - на 49%. Преимущества нового формата очевидны.

Полоса пропускания (Bandwidth):

Интересный эффект - в VSAN 1.0 существенно увеличивается трафик на чтение после снятия каждого снапшота, при этом у VSAN 6.0 такого не происходит. Еще одно улучшение Virtual SAN 6.0.

В целом можно отметить, что производительность кластеров VSAN заметно возрасла, ну а оптимизация снапшотов улучшит и производительность процессов, использующих эту технологию (например, резервное копирование).


Таги: VMware, Virtual SAN, Performance, Storage, VSAN, Update, Сравнение, Blogs

Новые лабораторные работы по VMware vSphere 6 - попробуйте новую версию платформы без установки.


Новые лабораторные работы по VMware vSphere 6 - попробуйте новую версию платформы без установки.

Как почти все из вас знают, компания VMware совсем недавно анонсировала новую версию платформы виртуализации VMware vSphere 6 и другие продукты серверной линейки (наша последняя статья об этом тут). Пока сам продукт недоступен для загрузки в релизной версии, но компания VMware на днях предоставила возможность попробовать его вживую в виде лабораторных работ - VMware Hands-On Labs (HoL).

В рамках лабы вам развертывают виртуальную машину, с которой вы работаете прямо в браузере:

На данный момент доступно 4 новых лабораторных работы:

1. HOL-SDC-1408 - What’s New with Virtual SAN 6.

Эта лаба вводит начинающих в суть темы отказоустойчивых кластеров Virtual SAN и позволяет понять основные преимущества технологии на практике, никакого булшита. Модули лабы:

  • Virtual SAN Setup and Enable
  • Virtual SAN with vMotion, Storage vMotion and HA Interoperability
  • Virtual SAN Storage Level Agility
  • Useful CLI Commands
  • Virtual SAN Monitoring
  • Virtual SAN Troubleshooting

Время на прохождение: 4-5 часов.

2. HOL-SDC-1410 - What's New with vSphere 6.

Данная лабораторная работа расскажет о новых возможностях платформы VMware vSphere 6 в плане сервисов управления и мониторинга. Доступно три модуля:

  • Introduction to Management with vCenter Server
  • Introduction to vSOM Networking And Security
  • Introduction to vSOM Storage

Время на прохождение: 3 часа.

3. HOL-SDC-1428 - VMware EVO:RAIL Introduction.

В этой небольшой лабораторной работе вам расскажут про технологию EVO:RAIL, которая представляет собой стандартизованный строительный блок виртуальной инфраструктуры для небольших компаний. С технической точки зрения EVO:RAIL - это двухюнитовый блок, представляющий собой 4-узловую структуру на базе архитектуры "microserver", которая сочетает в себе 4 полноценных микросервера в 2-юнитовой корзине.

Эта лаба состоит из двух модулей:

  • Exploring EVO:RAIL Configuration
  • Exploring EVO:RAIL Management

Время на прохождение: 1 час.

4. HOL-MBL-1452 - Horizon 6 with View Use Cases.

Эта лабораторная работа, посвященная возможным вариантам применения VMware Horizon 6, была доступна и ранее. Но теперь в нее добавили модуль о технологии AppVolumes, про которую мы писали вот тут (ранее это называлось CloudVolumes).

Модули лабораторной работы:

  • Build and Operate the Mobile Secure Workplace
  • Build and Operate the Call Center Desktop
  • Build and Operate the Branch Office Desktop
  • Take a Guided Tour of vCOPS for View
  • Understanding use cases for Application Remoting
  • Understanding use cases for Cloud Pod Architecture
  • Mirage-Controlled View Static Desktops
  • Guided Tour of AppVolumes

Время на прохождение: 5-8 часов (то есть на всю лабу лучше выделить целый день).

В течение пары недель компания VMware обещает выложить еще несколько лабораторных работ, посвященных VMware vSphere 6 и другим продуктам и технологиям обновленной серверной линейки, о которых мы вам обязательно расскажем. Можно также следить за обновлениями в твиттер-аккаунте VMware HoL.


Таги: VMware, Labs, Обучение, vSphere, VSAN

Что нового в VMware Virtual SAN 6.0 из состава vSphere 6.0.


Как вы знаете, недавно компания VMware сняла эмбарго на освещение новых возможностей платформы виртуализации VMware vSphere 6.0, о которых мы писали вот туттут). На блогах, посвященных технологиям виртуализации, появилось много разных статей о новых возможностях продукта, и мы уже писали о технологии непрерывной доступности VMware Fault Tolerance 6.0.

Сегодня мы хотим рассказать об отказоустойчивых кластерах VMware Virtual SAN 6.0, для которых версия программного обеспечения продвинулась с 1.0 сразу до 6.0 (поэтому пользователи, все же, не должны заблуждаться насчет зрелости продукта - это его вторая версия).

Итак, что нового появилось в VMware Virtual SAN 6.0:

1. Поддержка архитектуры All Flash для создания кластера хранилищ.

Теперь доступны два варианта развертывания VSAN:

  • Hybrid – Virtual SAN, как и раньше, использует SSD-диски для кэширования, а для хранения ВМ используются обычные HDD-диски. Максимально возможные конфигурации этой архитектуры стали выше (например, стало 64 хоста в кластере).
  • All Flash – Virtual SAN использует имеющиеся Flash-накопители как для кэширования, так для хранения ВМ.

Отличия между данными архитектурами:

В конфигурации All Flash девайсы, ответственные за кэширование, будут производить только кэширование записи и не будут делать кэширование на чтение (это очевидно почему). В гибридной конфигурации, как и раньше, 30% емкости SSD-кэшей используется для Write Buffer, а 70% - для кэша на чтение.

В целом, утверждается, что решение Virtual SAN теперь готово к полноценной промышленной эксплуатации.

2. Возможность High Density Direct Attached Storage (HDDAS).

Теперь кластеры Virtual SAN удобно использовать в окружениях с блейд-системами. Для них поддерживаются как SDD, так и HDD-устройства, включая flash-хранилища блейд-серверов.

Если раньше блейд-системы не очень подходили для организации кластеров ввиду физических ограничений по локальным хранилищам, то теперь это вполне подходящий вариант использования для корпоративной инфраструктуры. Поддержка устройств будет строго контролироваться и постоянно обновляться в VMware HCL.

3. Новая файловая система и формат On-Disk.

Virtual SAN в VMware vSphere 5.5 использовал модифицированный формат файловой системы VMFS с измененным механизмом блокировок, которая называлась VMFS-L. Теперь же в VSAN 6.0 используется файловая система VSAN FS, специально предназначенная для кластеров хранилищ.

Старый формат VMFS-L поддерживается и в новой версии, но VMware предлагает провести миграцию хранилищ, тем более что это делается без простоя сервисов.

4. Функции Proactive Rebalance.

В Virtual SAN 6.0 появилась возможность ребаланса объектов по виртуальным дискам в случае, если подключается новый узел vSphere или если диски заполнены на 80% и более. Делается это через Ruby Console.

5. VSAN Fault Domains (группы отказа).

Теперь в VSAN можно определять домены отказа, то есть группы хостов у которых может произойти одновременный сбой (например, отказ питания на стойке), чтобы все их объекты были задублированы в других доменах:

 

Теперь реплики объектов происходят не на уровне хостов, а на уровне Fault Domains (в данном случае инфраструктура хранения переживет отказ одной стойки):

6. Новые функции для дисков (Serviceability Functions).

  • Light LED on failures – включение LED-индикатора при отказе.
  • Turn on disk LED manually - включение LED-индикатора вручную для диска, чтобы его можно было найти на массиве.
  • Marking a disk as local – если диск не обнаружился как локальный, его можно пометить вручную из GUI.
  • Marking a disk as SSD - теперь эта опция есть в GUI, нужна если диск автоматически не распознается как SSD.

7. Улучшения сетевого взаимодействия.

Теперь Virtual SAN 6 поддерживает конфигурации на уровне Layer 3. Кроме того, теперь доступна конфигурация с Jumbo Frames. Ну и добавлена поддержка возможностей vDS и Network IO Control (NetIOC).

8. Новый тип виртуального диска VMDK - vsanSparse.

Ранее использовались стандартные Redo-диски, но они не были приспособлены под кэширование и другие функции VSAN FS, поэтому сделали новый тип диска vsanSparse.

9. Улучшенные функции Disk/Disk Group Evacuation.

Возможность эвакуации данных с отдельного диска или группы перед тем, как вы его хотите вывести из эксплуатации физически. Ранее приходилось переводить весь хост в Maintenance Mode, чтобы было очень неудобно при поломке лишь одного диска.

10. Новое представление Resynchronization Dashboard.

Это представление показывает статус объектов, которые по тем или иным причинам находятся в состоянии ресинхронизации. Также показывается примерное время окончании синхронизации:

11. Новые службы 3rd Party File Services.

Сторонние вендоры теперь могут надстраивать свои решения над VMware Virtual SAN. Например, мы писали о таком решении совсем недавно - это NexentaConnect.

12. Полноценная поддержка командлетов PowerCLI.

Ранее интерфейс PowerCLI поддерживался неофициально, теперь же командлеты задокументированы и поддерживаются:

13. Службы мониторинга жизнедеятельности (VSAN Health Services).

Теперь для компонентов Virtual SAN доступна информация об их состоянии:

14. Storage Consumption Models.

Возможность визуализовать использование ресурсов хранения Virtual SAN 6.0 при создании или изменении VM Storage Policy.

О доступности VMware Virtual SAN 6.0 будет объявлено отдельно.


Таги: VMware, Virtual SAN, Update, VSAN, vSphere, Storage, SSD, HA

Почему резервное копирование одной виртуальной машины VMware vSphere на хранилище Virtual SAN делается медленно?


Многие пользователи VMware Virtual SAN (VSAN), когда проводят тест бэкапа одной виртуальной машины, замечают, что время резервного копирования этой ВМ существенно больше, чем таковое для машины, размещенной на дисковом массиве.

Дункан в своем блоге подробно разбирает эту проблему. Тут дело вот в чем - когда вы используете дисковый массив, то виртуальная машина "размазывается" по дискам RAID-группы, что позволяет читать одновременно с нескольких дисков. Это дает хорошую производительность операции резервного копирования для одной машины.

Кластер же VSAN работает немного по-другому. Это объектное хранилище, в котором виртуальный диск ВМ хранится на одном хосте и его реплика существует на втором. Кроме этого, есть кэш на SSD-диске (но его еще нужно "прогреть"). То есть выглядит все это следующим образом:

Соответственно, при бэкапе одной виртуальной машины данные читаются только с двух HDD-дисков, а не с нескольких как в традиционной архитектуре дисковых массивов, при этом сам кластер VSAN может состоять из нескольких хостов (до 32 узлов). То есть, это архитектурное ограничение.

Однако если мы будем делать одновременный бэкап нескольких виртуальных машин с хранилища Virtual SAN время этой операции уже будет сравнимо с дисковым массивом, поскольку будет задействовано сразу несколько дисков на каждом из хостов, плюс хорошо прогреется кэш. Поэтому проведение такого теста (ведь он ближе к реальным условиям) и было бы более показательным при сравнении Virtual SAN и традиционных хранилищ.

То же самое относится и к VDI-инфраструктуре на базе VSAN - многие пользователи отмечают, что первая фаза операции Recompose (когда создается реплика - полный клон ВМ) отрабатывает весьма медленно. Однако если вы делаете много таких операций - кэш прогревается, и одновременное создание нескольких клонов начинает работать заметно быстрее в расчете на одну машину.


Таги: VMware, Virtual SAN, Backup, VSAN, Performance, Storage, vSphere, ESXi

VMware Feature Walkthrough - обновленный портал с пошаговыми демами продуктов VMware.


Не так давно мы писали про обновления портала vmwarewalkthroughs.com, на котором можно в интерактивном режиме пройти по шагам конфигурации различных продуктов в интерфейсе соответствующего решения.

После проведения конференции VMware VMworld 2014 этот портал был достаточно сильно обновлен, там появилось несколько новых демок, улучшилась категоризация обучающих материалов, ну и он стал называться VMware Feature Walkthrough, переехав на новый адрес: http://featurewalkthrough.vmware.com.

Теперь там симпатичный интерфейс и удобная навигация + много новых демонстраций, которые были сформированы из проведенных лабораторных работ HoL (hands-on-labs) на VMworld 2014:

Эти демы продуктов примечательны тем, что там вам предлагают пошагово пройти некоторый рабочий процесс прямо в интерфейсе соответствующего решения с подсветкой нужных элементов настройки:

Из последнего добавленного - демы решений vSphere with Operations Management (vSOM), NSX и Virtual SAN.

Когда наиграетесь с демами, можно переходить на новый уровень - практические задания Hands-on-Labs, на которых уже будет сформулирована задача, а вам будет необходимо ее решить в соответствующей консоли. Сделать это можно также на отдельном портале http://hol.vmware.com/.


Таги: VMware, Demo, Labs, Обучение, NSX, VSOM, VSAN, Virtual SAN, Update

1 | 2    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

04/11/2024:  VMware Explore 2024 Барселона

Быстрый переход:
VMware Cloud StarWind VMachines Offtopic NAKIVO vStack Gartner Veeam Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate Microsoft SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V vSAN Tanzu VCF AI Intel Workstation Private AI VCP V2V HCX Aria NSX DPU Explore Update EUC Avi Broadcom Community Skyline Host Client Chargeback Horizon Labs SASE Workspace ONE Networking Backup Ransomware Tools Performance Lifecycle Network AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile VMUG SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP ONE DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint Stretched Memory Bugs Director ESA Troubleshooting Android Python Upgrade ML Hub Guardrails CLI VCPP Driver Foundation HPC Orchestrator Optimization SVMotion Diagram Ports SIOC Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2024, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge