Подводим итоги: самые популярные статьи на VM Guru за 2013 год. 30/12/2013
Настала пора посмотреть, какие темы в этом году в сфере виртуализации были у нас самыми актуальными и собрали больше всего просмотров. Поэтому мы просто сделали запрос к нашей базе и вывели статьи этого года, упорядоченные по количеству просмотров по убыванию.
Итак, как выглядит наш Топ-10 2013 года:

Неудивительно, что самым ожидаемым релизом этого года оказалась платформа виртуализации VMware vSphere 5.5. Каждый раз, когда выходит обновление vSphere, это делает маленькую революцию в сфере виртуализации. Ведь частные облака по-прежнему удерживают внимание ИТ-специалистов, и хост-платформа ESXi является лидирующим решением для построения корпоративных облачных инфраструктур.
Из технологий, которые оказались самыми интересными в vSphere 5.5 - это, конечно же, сервисы Virtual SAN, концепция Software Defined Networking (SDN) и продукт VMware NSX на ее основе, а также технология VMware Virtual Flash (vFlash).
Самый оживленный интерес вызвала именно версия View 5.2, у которой в названии добавилось еще слово Horizon, обозначающее принадлежность продукта к семейству решений из множества EUC (End User Computing).
Тут безусловные лидеры по интересу пользователей - функции 3D-графики в виртуальных ПК и технология Clientless HTML5 Access to View Desktops & Apps, позволяющая получать доступ к своим десктопам через браузер. Напомним, что не так давно вышла версия View 5.3, где функции по работе с 3D-графикой были значительно улучшены.

Как показывает статистика, тема переноса физических серверов в виртуальную среду по-прежнему актуальна. В статье рассказывается об основных аспектах процесса миграции P2V (Physical to Virtual) и средстве для автоматизации этого процесса - VMware Converter Standalone.

Оказывается, многим пользователям хочется подключить том VMFS к Windows-системе, чтобы скопировать его виртуальные машины, а далее заглянуть в содержимое их файлов виртуальных дисков (VMDK). Это возможно средствами драйвера Open Source VMFS Driver от fluid Ops. Жалко, что это средство поддерживается только для VMFS 3 и уже давно не обновляется.

Похвально, что тяга к знаниям находится у наших ИТ-специалистов так высоко. Скорее всего, заметка набрала много просмотров из-за того, что ссылку на нее часто пересылали.

Помимо решения для виртуализации настольных ПК VMware View, комплект Horizon Suite включает в себя VMware Horizon Mirage 4.0 - решение для управления образами рабочих станций пользователей, а также VMware Horizon Workspace 1.0 - комбинацию двух продуктов - Horizon Data (бывший Project Octopus - решение а-ля корпоративный Dropbox, о котором мы много писали вот тут) и Horizon Application Manager - решение для федерации SaaS-приложений и VDI-сервисов.

Тема резервного копирования хостов конфигурации хостов ESXi всегда востребована. Текущая версия этой утилиты (1.2) вышла в конце февраля этого года. Жаль, что не обновляется.
Конечно же, выпуск решения номер 1 для резервного копирования и репликации Veeam Backup and Replication 7 стал одним из главных событий этого года.

О каждой из новых функций решения можно почитать по этим ссылкам:
Действительно, полезный и нужный продукт.

Кто-то предрекал XenServer скорую смерть (в том числе, и мы), но он оказался живее всех живых. Citrix решила передать платформу XenServer сообществу Open Source, что может вдохнуть вторую жизнь в этот многострадальный продукт.

Действительно интересный пост наших коллег из компании ИТ-ГРАД, в котором рассказывается о Cisco UCS Manager, с помощью которого производится настройка всей системы. Данную задачу специалисты ИТ-ГРАД выполнили в рамках подготовки к тестированию FlexPod (Cisco UCS + NetApp в режиме MetroCluster) для одного из заказчиков.
На этом наш хит-парад закончен. Странно, что в него не попали статьи про новый Hyper-V (например, "Что нового будет в Hyper-V обновленного Windows Server 2012 R2", 12 место по популярности), но это объясняется, скорее всего, тем, что нас читают, в основном, любители VMware. Что ж, будем исправляться и поднажмем на заметки о решениях компании Microsoft, тем более, что она потихоньку откусывает свою долю рынка у VMware.
Всего в этом году у нас появилось 447 заметок о виртуализации и решениях для управления виртуальной инфраструктурой. Будем ждать вас уже в следующем году! С Наступающим Новым годом! Как ведет себя кластер VMware Virtual SAN (VSAN) в случае сбоев дисков или хоста VMware vSphere / ESXi. 27/12/2013
Мы уже много писали о технологии VMware Virtual SAN (VSAN), которая позволяет создать отказоустойчивый кластер хранилищ для виртуальных машин на основе комбинации SSD+HDD локальных дисков серверов VMware ESXi. Не так давно вышла обновленная бетаэтого решения, кроме того мы не так давно писали о производительности VSAN тут.
В этой заметке (на базе статьи Дункана) мы поговорим о том, как кластер VSAN обрабатывает сбои различного типа, и как происходит восстановление работоспособности виртуальной машины без ее простоя.
Итак, в нормальном режиме функционирования, при значении параметра FailuresToTolerate равном 1, который означает, какое количество отказов хостов может пережить кластер хранилищ, реплика одного VMDK будет размещена на дисках еще одного из хостов кластера:

Тут можно заметить 5 особенностей кластера VMware VSAN:
- Виртуальный диск VMDK и его реплика всегда находятся на разных хост-серверах VMware vSphere.
- ВМ не обязательно должна исполняться на том хосте ESXi, на дисках которого находятся ее хранилища.
- Компонент witness находится на третьем по отоношению к виртуальному диску и его реплике хосте, чтобы создать определенность на случай разделения сети VSAN (где окажется 2 компонента из набора "vmdk-реплика-witness" - тот сегмент и будет определяющим).
- Сеть VSAN используется для операций ввода-вывода и определения доступности.
- Реплика VMDK-диска вместе с основной копией образуют RAID-1 массив, который увеличивает производительность операций чтения в виртуальной машине, так как для чтения используются оба хранилища.
Кроме того, вследствие особенностей реализации кластера VSAN, надо понимать, что команды ввода-вывода не применяются к диску данных виртуальной машины, пока не пришло подтверждение об их записи на реплике. Но подтверждение приходит не от HDD-диска, где находятся данные ВМ (это было бы очень медленно), а от SSD-диска, который используется как энергонезависимый Write Buffer для команд ввода вывода. Таким образом, этот буфер (и данные, само собой) зеркалирован в рамках дисковой группы на другом хосте ESXi.
Теперь рассмотрим различные виды сбоев в кластере VSAN.
1. Ломается диск дисковой группы, где исполняется виртуальная машина.
Выглядит это так:

В этом случае такой диск сразу же помечается как "degraded", а команды ввода-вывода перенаправляются на другой хост-сервер VMware ESXi. При этом виртуальная машина этого не замечает, так как переключается на работу с SSD-буфером/кэшем и HDD-дисками другого хоста мгновенно (данные на момент сбоя были синхронизированы, ничего не потерялось).
Одновременно с этим сразу же начинается процесс построения реплики на другом хосте ESXi в рамках его дисковой группы, при этом проверяется, достаточно ли там свободных дисковых ресурсов. Если их недостаточно, то механизм VSAN будет ожидать. Как только вы добавите диски/дисковые группы на хостах - сразу же начнется процесс построения реплики (до его окончания машина будет помечена как "degraded").
Тут надо отметить, что в degraded-состоянии скорость записи данных останется прежней, простоя не будет, а вот скорость чтения упадет до построения новой реплики, поскольку второй копии данных пока нет.
2. Отказывает хост VMware ESXi целиком.

В этом случае запускать процесс восстановления сразу же, конечно, не нужно - мало ли что могло случиться с хостом, например, его случайно перезагрузили, или временно пропало сетевое соединение.
В этом случае происходит ожидание в течение 60 минут, и если отказавший хост ESXi не оживет, то начнется процесс создания реплики виртуального диска VMDK на другом хосте. Это время можно изменить в расширенной настройке кластера VSAN.ClomRepairDelay , но пока не известно будет ли это поддерживаться со стороны VMware.
3. Отказ SSD-диска в дисковой группе.
В кластере VMware Virtual SAN поддерживается 1 SSD-диск и до 7 HDD-дисков в одной дисковой группе. Всего на один хост VMware ESXi поддерживается до 5 дисковых групп.
В данном случае Failure Domain - это вся дисковая группа, включающая в себя SSD-диск, который используется для двух типов операций:
- Read Cache (70% емкости) - безопасное кэширование операций на чтение. На SSD-диске хранятся наиболее часто используемые блоки, что уменьшает I/O read latency для ВМ.
- Write Buffering (30% емкости) - когда приложение внутри гостевой ОС пытается записать данные, оно получает подтверждение записи тогда, когда данные фактически записаны на SSD (не на HDD), таким образом твердотельный накопитель используется как буфер на запись, что небезопасно при внезапном пропадании питания или отказе хоста. Поэтому данные этого буфера дублируются на других хостах кластера и их SSD-дисках.
Таким образом, при отказе SSD-диска, виртуальная машина начинает использовать реплику на уровне всей дисковой группы на другом хосте VMware ESXi. Вот почему выгодно делать две дисковых группы 3HDD+1SSD, чем одну 6HDD+1SSD.
Вот, в общем-то, и все. Более подробно об использовании SSD-дисков, их производительности и ресурсе можно прочитать вот в этой статье. Как начать работу с vGate 2.6 - развертывание средства защиты №1 для виртуальной инфраструктуры VMware vSphere. 27/12/2013
Не так давно мы уже писали про новые возможности vGate R2 версии 2.6 - продукта, предназначенного для защиты виртуальных инфраструктур средствами политик, а также от несанкционированного доступа к элементам инфраструктуры, таким как виртуальные машины, хранилища и сети.
В этом посте мы расскажем о том, как начать работу со средством vGate R2 2.6 для быстрого старта. Для более подробной информации обращайтесь к разделу документации о vGate 2.6 - благо, что она доступна на русском языке.
Напомним также, что демо-версия vGate 2.6 с поддержкой последней версии платформы VMware vSphere 5.5 доступна для скачивания по ссылке.
1. Итак, устанавливаем vGate 2.6 из дистрибутива:

2. Во время первого запуска консоли управления vGate на экране появится мастер
первоначальной настройки:

Укажите с помощью мастера параметры соединения с сервером виртуальной инфраструктуры, добавьте защищаемые серверы и создайте учетные записи для пользователей vGate.
3. По окончании работы мастера на экране появится окно консоли управления.

Если первоначальная настройка конфигурации не была выполнена с помощью мастера, выполните ее самостоятельно (пункты 4–6).
Читать статью далее ->> VM Guru - нам 7 лет! Поздравляйте, чего уж. 26/12/2013
Открыл я тут свои давние записи и неожиданно обнаружил, что совсем недавно главному ресурсу о виртуализации в России исполнилось 7 лет! С ума сойти. Если бы тогда я решил не создавать VM Guru, а завести ребенка, он уже бы пошел во второй класс и мог бы выглядеть, например, как-то так :)

Но я тогда решил не заводить детей, а завел VM Guru, который вы сейчас и читаете. Читайте дальше и цените - ради вас трудимся.

Бесплатный Veeam RDP Appliance for Hyper-V Server для доступа к консоли виртуальных машин на бесплатном Hyper-V. 26/12/2013
Несколько дней назад компания Veeam Software (поставляющая средство номер 1 для резервного копирования виртуальных машин) выпустила интересный виртуальный модуль Veeam RDP Appliance for Hyper-V Server для решения вот какой проблемы. Пользователи бесплатного гипервизора Hyper-V Server 2012 R2 сталкиваются с тем, что после его установки (а он устанавливается как core installation) возникает необходимость в отдельной виртуальной машине Windows Server, на которой установлены Remote Server Administration Tools (RSAT), для получения доступа к консоли виртуальных машин.
Именно эту проблему и решает Veeam RDP Appliance for Hyper-V Server - он является служебной виртуальной машиной на базе CentOS (Virtual Appliance), которая представляет собой RDP-прокси, работающее для любого устройства - компьютера, смартфона или планшета:

При соединении с виртуальным модулем Veeam по протоколу RDP, он, в свою очередь, соединяется с виртуальной машиной на хосте Hyper-V Server посредством VMconnect (модифицированная версия FreeRDP). То есть не нужно держать отдельную Windows-машину на внешнем периметре доступа к машинам хоста. При этом виртуальная машина на хост-сервере Hyper-V даже вовсе не обязана иметь свой IP-адрес.
Вот так это выглядит:

Надо отметить, что соединение с RDP Proxy от Veeam возможно с любого клиента - Windows, Linux, Android или iOS. Вот так, например, это работает на телефоне:

Решение Veeam RDP Appliance for Hyper-V Server доступно абсолютно бесплатно, кроме того, это Open Source продукт, исходники которого доступны вот в этом репозитории: https://github.com/VeeamSoftware/FreeRDP.
Полезные ссылки:
Скачать виртуальный модуль Veeam RDP Appliance for Hyper-V Server можно по этой ссылке.
Также отметим пару альтернативных решений для доступа к консоли виртуальных машин на бесплатном Hyper-V Server:
Microsoft выпустила Linux Integration Services Version 3.5 для Hyper-V. 25/12/2013
Многие из вас знают, что на платформе Microsoft Hyper-V можно не только запускать виртуальные машины с гостевой ОС Windows, но и ВМ с Linux внутри. При этом в Linux можно поставить пакет Linux Integration Services, который дает много возможностей по удобству использования гостевой ОС и ее оптимизации.
На днях компания Microsoft выпустила Linux Integration Services Version 3.5 для платформы Hyper-V.

Этот пакет позволяет получить улучшенные возможности для следующих ОС:
- Red Hat Enterprise Linux (RHEL) 5.7, 5.8, 6.0-6.3.
- CentOS 5.7, 5.8, 6.0-6.3.
Для Ubuntu, Red Hat Enterprise Linux 5.9, Open SUSE и SUSE Linux Enterprise Server средства интеграции уже встроены и не нуждаются в отдельной загрузке.
Новые Linux Integration Services 3.5 предоставляют следующие возможности:
- Driver support - поддержка контроллеров IDE и SCSI, разработанная специально для платформы Hyper-V.
- Fastpath Boot Support for Hyper-V- загрузочные устройства теперь используют механизм Virtualization Service Client (VSC) для увеличения производительности.
- Time Keeping - часы в виртуальной машине теперь идут точно за счет синхронизации с хост-сервером посредством служб Timesync service.
- Integrated Shutdown - ВМ с гостевой ОС Linux можно корректно выключить из консоли Hyper-V Manager или System Center Virtual Machine Manager.
- Symmetric Multi-Processing (SMP) - поддерживаемые дистрибутивы Linux могут использовать несколько виртуальных процессоров в ВМ. Число этих процессоров ограничено только гипервизором.
- Heartbeat - эта возможность позволяет серверу виртуализации обнаруживать, что виртуальная машина доступна и отвечает на запросы.
- KVP (Key Value Pair) Exchange - информация о ВМ Linux может быть получена через функциональность Key Value Pair exchange в Windows Server 2008 на хосте.
- Integrated Mouse Support - пакет Linux Integration Services предоставляет полнофункциональную поддержку мыши для гостевых ОС Linux.
- Live Migration - машин с Linux могут быть смигрированы в горячем режиме на другой хост, а также принимают участие в механизмах балансировки нагрузки.
- Jumbo Frames - ВМ с Linux могут использовать большие кадры, которые превышают 1500 байт (полезная емкость).
- VLAN tagging and trunking - администраторы могут использовать несколько VLAN ID через синтетические сетевые адаптеры.
- Static IP Injection - поддержка миграции Linux-машин со статическим IP.
- Linux VHDX resize - возможность динамического изменения виртуального диска VHDX для ВМ с Linux.
- Synthetic Fibre Channel Support - машины Linux могут получать высокопроизводительный доступ к сети SAN.
- Live Linux virtual machine backup support - возможность резервного копирования машин без необходимости их остановки.
- Dynamic memory ballooning support - использование механизма динамической памяти, что увеличивает коэффициент консолидации ВМ на хосте Hyper-V.
- Synthetic video device support - улучшенная производительность графики в ВМ Linux.
- PAE kernel support - драйверы, совместимые с ВМ Linux с включенным режимом PAE.
Средства поддерживаются для следующих хостовых ОС:
- Windows Server 2008 R2 Standard, Windows Server 2008 R2 Enterprise и Windows Server 2008 R2 Datacenter
- Microsoft Hyper-V Server 2008 R2
- Windows 8 Pro
- Windows Server 2012
- Windows Server 2012 R2
- Microsoft Hyper-V Server 2012
- Microsoft Hyper-V Server 2012 R2
Напомним, что Linux Integration Services содержат следующие компоненты:
- hv_blkvsc — драйвер виртуальных устройств блочного доступа Hyper-V.
- hv_mouse — драйвер мыши.
- hv_netvsc — драйвер сетевого адаптера, поддерживающий функции синтетического адаптера Hyper-V.
- hv_storvsc — драйвер виртуальных хранилищ Hyper-V для поддержки различных устройств.
- hv_timesource — подключаемый и заменяемый модуль для контроля и синхронизации времени в ВМ.
- hv_utils — поддержка возможностей integrated shutdown, key-value pair data exchange и heartbeat.
- hv_vmbus — быстрый канал коммуникации между хостом Hyper-V и виртуальной машиной.
Скачать Linux Integration Services Version 3.5 для Hyper-V можно по этой ссылке. Распаковка платформы Dell VRTX от компании ИТ-ГРАД. 25/12/2013
На этот раз сайте компании ИТ-ГРАД появился отличный обзор платформы Dell VRTX, где показывают как выглядит «идеальное серверное решение для средних и малых предприятий, удаленных офисов и филиалов». Dell VRTX сочетает в себе интегрированные серверы, систему хранения данных и сетевые компоненты в компактном корпусе, оптимизированном для офисных сред.
Снимки сделаны на реальной системе!

Dell PowerEdge VRTX предлагается в двух форм-факторах:
- Tower – для размещения на полу или на столе
- 5U — для размещения в серверной стойке.
Решение VRTX может включать в себя до четырех серверов 12-го поколения Dell PowerEdge M620 (или M520) и встроенный коммутатор 1GbE с 16 внутренними портами 1GbE и 8 внешними портами в стандартной комплектации.
Коробка с шасси и дисками весит около 50 кг, блейд-сервера легче, они упакованы в индивидуальные коробки. Вытаскиваем массивную железную корзину, за картонные ручки по бокам. Ставим на пол.

Вес корзины (пустой) равен 24.7кг, вес максимальный = 68.7кг.
Размеры корзины внушительны и занимают 5 юнитов в высоту. По габаритам (В х Ш х Г): 21.9 см х 48.2 см х 73.0 см.
Всю систему можно разделить на 2 части – верхняя для системы хранения данных, нижняя – для серверных модулей.

Дисковая корзина содержит 25 SAS дисков емкостью 900 ГБ, скоростью вращения 10К и размером 2,5'. Суммарная емкость корзины насчитывает 30 ТБ. Есть и другая конфигурация, содержащая 12 накопителей форм-фактора 3,5’’ и суммарной емкостью 48 ТБ.
Все подробности процесса дальнейшей распаковки и инсталляции системы Dell VRTX можно прочитать на сайте компании ИТ-ГРАД. Распаковка платформы Dell VRTX от компании ИТ-ГРАД. 25/12/2013
На этот раз сайте компании ИТ-ГРАД появился отличный обзор платформы Dell VRTX, где показывают как выглядит «идеальное серверное решение для средних и малых предприятий, удаленных офисов и филиалов». Dell VRTX сочетает в себе интегрированные серверы, систему хранения данных и сетевые компоненты в компактном корпусе, оптимизированном для офисных сред.
Снимки сделаны на реальной системе!

Dell PowerEdge VRTX предлагается в двух форм-факторах:
- Tower – для размещения на полу или на столе
- 5U — для размещения в серверной стойке.
Решение VRTX может включать в себя до четырех серверов 12-го поколения Dell PowerEdge M620 (или M520) и встроенный коммутатор 1GbE с 16 внутренними портами 1GbE и 8 внешними портами в стандартной комплектации.
Коробка с шасси и дисками весит около 50 кг, блейд-сервера легче, они упакованы в индивидуальные коробки. Вытаскиваем массивную железную корзину, за картонные ручки по бокам. Ставим на пол.

Вес корзины (пустой) равен 24.7кг, вес максимальный = 68.7кг.
Размеры корзины внушительны и занимают 5 юнитов в высоту. По габаритам (В х Ш х Г): 21.9 см х 48.2 см х 73.0 см.
Всю систему можно разделить на 2 части – верхняя для системы хранения данных, нижняя – для серверных модулей.

Дисковая корзина содержит 25 SAS дисков емкостью 900 ГБ, скоростью вращения 10К и размером 2,5'. Суммарная емкость корзины насчитывает 30 ТБ. Есть и другая конфигурация, содержащая 12 накопителей форм-фактора 3,5’’ и суммарной емкостью 48 ТБ.
Все подробности процесса дальнейшей распаковки и инсталляции системы Dell VRTX можно прочитать на сайте компании ИТ-ГРАД.
Бесплатная утилита Disk2vhd v2.0 для конвертации физических дисков в виртуальные для платформы Microsoft Hyper-V. 24/12/2013
Не так давно небезызвестный Марк Руссинович и его коллега Bryce Cogswell выпустили вторую версию утилиты Disk2vhd v2.0, позволяющей конвертировать физический диск компьютера в виртуальный диск формата VHD или VHDX, который можно подключить к виртуальным машинам на платформе Microsoft Hyper-V.

Виртуальная машина, запущенная в хостовой ОС, из которой она была сделана с помощью Disk2vhd:

Утилиту можно использовать на "горячей" системе, так как она использует механизм Volume Shadow Copy (VSS) для создания консистентного снапшота данных физического диска. В отличие от аналога на платформе vSphere - VMware Converter, который позволяет не только конвертировать диск, но и добавить необходимые драйверы виртуальных устройств при миграции, утилита Disk2vhd позволяет только получить VDH/VHDX-диск, после чего его можно подключить его как IDE-устройство к виртуальной машине.
На странице утилиты Disk2vhd утверждается, что инъекция драйверов отдельно и не требуется - после подключения диска к виртуальной машине, ОС Windows сама обнаружит и установит все необходимые драйверы (надо отметить, что для старых версий Windows этот процесс не обязательно завершится удачно).
Disk2vhd можно запускать на Windows XP SP2, Windows Server 2003 SP1 или более поздних версиях Windows, включая 64-битные системы. Помните, что OEM-версии Windows переносить в виртуальные машины может быть запрещено в соответствии с лицензией.
Формат использования утилиты:
disk2vhd <[drive: [drive:]...]|[*]> <vhdfile>
Например:
disk2vhd * c:\vhd\snapshot.vhd
Скачать Disk2vhd можно абсолютно бесплатно по этой ссылке. Как перенести кластер StarWind iSCSI SAN с Windows 2008 на Windows 2012 R2. 24/12/2013
Продолжаем рассказывать о решении StarWind iSCSI SAN, предназначенном для создания отказоустойчивых iSCSI-хранилищ для виртуальных машин (есть версия как для VMware, так и для Hyper-V).
Многих пользователей StarWind волнует вопрос о миграции хранилищ с Windows 2008 на Windows 2012 R2, которую они планируют сделать одновременно с обновлением на StarWind V8.

Вот простой алгоритм, как правильно обновить ОС узлов StarWind iSCSI SAN и (опционально) обновить сам продукт на новую версию:
- Используя Replication manager, необходимо отсоединить все узлы-партнеры от устройств первого узла (StarWind1).
- На этом узле (StarWind1) нужно установить новую ОС.
- Далее нужно установить StarWind V6 на этом узле.
- Ко всем устройствам на StarWind1 нужно добавить их HA-партнеров через Replication manager и запустить синхронизацию.
- Дождаться окончания синхронизации и соединиться с новыми таргетами.
- Удалить всех HA-партнеров от второго (StarWind2) через Replication manager.
- Установить новую ОС на StarWind2.
- Установить StarWind V6 на StarWind2.
- Добавить партнеров ко всем HA-устройствам на узле StarWind2 через Replication manager.
- Дождаться окончания синхронизации и соединиться с новыми таргетами.
- Обновить
StarWind V6 на StarWind V8, следуя вот этой процедуре.
Более подробно этому посвящена вот эта ветка форума StarWind. Низкая производительность RDM-диска при использовании в качестве кворумного диска кластера MSCS в VMware vSphere 5.1 и ниже. 23/12/2013
Коллеги рассказали про интересный случай: создали RDM-диск для двух виртуальных машин MSCS-кластера "across boxes", подцепили его к виртуальным машинам на двух хостах ESXi, а производительность на нем упала до 10 МБ/сек, хотя этот диск находится на быстром FC-хранилище EMC VNX и скорость должна измеряться сотнями МБ/сек. При этом в качестве хост-платформы используется VMware vSphere 5.1.
Ответ оказался простым - для хранилищ EMC VNX хост ESXi выставляет политику путей по умолчанию Round Robin (балансировка по двум путям). При использовании кластера MSCS на кворумном диске вызываются SCSI-3 резервации. SCSI-3 резервация (registration) посланная по одному пути позволяет производить дальнейшие резервации или SCSI-команды только по этому пути.
А при использовании политики Round Robin, когда плагин PSP_RR переключает на другой путь, кластер MSCS получает ошибку и пробует сделать SCSI-3 резервацию повторно или выполнить другие команды.
Поэтому вместо политики Round Robin для конкретного хранилища и для данного RDM-диска надо использовать следующие политики путей (плагины PSP_MRU или PSP_FIXED), в зависимости от типа хранища. Они приведены в KB 1010041 и в таблице ниже:
Дисковый массив
| Плагин SATP
| Политика путей для использования с MSCS
|
EMC Clariion |
ALUA_CX |
FIXED |
EMC Symmetrix |
SYMM |
FIXED |
EMC VNX |
ALUA_CX |
FIXED |
HITACHI |
DEFAULT_AA |
FIXED |
IBM 2810XIV |
ALUA |
MRU |
IBM 2810XIV |
DEFAULT_AA |
FIXED |
NETAPP Data ONTAP 7-Mode |
DEFAULT_AA |
FIXED |
Для того, чтобы выставить политику путей, нужно в разеле Storage в vSphere Client выбрать нужный HBA-адаптер и устройство, для которого создан RDM-диск, и из его контекстного меню выбрать пункт Manage Paths (это также можно сделать в свойствах виртуальной машины для диска):

После выставления корректной политики путей скорость для кворумного диска MSCS вырастет в разы. Кстати, если вы используете VMware vSphere 5.5 и выше, то такого поведения там уже нет, и все работает корректно.
О новых возможностях VMware vSphere 5.5 по поддержке кластеров MSCS мы уже писали вот тут. Теперь vGate R2 от компании Код Безопасности можно купить онлайн по кредитной карте. 22/12/2013
Мы много пишем про продукт vGate R2, который предназначен для защиты виртуальной инфраструктуры VMware vSphere средствами политик безопасности для хост-серверов и виртуальных машин, а также средствами защиты от несанкционированного доступа. Не так давно мы писали про то, что компания «Код Безопасности» выпустила технический релиз продукта vGate R2 версии 2.6.
А эта новость про то, что теперь vGate R2 можно купить онлайн в интернет-магазине Softline. Недавно компания «Код Безопасности» подписала соглашение о сотрудничестве с интернет-магазином Softline, в рамках которого он становится первым авторизованным центром онлайн-продаж продуктов российского разработчика.

Заказчики компании «Код Безопасности» получают возможность сделать заказ на сайте интернет-магазина, оплатить его банковской картой или банковским платежом и в кротчайшие сроки получить поставку (ссылку на дистрибутив, лицензионный ключ и документы). Для заказа и покупки в интернет-магазине Softline доступна также вся линейка продуктов Кода Безопасности.
Эта штука будет полезна всем тем, кто находится в регионах и не имеет прямой возможности быстро купить продукты Кода Безопасности. Подробнее о решении vGate можно узнать на этой странице.
Microsoft выпустила средство Assessment and Planning Toolkit 9.0 (MAP) и пару полезных доков. 20/12/2013
Мы уже писали о решении Microsoft Assessment and Planning Toolkit 8.5 (MAP), предназначенном для проведения обследования инфраструктуры компании на предмет возможности миграции на платформу Windows 8, размещения физических серверов в ВМ на Hyper-V (или физических серверов на платформе Windows Server 2012), возможности миграции в облако Windows Azure, а также готовности пользовательского окружения к Microsoft Office 2013.
Кроме всего прочего, MAP позволяет отслеживать использование таких решений, как Lync Server 2013, SharePoint Server 2013, Exchange Server 2013, System Center Configuration Manager 2012 и SQL Server 2012.
На днях компания Microsoft выпустила Assessment and Planning Toolkit 9.0, который, по традиции, доступен пользователям полностью бесплатно.

В Microsoft MAP 9.0 появились следующие новые функции:
- Сценарий по идентификации и инвентаризации окружения Server and Cloud Enrollment (SCE), которое доступно в рамках Microsoft Enterprise Agreement на базе различных серверных и облачных продуктов Microsoft.
- Сценарий RDS Licensing, который предоставляет единый отчет по использованию всех лицензий RDS.
- Поддержка инвентаризации продуктов Microsoft по тэгу Software ID (SWID).
- Улучшенный трекинг использования SQL Server 2012, поддерживающий User Access Logging (UAL).
Скачать Microsoft Assessment and Planning Toolkit 9.0 можно по этой ссылке.
Кроме этого, компания Microsoft выпустила бесплатную книгу "Introducing Microsoft System Center 2012 R2", в которой на 166 страницах можно прочитать о составе компонентов решения System Center последней версии, их назначении и принципах использования в инфраструктуре предприятия, а также интеграции с публичным облаком средствами Windows Azure Pack.

Содержание:
- System Center and the Cloud OS
- Provisioning infrastructure with Virtual Machine Manager
- Provisioning self-service with App Controller
- Managing and maintaining with Configuration Manager
- Backup and Recovery with Data Protection Manager
- Real-time monitoring with Operations Manager
- Proactive monitoring with Advisor
- Standardization with Service Manager
- Automation with Orchestrator
- Windows Azure Pack
Также интересующимся сервисами публичного облака Microsoft Azure будет интересен документ "Windows Azure Network Security", в котором затрагиваются аспекты обеспечения информационной безопасности виртуальных сетей.

Cisco запускает свои виртуальные десктопы в аренду: "DaaS with Citrix" и "DaaS with Desktone by VMware". 19/12/2013
В последнее время уже не модно объявлять о старте своего IaaS-решения по предоставлению виртуальных серверов в аренду (напомним, последней об этом объявила компания Google). Всем уже это стало не в новинку, а рынок в этом сегменте начинает уже замедлять темпы набора оборотов. Теперь модно говорить о предоставлении в аренду собственных виртуальных ПК для каждого пользователя (DaaS, Desktop-as-a-Service) - напомним, совсем недавно об этом объявила небезызвестная компания Amazon со своим решением WorkSpaces.
Суть метода проста - берется серверная ОС Windows Server 2008 (или какая-нибудь другая) и кастомизируется таким образом словно это Windows 7. Выглядит это как по-настоящему:

На такие ухищрения приходится идти, поскольку Microsoft по-прежнему на уровне лицензии запрещает предоставление в аренду виртуальных ПК с клиентскими гостевыми ОС.
Теперь вот и компания Cisco присоединилась к клубу публичного DaaS - на днях были анонсированы проекты "DaaS with Citrix" и "DaaS with Desktone by VMware".


Как не трудно догадаться, в первом случае решение будет построено на базе продукта Citrix XenDesktop и технологии Application Orchestation, а во втором - на базе решения Desktone, которое недавно было куплено компанией VMware.
С точки зрения бэкэнда, это все строится на базе блейд-платформы Cisco Unified Computing System (UCS), для которой заявляется размещение до 252-х виртуальных ПК на одном физическом блейде.

Все это поддерживает новомодные функции 3D-графики в виртуальных ПК и предоставляет средства самообслуживания для пользователей на базе пакета UCS Solution Accelerator Pack.
Решение DaaS от Citrix будет распространяться через публичные облака следующих партнеров в зависимости от региона:
- Регион NAM - ChannelCloud, Logicalis, Proxios, Netelligent, Quest.
- Регион APJC - Dimension Data.
- Регион EMEAR - Adapt и ANS Group.
Более подробно о DaaS-решении Cisco можно узнать из пресс-релиза, а узнать детали по теме DaaS можно по этой ссылке. Ну а для тех, кто хочет знать, как все устроено - вот эта ссылка. Новый Fling на VMware Labs: Real-Time Audio-Video Test Application (RTAV). 18/12/2013
Как знают многие администраторы VMware, на сайте проекта VMware Labs часто появляются полезные штуки и мы про них так же часто пишем. На этот раз очередная нужная вещь для пользователей VMware Horizon View - средство тестирования аудио и видео в реальном времени в виртуальном ПК - Real-Time Audio-Video Test Application (RTAV).
Приложение позволяет убедиться в том, что производительность аудио и видео в реальном времени удовлетворительная, путем непрерывного воспроизведения виртуального видеопотока с веб-камеры и замыкания на себя аудио-дорожки:


(надо отметить что при использовании видео+аудио режима они могут быть несинхронизированы - это нормально, для приложений все будет работать синхронно)
Раньше надо было ставить в виртуальной машине какой-нибудь Skype или WebEx, чтобы протестировать производительность, а теперь ничего такого делать не надо - просто ставите утилиту RTAV в виртуальном ПК и все. Кроме этого, это приложение можно использовать и для нагрузочного тестирования инфраструктуры VMware Horizon View.
Возможности утилиты:
- Отображение картинки с веб-камеры в режиме разрешения 1:1.
- Автоматический старт передачи картинки сразу после запуска (аудио-поток будет замкнут на себя, если выбран этот вариант, то audio-in будет перенаправлен на audio-out).
- Не требуется создавать никаких аккаунтов.
- Поддержка устройства VMware Virtual Webcam, а также физических камер ноутбуков и ПК.
- Работа как на x86, так и на x64 операционных системах.
Для приложения потребуется установить пакет Microsoft 2008 C++ x86 (SP1) вот по этой ссылке.
Скачать Real-Time Audio-Video Test Application
(RTAV) можно по этой ссылке. Вышел Citrix XenServer 6.2 Service Pack 1. 17/12/2013
В июне этого года компания Citrix передала свою платформу XenServer сообществу Open Source и выпустила версию XenServer 6.2. Теперь вот к концу года вышел пакет обновления Citrix XenServer 6.2 Service Pack 1.

Помимо множественных багофиксов (о них подробнее можно прочитать в Release notes) в продукте появились следующие новые функции:
- Полноценная поддержка 3D-графики для NVIDIA GRID GPU (подробнее об этом мы писали тут).
- Улучшения режима прямого проброса графического модуля (GPU pass-through).
- Поддержка гостевых ОС Windows 8.1 и Windows Server 2012 R2.
- Улучшения мастера Site Recovery для обеспечения большой инсталляции решения (подключение большого количества FC LUN).
- Поддержка создания до 50 новых устройств HBA SR при развертывании.
- Улучшения в плане безопасности.
Скачать бесплатный Citrix XenServer 6.2 Service Pack 1 можно по этой ссылке. Компания VMware выпустила vCloud Hybrid Service vSphere Client Plug-in 1.0. 16/12/2013
Мы уже много писали о публичном облаке VMware vCloud Hybrid Service (vCHS), которое еще пока недоступно в России, но уже серьезно набирает обороты в штатах (и скоро будет в UK). Также некоторые из вас помнят, что VMware предлагает средство vCloud Connector, которое представляет собой бесплатный плагин к VMware vCenter (управляется через Web Client), с помощью которого пользователь частной виртуальной инфраструктуры может перемещать свои виртуальные машины в облако сервис-провайдера, который также работает на платформе VMware.
Однако до настоящего момента так и не было полноценного средства, позволяющего объединить частную инфраструктуру предприятия и соответствующий сегмент публичного облака vCHS (в том числе, на базе технологий VXLAN). Теперь такая возможность есть - вышел VMware vCloud Hybrid Service vSphere Client Plug-in 1.0.

Данный плагин работает только под vSphere Web Client версии 5.5. С помощью плагина можно делать следующие вещи:
- Администрировать ресурсы на стороне публичного облака VMware (как в режиме Dedicated Cloud, так и в режиме Virtual Private Cloud).
- Просматривать инвентори виртуальных машин и управлять виртуальными датацентрами.
- Развертывать виртуальные машины из шаблонов, находящихся в каталоге, а также изменять конфигурацию существующих ВМ.
- Автоматически получать обновления любых изменений, сделанных через vCHS web portal.
Системные требования для установки плагина:
- vSphere Web Client 5.5 (старый C+ Client не поддерживается).
- Аккаунт на vCloud Hybrid Service.
- Совместимые браузеры:
- Windows: Firefox, Chrome и Internet Explorer.
- Mac: Chrome и Safari (доступ к консоли ВМ не работает для Mac).
- Linux: Firefox и Chrome.
Однако плагин не заменяет основной портал VMware vCHS, так как только там можно делать следующее:
- Создавать или изменять роли пользователей.
- Добавлять пользователей к виртуальным датацентрам.
- Создавать новые виртуальные сети.
- Настраивать шлюзы и сетевые службы, такие как сетевой экран и NAT.
- Настраивать бэкап виртуальных машин.
- Просматривать виртуальные ресурсы по регионам.
На сайте VMware есть интересные презентации на тему vCHS vSphere Client Plug-in:
Документация доступна по этой ссылке (самый полезный док тут), а скачать vCloud Hybrid Service vSphere Client Plug-in можно по этой ссылке. Скидка недели - 25% на решения StarWind iSCSI SAN & NAS и StarWind Native SAN for Hyper-V. 15/12/2013
Продолжаем заслуженно нахваливать решение StarWind iSCSI SAN, предназначенное для создания отказоустойчивых iSCSI-хранилищ для виртуальных машин (есть версия как для VMware, так и для Hyper-V). Не так давно мы о новых возможностях второй беты продукта StarWind V8, который выйдет уже совсем скоро, а пока можно купить StarWind iSCSI SAN & NAS или StarWind Native SAN for Hyper-V со скидкой 25% (только на этой неделе).
К сожалению, предложение недоступно в России (а также Австрии и Швейцарии), но если у вас есть возможность купить через компанию в другой стране - то сейчас самое время.

А потом можно будет совершенно бесплатно обновиться на StarWind iSCSI SAN V8, где будет масса новых возможностей.
Как работает техника Flash URL Redirection в VMware Horizon View. 13/12/2013
Недавно мы писали про релиз обновленной версии решения для виртуализации настольных ПК предприятия VMware Horizon View 5.3, а также о новых возможностях HTML Access в Feature Pack 1. Сегодня мы вкратце расскажем еще об одной возможности - Flash URL Redirection.
Эта функция позволяет перенаправить Flash-видеопоток сервера Adobe Media Server на ОС устройства доступа клиента, минуя виртуальный ПК. Это, само собой, позитивно влияет на производительность вывода такого типа графики.
Эти возможности появились еще в VMware Horizon View 5.2 Feature Pack 2, но были доступны только для мультикастового режима стриминга, а теперь они стали доступны и для юникастового:
| Horizon View 5.2 + FP2
| Horizon View 5.3 + FP1
|
View Client 2.2 |
Windows View Client 5.4 / Linux View Client 2.1 |
View Client 2.2 |
Windows View Client 5.4 / Linux View Client 2.1 |
Flash URL Redirection – Multicast Stream |
Да |
Да |
Да |
Да |
Flash URL Redirection – Unicast Stream |
Нет |
Нет |
Да |
Да |
Кстати, обратите внимание, что в VMware View 5.3 Windows-клиент имеет версию 2.2, а раньше было 5.4 - это сделано для того, чтобы поддерживать единый темп с остальными клиентами платформы. То есть текущая версия 2.2 новее, чем 5.4.
Для возможности Flash URL Redirection поддерживается следующее окружение:
Браузер:
- IE8, IE9, IE10
- Firefox 20.x
- Chrome 26.x
- Другие браузеры тоже могут работать, но не тестировались
Гостевая ОС виртуального ПК:
- Windows 7, 32- или 64-bit
- Windows 7 SP1, 32- или 64-bit
ОС клиента, где работает View Client:
- Windows XP/Vista/7/8/8.1
- Ubuntu 10.04
- Другие ОС тоже могут работать, но не тестировались
Используемый протокол должен быть PCoIP.
Работает эта штука при соблюдении следующих условий:
- Flash URL Redirection должен быть установлен в гостевой ОС виртуального ПК (View Remote Experience Agent).
- Нужно особым образом настроить MIME HTML (MHTML) страницы, в которых встраиваются swf-объекты.
- Служба ViewMP должна работать только в PCoIP-сессии.
Первое - устанавливаем агент в гостевые ОС виртуальных ПК

Второе - настраиваем Adobe Media Server
Для этого в код страницы, где вставляется swf-объект (swfobject.js) должна быть вставлена ссылка на скрипт viewmp.js следующим образом:
<script type=”text/javascript” src=”swfobject.js”></script>
…
<script type=”text/javascript” src=”http://localhost:33333/viewmp.js”></script>
Также нужно еще определить переменные для показа нужного текста при открытии плеера в окне ОС, где установлен клиент Horizon View:
var vmwareScriptErrorMessage="localized error message"
var vmwareFlashContentHTML="<h1>Thank you for choosing VMware. The video is being redirected to a new window.</h1>"
Третье - проверяем работу Flash URL Redirection
Сначала нужно убедиться, что в виртуальном ПК запущена служба ViewMPServer.exe. После этого переходим на нужную веб-страницу и видим, как в новом окне открывается Flash Media Projector и играет ролик не в виртуальном ПК, а сразу в клиентской ОС:

Все просто. Документация:
Как добавлять и сравнивать данные о производительности VMware ESXi, полученные средствами ESXTOP, с помощью Windows Perfmon. 12/12/2013
Мы очень много писали о том, как с помощью утилиты esxtop можно собирать с хостов VMware ESXi данные о производительности и различные метрики (например, тут и тут). Данные, полученные с помощью этой утилиты, очень часто помогают разобраться в источнике проблем в части вычислительных ресурсов, хранилищ и сетевого взаимодействия.
В этой заметке мы поговорим немного о визуализации данных esxtop. Не так давно мы писали об утилите VisualEsxtop, которая как раз тем самым и занимается - строит графики по наборам данных. Но недавно мы наткнулись на простой способ, позволяющий с помощью Windows Perfmon сравнивать наборы данных esxtop с разных хостов ESXi.
1. Итак, сначала нужно собрать данные с хоста ESXi в пакетном режиме в файл .csv. Например:
esxtop -b -d 10 -n 360 > esxtopresults.csv
Здесь:
- -b - означает пакетный режим работы утилиты.
- -d (delay) - промежуток между срезами сбора данных.
- -n - число число таких срезов (сэмплов).
В данном случае будет собрано 360 сэмплов данных с промежутком в 10 секунд, то есть сбор займет 1 час.
Можно сжать результаты, чтобы экономить место на хосте, командой:
esxtop -b -d 10 -n 360 | gzip > esxtopresults.csv.gz
2. Загружаем данные в Windows Perfmon, выбрав источник - наш файл csv:

Визуализируем нужные счетчики:

3. Пробуем добавить еще один csv с другого хоста ESXi (с которым мы хотим сравнить данные первого хоста), но нам говорят, что так нельзя - можно такие файлы смотреть только по одному:

Не беда - сохраняем данные как бинарный файл с расширением *.blg, выбрав нужные счетчики:

Дальше просто удаляем этот файл из источников данных Perfmon, добавляем второй csv-файл и так же сохраняем его как *.blg.
Ну а дальше оба этих файла добавляем по одному - и все работает:

Добавляем сохраненные счетчики:

И данные с обоих хостов показываются на одном графике:

Источник заметки: www.viktorious.nl. Компания VMware выпустила vCenter Operations Manager 5.8 (VCOPS) и vCloud Automation Center 6.0 (vCAC) 11/12/2013
На прошедшей не так давно конференции VMworld 2013 Europe компания VMware, среди прочего, анонсировала новые версии продуктов для управления, автоматизации и мониторинга ИТ-среды предприятия. Сегодня вышли финальные версии следующих решений:

- VMware vCloud Automation Center 6.0 - продукт для управления облачной инфраструктурой предприятия (SaaS, PaaS, IaaS) средствами единого решения, построенного поверх VMware vCloud Director (для IaaS-инфраструктуры) и разработанного на базе решения DynamicOps (бывший продукт Virtual Resource Manager, VRM). О нем мы уже писали вот тут.

Напомним основные новые возможности vCenter Operations Manager 5.8 (VCOPS):
- Monitor business critical applications - поддержка мониторинга бизнес-приложений, например, Microsoft Exchange Server и SQL Server.
- Monitor fiber channel storage - комплексный многоуровневый мониторинг FC-хранилищ.
- Monitor Hyper-v servers - полноценная поддержка мониторинга серверов Hyper-V.
- Monitor Amazon AWS services - поддержка мониторинга сервисов Amazon, включая EC2, Elastic Block Store, Elastic Map Reduce, Elastic Load Balancing и Auto Scaling Group средствами пакета AWS management pack. Данный MP работает совместно с Cloudwatch service (по REST API), предоставляемым Amazon.
- Поддержка средства VMware Log Insight для мониторинга инфраструктуры vCenter Operations Manager.
Release notes продукта vCenter Operations Manager 5.8 доступны по этой ссылке, а скачать его можно по этой.
Основные новые возможности vCloud Automation Center 6.0 (vCAC):
- Возможность для пользователей запрашивать различные приложения и отслеживать статус их развертывания (эта функция пришла из Application Director).
- Улучшенный механизм работы с политиками утверждения операций.
- Конечные пользователи могут откатывать системные обновления самостоятельно.
- Возможности связи решения со сторонними сервисами.
- Развертывание сервисов на базе политик.
- Новый Advanced Service Designer, предоставляющий обновленные средства проектирования пользовательских форм и рабочих процессов.
- Возможность интеграции с продуктом IT Business Management Standard Edition.
- Поддержка VMware vCloud Hybrid Service, в том числе выполнения административных задач с ВМ, размещенными там.
- Поддержка архитектуры OpenStack (в дополнение к существующим vSphere, vCloud Director, Amazon Web Services, Hyper-V, Kernel-based Virtual Machine, Citrix XenServer и различным интерфейсам управления физическими серверами).
- Доступ к виртуальным машинам через Remote Console.
- Поддержка динамического создания изолированных и маршрутизируемых сетей и балансировщиков нагрузки.
- Поддержка хранилищ VSAN для размещения виртуальных машин.
- Поддержка механизма Storage DRS.
- Поддержка служб LDAP.
- Улучшения Multi-tenancy (работа с несколькими организациями в одном окружении).
- Механизм Verb-oriented RESTFUL API в бета-версии.
Release notes продукта vCloud Automation Center 6.0 доступны по этой ссылке, а скачать его нельзя - надо связываться с VMware. Xen Project выпустил Mirage OS 1.0 - средство для создания специализированных виртуальных модулей на базе Xen. 10/12/2013
Некоторое время назад мы писали про то, что проект Xen был передан в Linux Foundation. А на днях сообществом Xen Project была анонсирована первая релизная версия операционной системы Mirage OS 1.0. Этот открытый проект был начат еще в 2009 году при совместном сотрудничестве студентов Кембриджского университета и специалистов компании Citrix.
Что представляет собой Mirage Operating System? Большая часть виртуальных машин сегодня выполняет одну задачу, но при этом это приложение запущено поверх операционной системы, которая имеет множество различных служб и утилит, которые не используются, но создают большую площадь атаки. Основная идея проекта Mirage OS заключается в том, чтобы создать "виртуальную машину одного приложения", которая сможет исполняться на гипервизоре Xen, который работает в большинстве публичных облаков крупнейших сервис-провайдеров. Кроме этого, предполагается, что специализированные модули Mirage можно будет использовать на планшетах и смартфонах.
Mirage OS имеет собственное микроядро (unikernel), к которому с помощью любой десктопной ОС Linux или Mac OS можно на высокоуровневом языке OCaml прикрутить необходимое приложение (например, DNS-сервер на 200 Кб), после чего это все уже компилируется в специализированную виртуальную машину, выполняющую определенную функцию и не имеющую в своем составе ничего лишнего, не относящегося к ее задаче.

На данный момент для языка OCaml в Mirage OS существует более 50 библиотек с различными расширениями. Кроме того в ОС полноценно реализованы протоколы TCP/IP, DNS, SSH, Openflow (switch/controller), HTTP, XMPP и внутренний транспорт межмашинной коммуникации Xen.
В Mirage OS используется следующая последовательность получения готового виртуального модуля:
- Сначала с помощью открытого менеджера пакетов OPAM добавляются необходимые модули. Он поддерживает одновременную установку нескольких окружений, гибкую работу с пакетами и рабочий процесс с репозиториями Git.
- Далее происходит сборка окружения с помощью одной утилиты CLI, которая позволяет сбилдить Xen unikernel так же просто, как и бинарники Unix.
- Затем Mirage OS сама создаст набор сигнатур модулей и запишет конфигурацию в единый файл.
Release notes для Mirage OS можно посмотреть здесь, а скачать исходники можно по этой ссылке. Более подробно о проекте можно почитать тут и тут. Как правильно клонировать виртуальную машину с VMware ESXi внутри. 09/12/2013
Многие администраторы и разработчики для своих целей используют VMware ESXi, работающий в виртуальной машине (так называемый Nested ESXi). Туда даже можно ставить свои VMware Tools.
При этом, когда требуется использовать виртуальные ESXi, как правило, их требуется несколько штук. Есть три способа получить их:
- Поставить заново и настроить - самый надежный, но долгий.
- Использовать процедуру автоматической установки и настройки Kickstart. Но тут надо знать, как это делается.
- Склонировать существующий экземпляр ESXi - самое простое решение, но сделать это нужно правильно.
Вильям Лам описал третий вариант процедуры подготовки ESXi к клонированию, после проведения которой можно развертывать эти инстансы легко и просто. В результате у новых ESXi будут свои MoRef ID, UUID, BIOS UUID и MAC-адреса.
Итак, что нужно сделать:
1. Смена MAC-адреса VMkernel при смене MAC-адреса сетевого интерфейса VM Network.
Если развертывать новый ESXi с новым MAC-адресом Virtual machine network, то необходимо также поменять MAC-адрес VMkernel. Для этого есть настройка FollowHardwareMac, которая позволяет делать это автоматически.
Для этого выполняем команду консоли ESXCLI:
esxcli system settings advanced set -o /Net/FollowHardwareMac -i 1

2. Удаляем упоминание об UUID из esx.conf.
Запись о системном UUID сервера ESXi хранится в основном конфигурационном файле esx.conf (/etc/vmware/esx.conf). Нужно удалить строчку с упоминанием этого UUID - и тогда он сгенерируется при следующей загрузке.

После этого можно выключать ВМ с виртуальным VMware ESXi и клонировать ее. При загрузке новой ВМ, естественно, нужно поменять IP-адрес и прочую сетевую идентификацию.
В комментариях к заметке Вильяма пишут, что такой способ можно использовать для клонирования LUN, содержащего образ для загрузки ESXi по SAN.
Вышел Veeam ONE 7.0 R2 - поддержка новых версий vSphere 5.5 и Hyper-V в Microsoft Windows Server 2012 R2. 09/12/2013
Не так давно мы писали о том, что компания Veeam Software выпустила новую версию решения для резервного копирования и репликации виртуальных машин Veeam Backup & Replication v7.0 R2 с поддержкой VMware vSphere 5.5, vCloud Director 5.5 и Microsoft Windows Server 2012 R2.
Выдерживая последовательность в релизах, компания Veeam также обновила свое решение для мониторинга и отчетности в виртуальной инфраструктуре, выпустив Veeam ONE 7.0 R2.

Новые возможности обновления Veeam ONE:
VMware
- Поддержка vSphere 5.5.
- Поддержка vCloud Director 5.5.
Microsoft
- Поддержка Windows Server 2012 R2 с новым Hyper-V и бесплатного Hyper-V Server 2012 R2.
- Поддержка ВМ с гостевыми ОС Windows Server 2012 R2 и Windows 8.1.
- Поддержка новой версии средства управления System Center 2012 R2 Virtual Machine Manager (VMM).
- Поддержка установки продукта Veeam ONE и его компонентов на Windows Server 2012 R2 и Windows 8.1.
Обновленную версию Veeam ONE 7.0 R2 можно скачать по этой ссылке. О багофиксах написано тут. Бесплатные обучающие видео по VMware Horizon View и Horizon View Suite. 06/12/2013
Компания VMware не так давно выпустила обновление своего решения для виртуализации настольных ПК предприятия VMware Horizon View 5.3. Для тех, кому интересно, что и как работает, VMware также выпустила интересную серию обучающих видеороликов, как по View, так и для пакета продуктов Horizon Suite, куда входит VMware ThinApp 5.0.
Обзор VMware View 5.3:
Работа с Horizon Suite Administrator:
Представление компонентов продукта Horizon Suite для конечного пользователя:
Horizon View Offline Demo - работа без доступа к сети, в том числе с виртуализованными приложениями VMware ThinApp:
В VMware vCloud Hybrid Service стали доступны возможности Direct Connect. 05/12/2013
Мы уже немало писали об инфраструктуре публичного облака VMware vCloud Hybrid Service, которое позволяет предприятию взять виртуальные машины в аренду в датацентрах VMware и объединить их с ресурсами приватного облака.
На днях компания VMware обяъявила о доступности возможности прямого выделенного доступа (Direct Connect) к инфраструктуре vCHS по отдельным и защищенным каналам. Напомним также, что не так давно VMware еще объявила об открытии нового датацентра в UK и 4-го датацентра в Далласе.
Ранее к виртуальным машинам на vCHS можно было обращаться по IPsec VPN через интернет, теперь же доступно прямое соединение шириной до 10 Gbps, которое есть на данный момент только в штатах (а именно в датацентрах: Santa Clara, CA и Sterling) по договоренности с телекоммуникационными и сервис-провайдерами (например, Savvis).
При таком типе соединения полностью поддерживаются технологии, основанные на VXLAN, для организации единых виртуальных сетей, охватывающих собственный ЦОД и датацентр провайдера.

На данный момент в блоге VMware уже можно посмотреть на реальный кейс использования возможностей Direct Connect для облака vCHS.
Для различных типов аренды облака доступны следующие каналы:
- Dedicated Cloud: 1 or 10 Gbps port connection
- Virtual Private Cloud: 1 Gbps port connection
Напомним, что у компании Amazon, с которой конкурирует VMware, в облаке AWS также есть возможности Direct Connect. Компания StarWind Software получила вторую премию Storage, Virtualization, Cloud (SVC) Awards 2013. 05/12/2013
Продолжаем рассказывать о решении StarWind iSCSI SAN & NAS, предназначенном для создания отказоустойчивых iSCSI-хранилищ для виртуальных машин, которое скоро получит еще больше новых возможностей, о которых мы писали в посте про вторую бету продукта StarWind V8.
В октябре мы писали о том, что компания StarWind попала в шортлист награды Storage, Virtualization, Cloud (SVC) Awards 2013 сразу в двух номинациях: "Virtualization Management Product of the Year" и "Storage Virtualization Product of the Year".

Ну а недавно пришла новость о том, что продукт StarWind занял второе место в обеих этих категориях, с чем мы и сердечно поздравляем коллег!

Более подробно об этом можно прочитать в пресс-релизе компании StarWind.
Кстати, если ваша организация не из России (а, например, из Украины), и вы хотите приобрести продукты StarWind iSCSI дешевле, то сейчас действует предновогодняя скидка - до 30%. IaaS-инфраструктура Google Compute Engine доступна публично. 04/12/2013
Некоторое время назад мы писали про анонсированную IaaS-инфраструктуру компании Google, позволяющую брать в аренду виртуальные машины, в том числе большой мощности для сложных вычислений, которая называется Google Compute Engine (GCE).
На днях платформа Google Compute Engine стала доступна публично.
Для арендуемых инстансов предоставляется поддержка в режиме 24/7 и SLA по доступности на уровне 99.95% (хотя от Google мы ожидали большего - например, 99,99%). Очевидно, что во многом GCE конкурирует с Amazon AWS, о чем говорит снижение цен на 10% на инстансы Standard.
Вот что нового появилось с момента анонса Google Compute Engine:
- Expanded operating system support - GCE теперь поддерживает любой Linux-дистрибутив (не из коробки), при этом доступные инстансы с кастомизацией от Google - это дистрибутивы Debian и Centos. Также скоро обещают SUSE, Red Hat Enterprise Linux и FreeBSD.
- Live migration technology and automatically restart - теперь можно переносить виртуальные машины в горячем режиме и автоматически перезапускать их в случае сбоев. Все это объединено под эгидой техник transparent maintenance. Пока фича доступна только для US, но в течение нескольких месяцев будет доступна и для всех остальных стран.
- New 16-core instances- теперь появилось три новых инстанса, которые поддерживают до 16 ядер и до 104 ГБ RAM (пока как Limited Preview), чтобы размещать высокопроизводительные приложения, например, большие БД NoSQL.
- Faster, cheaper Persistend Disks - появились постоянные диски (подробнее тут), на которые снижена цена на 60% за ГБ и которые дают до 700% прироста по I/O.
- 10% Lower Prices for Standard Instances - снижение цен на инстансы Standard доступно для всех регионов.
Google Compute Engine будет конкурировать напрямую с AWS, используя мощные маркетинговые ресурсы и базу пользователей Google. Посмотрим, что получится у Гугла, с учетом того, что GCE вышла на рынок одной из последних, а Amazon был, по-сути, первым. Улучшения VMware vSphere 5.5 в механизмах работы с кластерами Microsoft MSCS. 03/12/2013
При каждом релизе платформы виртуализации VMware vSphere неизменно возникают вопросы о том, что же изменилось в плане поддержки гипервизором ESXi кластеров Microsoft Clustering Services (MSCS). Напомним, что базовая информация об этом находится здесь.
Вот какие варианты развертывания кластеров MSCS для различных приложений поддерживает VMware vSphere 5.5 (напомним, что о кластерах MSCS мы писали тут, тут и тут):
|
Microsoft
Clustering on
VMware
| vSphere
support
| VMware
HA
support
| vMotion
DRS
support
| Storage
vMotion
support
| MSCS
Node
Limits
| Storage Protocols support
| Shared Disk
|
FC |
In-Guest
OS iSCSI |
Native
iSCSI |
In-Guest OS SMB |
FCoE |
RDM |
VMFS |
Shared
Disk |
MSCS with
Shared Disk |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Exchange Single
Copy Cluster |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
SQL Clustering |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
SQL AlwaysOn
Failover Cluster
Instance |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Non
shared
Disk |
Network Load
Balance |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
Exchange CCR |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
Exchange DAG |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
SQL AlwaysOn
Availability
Group |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
А вот какие версии и конфигурации кластеров Microsoft поддерживаются для различных верси гостевых ОС Windows Server и VMware vSphere:
Clustering
Solution
| Support
Status
| Clustering Version
| vSphere
Version
|
MSCS with
shared disk |
Supported |
Windows Server 20031
Windows Server 2008
Windows Server 20122
Windows Server 2012 R24
|
4.x/5.x |
Network
Load Balance |
Supported |
Windows Server 2003 SP2
Windows Server 2008
Windows 2008 R2
|
4.x/5.x |
SQL clustering |
Supported |
Windows Server 20031
Windows Server 2008
Windows Server 20122
Windows 2008 R2
Windows Server 2012 R24
|
4.x/5.x |
SQL AlwaysOn
Failover Cluster Instance |
Supported |
Windows Server 2008 SP2 or higher
Windows Server 2008 R2 SP1 or higher
Windows Server 20122
Windows Server 2012 R24
|
4.x/5.x |
SQL AlwaysOn
Availability
Group |
Supported |
Windows Server 2008 SP2 or higher
Windows Server 2008 R2 SP1 or higher
Windows Server 20123
Windows Server 2012 R24
|
4.x/5.x |
Exchange
Single copy
cluster |
Supported |
Exchange 20031
Exchange 2007 |
4.x/5.x |
Exchange CCR |
Supported |
Windows 20031
Windows 2008 SP1 or higher
Exchange 2007 SP1 or higher
|
4.x/5.x |
Exchange DAG |
Supported |
Windows 2008 SP2 or higher
Windows 2008 R2 or higher
Windows Server 20123
Windows Server 2012 R24
Exchange 2010
Exchange 2013 |
4.x/5.x |
А теперь перейдем к нововведениям, касающимся поддержки MSCS в VMware vSphere 5.5:
1. Во-первых, к общему хранилищу узлов кластера MSCS может быть организован доступ по нескольким путям посредством политики Round Robin (модуль PSP_RR). Ранее это сделать было нельзя ввиду проблем со SCSI reservations. Теперь эта проблема решена.
Однако тут есть ограничения:
- Поддерживается только для гостевых ОС Windows 2008 и Windows 2012.
- Поддерживаются только конфигурации Cluster Across Boxes (CAB) и N+1. Системы "Cluster in a box" (CIB) используют Virtual Reservations.
- Общий диск (Quorum или Data) должен быть развернут в режиме pass-through RDM.
2. Во-вторых, появилась поддержка протоколов FCoE & iSCSI. Ранее полноценно в качестве общего хранилища для кластеров MSCS поддерживались только хранилища Fibre Channel, с оговорками iSCSI и как-то частично FCoE. Теперь же полноценно можно использовать iSCSI и FCoE хранилища.
А именно:
- Все конфигурации кластеров: CAB, CIB и N+1 поддерживаются iSCSI.
- Поддержка адаптеров iSCSI:
- Software iSCSI;
- Аппаратные адаптеры QLogic, Emulex и Broadcom.
- Поддержка режима Mixed mode для iSCSI-инициатора.
- До 5 узлов в кластере поддерживается для Windows 2008 SP2 и более поздних версий.
3. В-третьих, появилась поддержка кластеризации гостевых ОС Windows 2012 MSCS.
Если все это обобщить, то получится картинка, взятая отсюда:

Больше подробностей о поддержке MSCS в VMware vSphere 5.5 можно узнать из KB 2052238. Сайзинг кластеров хранилищ VMware VSAN в VMware vSphere и их отказоустойчивость. 02/12/2013
Как многие знают, в VMware vSphere 5.5 появились возможности Virtual SAN, которые позволяют создать кластер хранилищ для виртуальных машин на основе комбинации SSD+HDD локальных дисков серверов VMware ESXi. Не так давно вышла обновленная бета этого решения, кроме того мы не так давно писали о производительности VSAN тут и тут.
Сегодня же мы поговорим о том, как нужно сайзить хранилища Virtual SAN в VMware vSphere, а также немного затронем тему отказоустойчивости. Более детальную информацию можно найти в VMware Virtual SAN Design & Sizing Guide, а ниже мы расскажем о подходе к планированию хранилищ VSAN вкратце.
Объекты и компоненты Virtual SAN
Начнем с простого ограничения по объектам (objects) и компонентам (components), которое есть в VSAN. Виртуальные машины, развернутые на vsanDatastore, могут иметь 4 типа объектов:
- Домашняя директория виртуальной машины Virtual Machine ("namespace directory").
- Объект файла подкачки - swap object (для включенной ВМ).
- Виртуальный диск VMDK.
- Дельта-диски для снапшотов. Каждый дельта-диск - это отдельный объект.
Каждый объект, в зависимости от типа RAID, рождает некоторое количество компонентов. Например, один VMDK, размещенный на двух томах страйпа (RAID 0) рождает два объекта. Более подробно об этом написано вот тут.
Так вот, ограничения тут следующие:
- Максимальное число компонентов на 1 хост ESXi: 3000.
- Максимальное число компонентов для одного объекта: 64 (это включает в себя тома страйпов и также реплики VMDK с других хостов).
На практике эти ограничения вряд ли актуальны, однако о них следует знать.
Сколько дисков потребуется для Virtual SAN
Во второй бета-версии VSAN (и, скорее всего, так будет в релизной версии) поддерживается 1 SSD-диск и до 7 HDD-дисков в одной дисковой группе. Всего на один хост VMware ESXi поддерживается до 5 дисковых групп. Таким образом, на хосте поддерживается до 5 SSD-дисков и до 35 HDD-дисков. Надо убедиться, что контроллеры хоста поддерживают необходимое количество дисков, а кроме того нужно проверить список совместимости VSAN HCL, который постоянно пополняется.

Также надо учитывать, что кластер хранилищ Virtual SAN поддерживает расширение как путем добавления новых дисков, так и посредством добавления новых хостов в кластер. На данный момент VMware поддерживает кластер хранилищ максимум из 8 узлов, что суммарно дает емкость в дисках в количестве 40 SSD (1*5*8) и 280 HDD (7*5*8).
Сколько дисковой емкости нужно для Virtual SAN (HDD-диски)
Необходимая емкость под размещение VMDK зависит от используемого параметра FailuresToTolerate (по умолчанию 1), который означает, какое количество отказов хостов может пережить кластер хранилищ. Если установлено значение 1, то реплика одного VMDK будет размещена на дисках еще одного из хостов кластера:

Тут можно сказать о том, как работает отказоустойчивость кластера Virtual SAN. Если отказывает хост, на котором нет виртуальной машины, а есть только VMDK или реплика, то виртуальная машина продолжает работу с основной или резервной копией хранилища. В этом случае начнется процесс реконструкции реплики, но не сразу - а через 60 минут, чтобы дать время на перезагрузки хоста (то есть если произошел не отказ, а плановая или внеплановая перезагрузка), а также на короткие окна обслуживания.
А вот если ломается хост, где исполняется ВМ - начинается процедура восстановления машины средствами VMware HA, который перезапускает ее на другом хосте, взаимодействуя при этом с Virtual SAN.
Более подробно этот процесс рассмотрен вот в этой статье и вот в этом видео:
Однако вернемся к требующейся нам емкости хранилищ. Итак, если мы поняли, что значит политика FailuresToTolerate (FTT), то требуемый объем хранилища для кластера Virtual SAN равняется:
Capacity = VMDK Size * (FTT + 1)
Что, в принципе, и так было очевидно.
Сколько дисковой емкости нужно для Virtual SAN (SSD-диски)
Теперь перейдем к SSD-дискам в кластере VSAN, которые, как известно, используются для вспомогательных целей и не хранят в себе данных виртуальных машин. А именно, вот для чего они нужны (более подробно об этом тут):
- Read Cache - безопасное кэширование операций на чтение. На SSD-диске хранятся наиболее часто используемые блоки, что уменьшает I/O read latency для ВМ.
- Write Buffering - когда приложение внутри гостевой ОС пытается записать данные, оно получает подтверждение записи тогда, когда данные фактически записаны на SSD (не на HDD), таким образом твердотельный накопитель используется как буфер на запись, что небезопасно при внезапном пропадании питания или отказе хоста. Поэтому данные этого буфера дублируются на других хостах кластера и их SSD-дисках.
Так каковы же рекомендации VMware? Очень просты - под SSD кэш и буфер неплохо бы выделять 10% от емкости HDD-дисков хоста. Ну и не забываем про значение FailuresToTolerate (FTT), которое в соответствующее число раз увеличивает требования к емкости SSD.
Таким образом, необходимая емкость SSD-хранилищ равна:
Capacity = (VMDK Size * 0.1) * (FTT + 1)
Ну и напоследок рекомендуем отличнейший список статей на тему VMware Virtual SAN:
|