VMware VSAN HA | Как ведет себя кластер VMware Virtual SAN (VSAN) в случае сбоев дисков или хоста VMware vSphere / ESXi. |
| (0 Comment) |
Мы уже много писали о технологии VMware Virtual SAN (VSAN), которая позволяет создать отказоустойчивый кластер хранилищ для виртуальных машин на основе комбинации SSD+HDD локальных дисков серверов VMware ESXi. Не так давно вышла обновленная бетаэтого решения, кроме того мы не так давно писали о производительности VSAN тут.
В этой заметке (на базе статьи Дункана) мы поговорим о том, как кластер VSAN обрабатывает сбои различного типа, и как происходит восстановление работоспособности виртуальной машины без ее простоя.
Итак, в нормальном режиме функционирования, при значении параметра FailuresToTolerate равном 1, который означает, какое количество отказов хостов может пережить кластер хранилищ, реплика одного VMDK будет размещена на дисках еще одного из хостов кластера:

Тут можно заметить 5 особенностей кластера VMware VSAN:
- Виртуальный диск VMDK и его реплика всегда находятся на разных хост-серверах VMware vSphere.
- ВМ не обязательно должна исполняться на том хосте ESXi, на дисках которого находятся ее хранилища.
- Компонент witness находится на третьем по отоношению к виртуальному диску и его реплике хосте, чтобы создать определенность на случай разделения сети VSAN (где окажется 2 компонента из набора "vmdk-реплика-witness" - тот сегмент и будет определяющим).
- Сеть VSAN используется для операций ввода-вывода и определения доступности.
- Реплика VMDK-диска вместе с основной копией образуют RAID-1 массив, который увеличивает производительность операций чтения в виртуальной машине, так как для чтения используются оба хранилища.
Кроме того, вследствие особенностей реализации кластера VSAN, надо понимать, что команды ввода-вывода не применяются к диску данных виртуальной машины, пока не пришло подтверждение об их записи на реплике. Но подтверждение приходит не от HDD-диска, где находятся данные ВМ (это было бы очень медленно), а от SSD-диска, который используется как энергонезависимый Write Buffer для команд ввода вывода. Таким образом, этот буфер (и данные, само собой) зеркалирован в рамках дисковой группы на другом хосте ESXi.
Теперь рассмотрим различные виды сбоев в кластере VSAN.
1. Ломается диск дисковой группы, где исполняется виртуальная машина.
Выглядит это так:

В этом случае такой диск сразу же помечается как "degraded", а команды ввода-вывода перенаправляются на другой хост-сервер VMware ESXi. При этом виртуальная машина этого не замечает, так как переключается на работу с SSD-буфером/кэшем и HDD-дисками другого хоста мгновенно (данные на момент сбоя были синхронизированы, ничего не потерялось).
Одновременно с этим сразу же начинается процесс построения реплики на другом хосте ESXi в рамках его дисковой группы, при этом проверяется, достаточно ли там свободных дисковых ресурсов. Если их недостаточно, то механизм VSAN будет ожидать. Как только вы добавите диски/дисковые группы на хостах - сразу же начнется процесс построения реплики (до его окончания машина будет помечена как "degraded").
Тут надо отметить, что в degraded-состоянии скорость записи данных останется прежней, простоя не будет, а вот скорость чтения упадет до построения новой реплики, поскольку второй копии данных пока нет.
2. Отказывает хост VMware ESXi целиком.

В этом случае запускать процесс восстановления сразу же, конечно, не нужно - мало ли что могло случиться с хостом, например, его случайно перезагрузили, или временно пропало сетевое соединение.
В этом случае происходит ожидание в течение 60 минут, и если отказавший хост ESXi не оживет, то начнется процесс создания реплики виртуального диска VMDK на другом хосте. Это время можно изменить в расширенной настройке кластера VSAN.ClomRepairDelay, но пока не известно будет ли это поддерживаться со стороны VMware.
3. Отказ SSD-диска в дисковой группе.
В кластере VMware Virtual SAN поддерживается 1 SSD-диск и до 7 HDD-дисков в одной дисковой группе. Всего на один хост VMware ESXi поддерживается до 5 дисковых групп.
В данном случае Failure Domain - это вся дисковая группа, включающая в себя SSD-диск, который используется для двух типов операций:
- Read Cache (70% емкости) - безопасное кэширование операций на чтение. На SSD-диске хранятся наиболее часто используемые блоки, что уменьшает I/O read latency для ВМ.
- Write Buffering (30% емкости) - когда приложение внутри гостевой ОС пытается записать данные, оно получает подтверждение записи тогда, когда данные фактически записаны на SSD (не на HDD), таким образом твердотельный накопитель используется как буфер на запись, что небезопасно при внезапном пропадании питания или отказе хоста. Поэтому данные этого буфера дублируются на других хостах кластера и их SSD-дисках.
Таким образом, при отказе SSD-диска, виртуальная машина начинает использовать реплику на уровне всей дисковой группы на другом хосте VMware ESXi. Вот почему выгодно делать две дисковых группы 3HDD+1SSD, чем одну 6HDD+1SSD.
Вот, в общем-то, и все. Более подробно об использовании SSD-дисков, их производительности и ресурсе можно прочитать вот в этой статье. |
VMware vSphes MSCS | Низкая производительность RDM-диска при использовании в качестве кворумного диска кластера MSCS в VMware vSphere 5.1 и ниже. |
| (0 Comment) |
Коллеги рассказали про интересный случай: создали RDM-диск для двух виртуальных машин MSCS-кластера "across boxes", подцепили его к виртуальным машинам на двух хостах ESXi, а производительность на нем упала до 10 МБ/сек, хотя этот диск находится на быстром FC-хранилище EMC VNX и скорость должна измеряться сотнями МБ/сек. При этом в качестве хост-платформы используется VMware vSphere 5.1.
Ответ оказался простым - для хранилищ EMC VNX хост ESXi выставляет политику путей по умолчанию Round Robin (балансировка по двум путям). При использовании кластера MSCS на кворумном диске вызываются SCSI-3 резервации. SCSI-3 резервация (registration) посланная по одному пути позволяет производить дальнейшие резервации или SCSI-команды только по этому пути.
А при использовании политики Round Robin, когда плагин PSP_RR переключает на другой путь, кластер MSCS получает ошибку и пробует сделать SCSI-3 резервацию повторно или выполнить другие команды.
Поэтому вместо политики Round Robin для конкретного хранилища и для данного RDM-диска надо использовать следующие политики путей (плагины PSP_MRU или PSP_FIXED), в зависимости от типа хранища. Они приведены в KB 1010041 и в таблице ниже:
| Дисковый массив
| Плагин SATP
| Политика путей для использования с MSCS
|
| EMC Clariion |
ALUA_CX |
FIXED |
| EMC Symmetrix |
SYMM |
FIXED |
| EMC VNX |
ALUA_CX |
FIXED |
| HITACHI |
DEFAULT_AA |
FIXED |
| IBM 2810XIV |
ALUA |
MRU |
| IBM 2810XIV |
DEFAULT_AA |
FIXED |
| NETAPP Data ONTAP 7-Mode |
DEFAULT_AA |
FIXED |
Для того, чтобы выставить политику путей, нужно в разеле Storage в vSphere Client выбрать нужный HBA-адаптер и устройство, для которого создан RDM-диск, и из его контекстного меню выбрать пункт Manage Paths (это также можно сделать в свойствах виртуальной машины для диска):

После выставления корректной политики путей скорость для кворумного диска MSCS вырастет в разы. Кстати, если вы используете VMware vSphere 5.5 и выше, то такого поведения там уже нет, и все работает корректно.
О новых возможностях VMware vSphere 5.5 по поддержке кластеров MSCS мы уже писали вот тут. |
Cisco VMware Citrix | Cisco запускает свои виртуальные десктопы в аренду: "DaaS with Citrix" и "DaaS with Desktone by VMware". |
| (0 Comment) |
В последнее время уже не модно объявлять о старте своего IaaS-решения по предоставлению виртуальных серверов в аренду (напомним, последней об этом объявила компания Google). Всем уже это стало не в новинку, а рынок в этом сегменте начинает уже замедлять темпы набора оборотов. Теперь модно говорить о предоставлении в аренду собственных виртуальных ПК для каждого пользователя (DaaS, Desktop-as-a-Service) - напомним, совсем недавно об этом объявила небезызвестная компания Amazon со своим решением WorkSpaces.
Суть метода проста - берется серверная ОС Windows Server 2008 (или какая-нибудь другая) и кастомизируется таким образом словно это Windows 7. Выглядит это как по-настоящему:

На такие ухищрения приходится идти, поскольку Microsoft по-прежнему на уровне лицензии запрещает предоставление в аренду виртуальных ПК с клиентскими гостевыми ОС.
Теперь вот и компания Cisco присоединилась к клубу публичного DaaS - на днях были анонсированы проекты "DaaS with Citrix" и "DaaS with Desktone by VMware".


Как не трудно догадаться, в первом случае решение будет построено на базе продукта Citrix XenDesktop и технологии Application Orchestation, а во втором - на базе решения Desktone, которое недавно было куплено компанией VMware.
С точки зрения бэкэнда, это все строится на базе блейд-платформы Cisco Unified Computing System (UCS), для которой заявляется размещение до 252-х виртуальных ПК на одном физическом блейде.

Все это поддерживает новомодные функции 3D-графики в виртуальных ПК и предоставляет средства самообслуживания для пользователей на базе пакета UCS Solution Accelerator Pack.
Решение DaaS от Citrix будет распространяться через публичные облака следующих партнеров в зависимости от региона:
- Регион NAM - ChannelCloud, Logicalis, Proxios, Netelligent, Quest.
- Регион APJC - Dimension Data.
- Регион EMEAR - Adapt и ANS Group.
Более подробно о DaaS-решении Cisco можно узнать из пресс-релиза, а узнать детали по теме DaaS можно по этой ссылке. Ну а для тех, кто хочет знать, как все устроено - вот эта ссылка. |
VMware Labs View | Новый Fling на VMware Labs: Real-Time Audio-Video Test Application (RTAV). |
| (0 Comment) |
Как знают многие администраторы VMware, на сайте проекта VMware Labs часто появляются полезные штуки и мы про них так же часто пишем. На этот раз очередная нужная вещь для пользователей VMware Horizon View - средство тестирования аудио и видео в реальном времени в виртуальном ПК - Real-Time Audio-Video Test Application (RTAV).
Приложение позволяет убедиться в том, что производительность аудио и видео в реальном времени удовлетворительная, путем непрерывного воспроизведения виртуального видеопотока с веб-камеры и замыкания на себя аудио-дорожки:


(надо отметить что при использовании видео+аудио режима они могут быть несинхронизированы - это нормально, для приложений все будет работать синхронно)
Раньше надо было ставить в виртуальной машине какой-нибудь Skype или WebEx, чтобы протестировать производительность, а теперь ничего такого делать не надо - просто ставите утилиту RTAV в виртуальном ПК и все. Кроме этого, это приложение можно использовать и для нагрузочного тестирования инфраструктуры VMware Horizon View.
Возможности утилиты:
- Отображение картинки с веб-камеры в режиме разрешения 1:1.
- Автоматический старт передачи картинки сразу после запуска (аудио-поток будет замкнут на себя, если выбран этот вариант, то audio-in будет перенаправлен на audio-out).
- Не требуется создавать никаких аккаунтов.
- Поддержка устройства VMware Virtual Webcam, а также физических камер ноутбуков и ПК.
- Работа как на x86, так и на x64 операционных системах.
Для приложения потребуется установить пакет Microsoft 2008 C++ x86 (SP1) вот по этой ссылке.
Скачать Real-Time Audio-Video Test Application
(RTAV) можно по этой ссылке. |
VMware vCHS Plugin | Компания VMware выпустила vCloud Hybrid Service vSphere Client Plug-in 1.0. |
| (0 Comment) |
Мы уже много писали о публичном облаке VMware vCloud Hybrid Service (vCHS), которое еще пока недоступно в России, но уже серьезно набирает обороты в штатах (и скоро будет в UK). Также некоторые из вас помнят, что VMware предлагает средство vCloud Connector, которое представляет собой бесплатный плагин к VMware vCenter (управляется через Web Client), с помощью которого пользователь частной виртуальной инфраструктуры может перемещать свои виртуальные машины в облако сервис-провайдера, который также работает на платформе VMware.
Однако до настоящего момента так и не было полноценного средства, позволяющего объединить частную инфраструктуру предприятия и соответствующий сегмент публичного облака vCHS (в том числе, на базе технологий VXLAN). Теперь такая возможность есть - вышел VMware vCloud Hybrid Service vSphere Client Plug-in 1.0.

Данный плагин работает только под vSphere Web Client версии 5.5. С помощью плагина можно делать следующие вещи:
- Администрировать ресурсы на стороне публичного облака VMware (как в режиме Dedicated Cloud, так и в режиме Virtual Private Cloud).
- Просматривать инвентори виртуальных машин и управлять виртуальными датацентрами.
- Развертывать виртуальные машины из шаблонов, находящихся в каталоге, а также изменять конфигурацию существующих ВМ.
- Автоматически получать обновления любых изменений, сделанных через vCHS web portal.
Системные требования для установки плагина:
- vSphere Web Client 5.5 (старый C+ Client не поддерживается).
- Аккаунт на vCloud Hybrid Service.
- Совместимые браузеры:
- Windows: Firefox, Chrome и Internet Explorer.
- Mac: Chrome и Safari (доступ к консоли ВМ не работает для Mac).
- Linux: Firefox и Chrome.
Однако плагин не заменяет основной портал VMware vCHS, так как только там можно делать следующее:
- Создавать или изменять роли пользователей.
- Добавлять пользователей к виртуальным датацентрам.
- Создавать новые виртуальные сети.
- Настраивать шлюзы и сетевые службы, такие как сетевой экран и NAT.
- Настраивать бэкап виртуальных машин.
- Просматривать виртуальные ресурсы по регионам.
На сайте VMware есть интересные презентации на тему vCHS vSphere Client Plug-in:
Документация доступна по этой ссылке (самый полезный док тут), а скачать vCloud Hybrid Service vSphere Client Plug-in можно по этой ссылке. |
VMware Horizon View | Как работает техника Flash URL Redirection в VMware Horizon View. |
| (0 Comment) |
Недавно мы писали про релиз обновленной версии решения для виртуализации настольных ПК предприятия VMware Horizon View 5.3, а также о новых возможностях HTML Access в Feature Pack 1. Сегодня мы вкратце расскажем еще об одной возможности - Flash URL Redirection.
Эта функция позволяет перенаправить Flash-видеопоток сервера Adobe Media Server на ОС устройства доступа клиента, минуя виртуальный ПК. Это, само собой, позитивно влияет на производительность вывода такого типа графики.
Эти возможности появились еще в VMware Horizon View 5.2 Feature Pack 2, но были доступны только для мультикастового режима стриминга, а теперь они стали доступны и для юникастового:
|
| Horizon View 5.2 + FP2
| Horizon View 5.3 + FP1
|
| View Client 2.2 |
Windows View Client 5.4 / Linux View Client 2.1 |
View Client 2.2 |
Windows View Client 5.4 / Linux View Client 2.1 |
| Flash URL Redirection – Multicast Stream |
Да |
Да |
Да |
Да |
| Flash URL Redirection – Unicast Stream |
Нет |
Нет |
Да |
Да |
Кстати, обратите внимание, что в VMware View 5.3 Windows-клиент имеет версию 2.2, а раньше было 5.4 - это сделано для того, чтобы поддерживать единый темп с остальными клиентами платформы. То есть текущая версия 2.2 новее, чем 5.4.
Для возможности Flash URL Redirection поддерживается следующее окружение:
Браузер:
- IE8, IE9, IE10
- Firefox 20.x
- Chrome 26.x
- Другие браузеры тоже могут работать, но не тестировались
Гостевая ОС виртуального ПК:
- Windows 7, 32- или 64-bit
- Windows 7 SP1, 32- или 64-bit
ОС клиента, где работает View Client:
- Windows XP/Vista/7/8/8.1
- Ubuntu 10.04
- Другие ОС тоже могут работать, но не тестировались
Используемый протокол должен быть PCoIP.
Работает эта штука при соблюдении следующих условий:
- Flash URL Redirection должен быть установлен в гостевой ОС виртуального ПК (View Remote Experience Agent).
- Нужно особым образом настроить MIME HTML (MHTML) страницы, в которых встраиваются swf-объекты.
- Служба ViewMP должна работать только в PCoIP-сессии.
Первое - устанавливаем агент в гостевые ОС виртуальных ПК

Второе - настраиваем Adobe Media Server
Для этого в код страницы, где вставляется swf-объект (swfobject.js) должна быть вставлена ссылка на скрипт viewmp.js следующим образом:
<script type=”text/javascript” src=”swfobject.js”></script>
…
<script type=”text/javascript” src=”http://localhost:33333/viewmp.js”></script>
Также нужно еще определить переменные для показа нужного текста при открытии плеера в окне ОС, где установлен клиент Horizon View:
var vmwareScriptErrorMessage="localized error message"
var vmwareFlashContentHTML="<h1>Thank you for choosing VMware. The video is being redirected to a new window.</h1>"
Третье - проверяем работу Flash URL Redirection
Сначала нужно убедиться, что в виртуальном ПК запущена служба ViewMPServer.exe. После этого переходим на нужную веб-страницу и видим, как в новом окне открывается Flash Media Projector и играет ролик не в виртуальном ПК, а сразу в клиентской ОС:

Все просто. Документация:
|
VMware ESXi esxtop | Как добавлять и сравнивать данные о производительности VMware ESXi, полученные средствами ESXTOP, с помощью Windows Perfmon. |
| (0 Comment) |
Мы очень много писали о том, как с помощью утилиты esxtop можно собирать с хостов VMware ESXi данные о производительности и различные метрики (например, тут и тут). Данные, полученные с помощью этой утилиты, очень часто помогают разобраться в источнике проблем в части вычислительных ресурсов, хранилищ и сетевого взаимодействия.
В этой заметке мы поговорим немного о визуализации данных esxtop. Не так давно мы писали об утилите VisualEsxtop, которая как раз тем самым и занимается - строит графики по наборам данных. Но недавно мы наткнулись на простой способ, позволяющий с помощью Windows Perfmon сравнивать наборы данных esxtop с разных хостов ESXi.
1. Итак, сначала нужно собрать данные с хоста ESXi в пакетном режиме в файл .csv. Например:
esxtop -b -d 10 -n 360 > esxtopresults.csv
Здесь:
- -b - означает пакетный режим работы утилиты.
- -d (delay) - промежуток между срезами сбора данных.
- -n - число число таких срезов (сэмплов).
В данном случае будет собрано 360 сэмплов данных с промежутком в 10 секунд, то есть сбор займет 1 час.
Можно сжать результаты, чтобы экономить место на хосте, командой:
esxtop -b -d 10 -n 360 | gzip > esxtopresults.csv.gz
2. Загружаем данные в Windows Perfmon, выбрав источник - наш файл csv:

Визуализируем нужные счетчики:

3. Пробуем добавить еще один csv с другого хоста ESXi (с которым мы хотим сравнить данные первого хоста), но нам говорят, что так нельзя - можно такие файлы смотреть только по одному:

Не беда - сохраняем данные как бинарный файл с расширением *.blg, выбрав нужные счетчики:

Дальше просто удаляем этот файл из источников данных Perfmon, добавляем второй csv-файл и так же сохраняем его как *.blg.
Ну а дальше оба этих файла добавляем по одному - и все работает:

Добавляем сохраненные счетчики:

И данные с обоих хостов показываются на одном графике:

Источник заметки: www.viktorious.nl. |
VMware vCenter Update | Компания VMware выпустила vCenter Operations Manager 5.8 (VCOPS) и vCloud Automation Center 6.0 (vCAC) |
| (0 Comment) |
На прошедшей не так давно конференции VMworld 2013 Europe компания VMware, среди прочего, анонсировала новые версии продуктов для управления, автоматизации и мониторинга ИТ-среды предприятия. Сегодня вышли финальные версии следующих решений:

- VMware vCloud Automation Center 6.0 - продукт для управления облачной инфраструктурой предприятия (SaaS, PaaS, IaaS) средствами единого решения, построенного поверх VMware vCloud Director (для IaaS-инфраструктуры) и разработанного на базе решения DynamicOps (бывший продукт Virtual Resource Manager, VRM). О нем мы уже писали вот тут.

Напомним основные новые возможности vCenter Operations Manager 5.8 (VCOPS):
- Monitor business critical applications - поддержка мониторинга бизнес-приложений, например, Microsoft Exchange Server и SQL Server.
- Monitor fiber channel storage - комплексный многоуровневый мониторинг FC-хранилищ.
- Monitor Hyper-v servers - полноценная поддержка мониторинга серверов Hyper-V.
- Monitor Amazon AWS services - поддержка мониторинга сервисов Amazon, включая EC2, Elastic Block Store, Elastic Map Reduce, Elastic Load Balancing и Auto Scaling Group средствами пакета AWS management pack. Данный MP работает совместно с Cloudwatch service (по REST API), предоставляемым Amazon.
- Поддержка средства VMware Log Insight для мониторинга инфраструктуры vCenter Operations Manager.
Release notes продукта vCenter Operations Manager 5.8 доступны по этой ссылке, а скачать его можно по этой.
Основные новые возможности vCloud Automation Center 6.0 (vCAC):
- Возможность для пользователей запрашивать различные приложения и отслеживать статус их развертывания (эта функция пришла из Application Director).
- Улучшенный механизм работы с политиками утверждения операций.
- Конечные пользователи могут откатывать системные обновления самостоятельно.
- Возможности связи решения со сторонними сервисами.
- Развертывание сервисов на базе политик.
- Новый Advanced Service Designer, предоставляющий обновленные средства проектирования пользовательских форм и рабочих процессов.
- Возможность интеграции с продуктом IT Business Management Standard Edition.
- Поддержка VMware vCloud Hybrid Service, в том числе выполнения административных задач с ВМ, размещенными там.
- Поддержка архитектуры OpenStack (в дополнение к существующим vSphere, vCloud Director, Amazon Web Services, Hyper-V, Kernel-based Virtual Machine, Citrix XenServer и различным интерфейсам управления физическими серверами).
- Доступ к виртуальным машинам через Remote Console.
- Поддержка динамического создания изолированных и маршрутизируемых сетей и балансировщиков нагрузки.
- Поддержка хранилищ VSAN для размещения виртуальных машин.
- Поддержка механизма Storage DRS.
- Поддержка служб LDAP.
- Улучшения Multi-tenancy (работа с несколькими организациями в одном окружении).
- Механизм Verb-oriented RESTFUL API в бета-версии.
Release notes продукта vCloud Automation Center 6.0 доступны по этой ссылке, а скачать его нельзя - надо связываться с VMware. |
VMware ESXi VMachines | Как правильно клонировать виртуальную машину с VMware ESXi внутри. |
| (0 Comment) |
Многие администраторы и разработчики для своих целей используют VMware ESXi, работающий в виртуальной машине (так называемый Nested ESXi). Туда даже можно ставить свои VMware Tools.
При этом, когда требуется использовать виртуальные ESXi, как правило, их требуется несколько штук. Есть три способа получить их:
- Поставить заново и настроить - самый надежный, но долгий.
- Использовать процедуру автоматической установки и настройки Kickstart. Но тут надо знать, как это делается.
- Склонировать существующий экземпляр ESXi - самое простое решение, но сделать это нужно правильно.
Вильям Лам описал третий вариант процедуры подготовки ESXi к клонированию, после проведения которой можно развертывать эти инстансы легко и просто. В результате у новых ESXi будут свои MoRef ID, UUID, BIOS UUID и MAC-адреса.
Итак, что нужно сделать:
1. Смена MAC-адреса VMkernel при смене MAC-адреса сетевого интерфейса VM Network.
Если развертывать новый ESXi с новым MAC-адресом Virtual machine network, то необходимо также поменять MAC-адрес VMkernel. Для этого есть настройка FollowHardwareMac, которая позволяет делать это автоматически.
Для этого выполняем команду консоли ESXCLI:
esxcli system settings advanced set -o /Net/FollowHardwareMac -i 1

2. Удаляем упоминание об UUID из esx.conf.
Запись о системном UUID сервера ESXi хранится в основном конфигурационном файле esx.conf (/etc/vmware/esx.conf). Нужно удалить строчку с упоминанием этого UUID - и тогда он сгенерируется при следующей загрузке.

После этого можно выключать ВМ с виртуальным VMware ESXi и клонировать ее. При загрузке новой ВМ, естественно, нужно поменять IP-адрес и прочую сетевую идентификацию.
В комментариях к заметке Вильяма пишут, что такой способ можно использовать для клонирования LUN, содержащего образ для загрузки ESXi по SAN.
|
VMware View Video | Бесплатные обучающие видео по VMware Horizon View и Horizon View Suite. |
| (0 Comment) |
Компания VMware не так давно выпустила обновление своего решения для виртуализации настольных ПК предприятия VMware Horizon View 5.3. Для тех, кому интересно, что и как работает, VMware также выпустила интересную серию обучающих видеороликов, как по View, так и для пакета продуктов Horizon Suite, куда входит VMware ThinApp 5.0.
Обзор VMware View 5.3:
Работа с Horizon Suite Administrator:
Представление компонентов продукта Horizon Suite для конечного пользователя:
Horizon View Offline Demo - работа без доступа к сети, в том числе с виртуализованными приложениями VMware ThinApp:
|
VMware vCHS Cloud | В VMware vCloud Hybrid Service стали доступны возможности Direct Connect. |
| (0 Comment) |
Мы уже немало писали об инфраструктуре публичного облака VMware vCloud Hybrid Service, которое позволяет предприятию взять виртуальные машины в аренду в датацентрах VMware и объединить их с ресурсами приватного облака.
На днях компания VMware обяъявила о доступности возможности прямого выделенного доступа (Direct Connect) к инфраструктуре vCHS по отдельным и защищенным каналам. Напомним также, что не так давно VMware еще объявила об открытии нового датацентра в UK и 4-го датацентра в Далласе.
Ранее к виртуальным машинам на vCHS можно было обращаться по IPsec VPN через интернет, теперь же доступно прямое соединение шириной до 10 Gbps, которое есть на данный момент только в штатах (а именно в датацентрах: Santa Clara, CA и Sterling) по договоренности с телекоммуникационными и сервис-провайдерами (например, Savvis).
При таком типе соединения полностью поддерживаются технологии, основанные на VXLAN, для организации единых виртуальных сетей, охватывающих собственный ЦОД и датацентр провайдера.

На данный момент в блоге VMware уже можно посмотреть на реальный кейс использования возможностей Direct Connect для облака vCHS.
Для различных типов аренды облака доступны следующие каналы:
- Dedicated Cloud: 1 or 10 Gbps port connection
- Virtual Private Cloud: 1 Gbps port connection
Напомним, что у компании Amazon, с которой конкурирует VMware, в облаке AWS также есть возможности Direct Connect. |
VMware vSphere MSCS | Улучшения VMware vSphere 5.5 в механизмах работы с кластерами Microsoft MSCS. |
| (0 Comment) |
При каждом релизе платформы виртуализации VMware vSphere неизменно возникают вопросы о том, что же изменилось в плане поддержки гипервизором ESXi кластеров Microsoft Clustering Services (MSCS). Напомним, что базовая информация об этом находится здесь.
Вот какие варианты развертывания кластеров MSCS для различных приложений поддерживает VMware vSphere 5.5 (напомним, что о кластерах MSCS мы писали тут, тут и тут):
|
Microsoft
Clustering on
VMware
| vSphere
support
| VMware
HA
support
| vMotion
DRS
support
| Storage
vMotion
support
| MSCS
Node
Limits
| Storage Protocols support
| Shared Disk
|
| FC |
In-Guest
OS iSCSI |
Native
iSCSI |
In-Guest OS SMB |
FCoE |
RDM |
VMFS |
Shared
Disk |
MSCS with
Shared Disk |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Exchange Single
Copy Cluster |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
| SQL Clustering |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
SQL AlwaysOn
Failover Cluster
Instance |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Non
shared
Disk |
Network Load
Balance |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
| Exchange CCR |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
| Exchange DAG |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
SQL AlwaysOn
Availability
Group |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
А вот какие версии и конфигурации кластеров Microsoft поддерживаются для различных верси гостевых ОС Windows Server и VMware vSphere:
Clustering
Solution
| Support
Status
| Clustering Version
| vSphere
Version
|
MSCS with
shared disk |
Supported |
Windows Server 20031
Windows Server 2008
Windows Server 20122
Windows Server 2012 R24
|
4.x/5.x |
Network
Load Balance |
Supported |
Windows Server 2003 SP2
Windows Server 2008
Windows 2008 R2
|
4.x/5.x |
| SQL clustering |
Supported |
Windows Server 20031
Windows Server 2008
Windows Server 20122
Windows 2008 R2
Windows Server 2012 R24
|
4.x/5.x |
SQL AlwaysOn
Failover Cluster Instance |
Supported |
Windows Server 2008 SP2 or higher
Windows Server 2008 R2 SP1 or higher
Windows Server 20122
Windows Server 2012 R24
|
4.x/5.x |
SQL AlwaysOn
Availability
Group |
Supported |
Windows Server 2008 SP2 or higher
Windows Server 2008 R2 SP1 or higher
Windows Server 20123
Windows Server 2012 R24
|
4.x/5.x |
Exchange
Single copy
cluster |
Supported |
Exchange 20031
Exchange 2007 |
4.x/5.x |
| Exchange CCR |
Supported |
Windows 20031
Windows 2008 SP1 or higher
Exchange 2007 SP1 or higher
|
4.x/5.x |
| Exchange DAG |
Supported |
Windows 2008 SP2 or higher
Windows 2008 R2 or higher
Windows Server 20123
Windows Server 2012 R24
Exchange 2010
Exchange 2013 |
4.x/5.x |
А теперь перейдем к нововведениям, касающимся поддержки MSCS в VMware vSphere 5.5:
1. Во-первых, к общему хранилищу узлов кластера MSCS может быть организован доступ по нескольким путям посредством политики Round Robin (модуль PSP_RR). Ранее это сделать было нельзя ввиду проблем со SCSI reservations. Теперь эта проблема решена.
Однако тут есть ограничения:
- Поддерживается только для гостевых ОС Windows 2008 и Windows 2012.
- Поддерживаются только конфигурации Cluster Across Boxes (CAB) и N+1. Системы "Cluster in a box" (CIB) используют Virtual Reservations.
- Общий диск (Quorum или Data) должен быть развернут в режиме pass-through RDM.
2. Во-вторых, появилась поддержка протоколов FCoE & iSCSI. Ранее полноценно в качестве общего хранилища для кластеров MSCS поддерживались только хранилища Fibre Channel, с оговорками iSCSI и как-то частично FCoE. Теперь же полноценно можно использовать iSCSI и FCoE хранилища.
А именно:
- Все конфигурации кластеров: CAB, CIB и N+1 поддерживаются iSCSI.
- Поддержка адаптеров iSCSI:
- Software iSCSI;
- Аппаратные адаптеры QLogic, Emulex и Broadcom.
- Поддержка режима Mixed mode для iSCSI-инициатора.
- До 5 узлов в кластере поддерживается для Windows 2008 SP2 и более поздних версий.
3. В-третьих, появилась поддержка кластеризации гостевых ОС Windows 2012 MSCS.
Если все это обобщить, то получится картинка, взятая отсюда:

Больше подробностей о поддержке MSCS в VMware vSphere 5.5 можно узнать из KB 2052238. |
VMware Virtual SAN VSAN | Сайзинг кластеров хранилищ VMware VSAN в VMware vSphere и их отказоустойчивость. |
| (0 Comment) |
Как многие знают, в VMware vSphere 5.5 появились возможности Virtual SAN, которые позволяют создать кластер хранилищ для виртуальных машин на основе комбинации SSD+HDD локальных дисков серверов VMware ESXi. Не так давно вышла обновленная бета этого решения, кроме того мы не так давно писали о производительности VSAN тут и тут.
Сегодня же мы поговорим о том, как нужно сайзить хранилища Virtual SAN в VMware vSphere, а также немного затронем тему отказоустойчивости. Более детальную информацию можно найти в VMware Virtual SAN Design & Sizing Guide, а ниже мы расскажем о подходе к планированию хранилищ VSAN вкратце.
Объекты и компоненты Virtual SAN
Начнем с простого ограничения по объектам (objects) и компонентам (components), которое есть в VSAN. Виртуальные машины, развернутые на vsanDatastore, могут иметь 4 типа объектов:
- Домашняя директория виртуальной машины Virtual Machine ("namespace directory").
- Объект файла подкачки - swap object (для включенной ВМ).
- Виртуальный диск VMDK.
- Дельта-диски для снапшотов. Каждый дельта-диск - это отдельный объект.
Каждый объект, в зависимости от типа RAID, рождает некоторое количество компонентов. Например, один VMDK, размещенный на двух томах страйпа (RAID 0) рождает два объекта. Более подробно об этом написано вот тут.
Так вот, ограничения тут следующие:
- Максимальное число компонентов на 1 хост ESXi: 3000.
- Максимальное число компонентов для одного объекта: 64 (это включает в себя тома страйпов и также реплики VMDK с других хостов).
На практике эти ограничения вряд ли актуальны, однако о них следует знать.
Сколько дисков потребуется для Virtual SAN
Во второй бета-версии VSAN (и, скорее всего, так будет в релизной версии) поддерживается 1 SSD-диск и до 7 HDD-дисков в одной дисковой группе. Всего на один хост VMware ESXi поддерживается до 5 дисковых групп. Таким образом, на хосте поддерживается до 5 SSD-дисков и до 35 HDD-дисков. Надо убедиться, что контроллеры хоста поддерживают необходимое количество дисков, а кроме того нужно проверить список совместимости VSAN HCL, который постоянно пополняется.

Также надо учитывать, что кластер хранилищ Virtual SAN поддерживает расширение как путем добавления новых дисков, так и посредством добавления новых хостов в кластер. На данный момент VMware поддерживает кластер хранилищ максимум из 8 узлов, что суммарно дает емкость в дисках в количестве 40 SSD (1*5*8) и 280 HDD (7*5*8).
Сколько дисковой емкости нужно для Virtual SAN (HDD-диски)
Необходимая емкость под размещение VMDK зависит от используемого параметра FailuresToTolerate (по умолчанию 1), который означает, какое количество отказов хостов может пережить кластер хранилищ. Если установлено значение 1, то реплика одного VMDK будет размещена на дисках еще одного из хостов кластера:

Тут можно сказать о том, как работает отказоустойчивость кластера Virtual SAN. Если отказывает хост, на котором нет виртуальной машины, а есть только VMDK или реплика, то виртуальная машина продолжает работу с основной или резервной копией хранилища. В этом случае начнется процесс реконструкции реплики, но не сразу - а через 60 минут, чтобы дать время на перезагрузки хоста (то есть если произошел не отказ, а плановая или внеплановая перезагрузка), а также на короткие окна обслуживания.
А вот если ломается хост, где исполняется ВМ - начинается процедура восстановления машины средствами VMware HA, который перезапускает ее на другом хосте, взаимодействуя при этом с Virtual SAN.
Более подробно этот процесс рассмотрен вот в этой статье и вот в этом видео:
Однако вернемся к требующейся нам емкости хранилищ. Итак, если мы поняли, что значит политика FailuresToTolerate (FTT), то требуемый объем хранилища для кластера Virtual SAN равняется:
Capacity = VMDK Size * (FTT + 1)
Что, в принципе, и так было очевидно.
Сколько дисковой емкости нужно для Virtual SAN (SSD-диски)
Теперь перейдем к SSD-дискам в кластере VSAN, которые, как известно, используются для вспомогательных целей и не хранят в себе данных виртуальных машин. А именно, вот для чего они нужны (более подробно об этом тут):
- Read Cache - безопасное кэширование операций на чтение. На SSD-диске хранятся наиболее часто используемые блоки, что уменьшает I/O read latency для ВМ.
- Write Buffering - когда приложение внутри гостевой ОС пытается записать данные, оно получает подтверждение записи тогда, когда данные фактически записаны на SSD (не на HDD), таким образом твердотельный накопитель используется как буфер на запись, что небезопасно при внезапном пропадании питания или отказе хоста. Поэтому данные этого буфера дублируются на других хостах кластера и их SSD-дисках.
Так каковы же рекомендации VMware? Очень просты - под SSD кэш и буфер неплохо бы выделять 10% от емкости HDD-дисков хоста. Ну и не забываем про значение FailuresToTolerate (FTT), которое в соответствующее число раз увеличивает требования к емкости SSD.
Таким образом, необходимая емкость SSD-хранилищ равна:
Capacity = (VMDK Size * 0.1) * (FTT + 1)
Ну и напоследок рекомендуем отличнейший список статей на тему VMware Virtual SAN:
|
VMware View HTML Access | Обновленный HTML Access в VMware Horizon View 5.3 (Feature Pack). |
| (0 Comment) |
Недавно мы писали про новые возможности средства для виртуализации настольных ПК предприятия VMware Horizon View 5.3, в котором появилось множество новых возможностей и улучшений. Одна из них - это обновленный механизм HTML Access, позволяющий пользователям получать доступ к своему виртуальному ПК через веб-браузер с поддержкой HTML5 по протоколу Blast.

Эта возможность доступна в VMware Horizon View 5.3 Feature Pack 1, который устанавливается отдельно. В нем не только улучшен HTML Access, но есть и куча других возможностей.
А вот что нового теперь есть в HTML Access для Horizon View 5.3:
- Использование меньшей полосы пропускания - теперь требования к пропускной способности сети уменьшились до 50%.
- Теперь звук из виртуального ПК идет по умолчанию и с достаточным качеством (включено по умолчанию).
- Возможность Copy и Paste между виртуальным ПК и клиентским устройством.
- Простое переключение между текущим разрешением и полноэкранным.
- Возможность переключиться в режим высокого разрешения на устройствах, которые это поддерживают. Например, на MacBook с дисплеем Retina.
- Возможность доступа через HTML Access к виртуальным машинам Windows Server 2008 R2.
- Поддержка в режиме Tech Preview гостевых ОС виртуальных ПК Windows 8 (32- и 64-битных) и Windows 8.1 (32- и 64-битных).
- Официальная поддержка Chromebook Pixel и других хромбуков.
По поводу последней возможности - теперь стало больше вариантов использования хромбуков с Horizon View. Можно проигрывать музыку со своего виртуального ПК, можно копировать текст из письма в виртуальном ПК и вставлять его в документ на Google Docs. Обмениваться файлами между хромбуком и виртуальным ПК можно через Google Drive, а напечатать документ - через Google Cloud Print.
Больше подробностей об использовании HTML Access приведено в документе "Using VMware Horizon View HTML Access", документ по установке - VMware Horizon View Feature Pack Installation and Administration. Скачать VMware Horizon View 5.3 Feature Pack 1 можно по этой ссылке.
|
VMware VSAN Update | Обновление VMware Virtual SAN Beta - и сравнение производительности с каким-то Flash-массивом. |
| (0 Comment) |
Мы уже писали о технологии VMware Virtual SAN, которая сейчас находится в режиме бета-тестирования. Кроме того, мы затрагивали тему производительности виртуальных ПК VMware Horizon View на хранилищах Virtual SAN (там про то, что VSAN масштабируется почти без потерь производительности).
Сегодня мы хотим рассказать еще о двух вещах. Во-первых, компания VMware выпустила обновление беты Virtual SAN, которое получило следующие новые возможности:
-
AHCI fix - как писала VMware ранее, была проблема с контроллерами AHCI, которая приводила к потере данных на устройствах VSAN (см. PDL, Permanent Device Loss). Теперь эту проблему исправили, и можно продолжать тестирование на этих контроллерах.
-
New RVC Commands - теперь в Ruby Virtual Console, которая входит в состав VMware vCenter 5.5, есть команды по управлению хранилищами в пространстве имен spbm (Storage Policy Based Management). Существующие политики можно найти в папке "~/storage/vmprofiles".
-
PowerCLI fling - многим пользователям интересна автоматизация задач в VMware vCloud Suite. Теперь и для VSAN есть набор командлетов PowerCLI, которые позволяют управлять хранилищами VSAN. Более подробно об этом здесь.
-
Limit Changes - в первой бета-версии дисковая группа могла иметь 1 SSD-Накопитель и до 6 HDD-дисков, но поскольку есть серверы, в которых восемь слотов, то HDD-дисков теперь поддерживается до 7 штук (SSD по-прежнему один).
Во-вторых появилась третья статья в серии про Virtual SAN - "VDI Benchmarking Using View Planner on VMware Virtual SAN – Part 3" из цикла статей, где делаются всяческие замеры производительности хранилищ VSAN.
В этот раз сравнивалось некий дисковый массив "all flash storage array", который работает на SSD-накопителях, и 7-ми и 8-ми узловые кластеры Virtual SAN. Результаты в очках, поставленных VDImark (View Planner QoS), поставленные кластеру из хостовых хранилищ и дисковому массиву:

Напомним, что очки VDImark - это число виртуальных машин, которое может быть запущено на данной аппаратной конфигурации с соблюдением определенного порогового значения для операций (на самом деле минимум 95% операций должны попасть в эти трешхолды для ВМ, чтобы их засчитали).
Результаты тестов оказались весьма неплохими. Картинка для тестов по времени отклика операций группы А (интерактивные операции пользователя):

Группа B:

Вывод: Virtual SAN - очень неплох в сравнении с нативной производительностью какого-то SSD-массива (VMware, что это за массив-то??).
Ну и ссылки на все статьи цикла:
|
VMware Support Lifeccycle | Политики VMware по жизненному циклу и поддержке продуктов - Lifecycle Product Matrix. |
| (0 Comment) |
Как вы знаете, у каждого софтверного вендора есть свои политики по обеспечению жизненного цикла своих продуктов и их поддержке. VMware тут не исключение - компания предоставляет эти политики всем желающим в открытом доступе. Наиболее интересными тут являются политики, касающиеся жизненного цикла - какие стадии продукт проходит от рождения - "General Availability" (GA) - до официальной смерти "End of Availability". |
VMware View Update | Решение для виртуализации ПК предприятия VMware Horizon View 5.3 доступно для скачивания. |
| (0 Comment) |
Не так давно мы писали про новые возможности VMware Horizon View 5.3 - одного из лидирующих решений на рынке виртуализации корпоративных ПК. Несколько дней назад этот продукт стал доступен для скачивания (линк на загрузку).

Напомним, что основной ожидаемой новой возможностью VMware Horizon View 5.3 стала полноценная поддержка 3D-графики в виртуальных ПК в режиме vDGA (пока только для карт NVIDIA).
Напомним вкратце о новых возможностях VMware View 5.3 (полный список - тут и в Release notes):
- Windows Server 2008 R2 Desktop Operating System Support - возможность использовать эту ОС для виртуальных ПК, что интересно для тех организаций, который хотят предоставлять виртуальные ПК в аренду (кастомизировав серверную ОС под десктопную, так как Microsoft запрещает предоставление в аренду настольных ОС).
- Поддержка Windows 8.1 для виртуальных ПК.
- Использование VMware Horizon Mirage для управления десктопами View (подробнее - тут).
- Поддержка технологии Virtual SAN и таких хранилищ для десктопов (по-прежнему, в бета-режиме).
- Memory Recommendation messages - возможность получения рекомендаций для сайзинга по памяти Connection Server.
- Полноценная поддержка режима Virtual Dedicated Graphics Acceleration (vDGA).
- Улучшения механизма связанных клонов - теперь для пула Linked-Clone доступна политика Storage Overcommit.
- View Persona Management Supportability Improvements - улучшения режима виртуализации пользовательских профилей.
- Возможность добавлять группу "Администраторы" к перенаправляемым механизмом Persona Management папкам.
- Плагин View Agent Direct-Connection Plug-in - возможность организовать прямое соединение по протоколу PCoIP между клиентом и виртуальным ПК, минуя View Connection Server.
- View Composer Array Integration Support - полноценно поддерживается технология View Composer API for Array Integration (VCAI), которая позволяет передать часть операций по работе с виртуальными ПК на сторону дискового массива.
- Поддержка до 350 соединений для шлюза Blast Secure Gateway.
- VMware ThinApp 5.0 - обновленная версия средства для виртуализации приложений.
- Клиент VMware View Client 2.2 при использовании ОС Linux теперь может работать с аудио/видео-потоком.
- Поддержка Multimedia Redirection для десктопов Windows 7
- Обновленный HTML Access в составе Horizon View 5.3 Feature Pack (куча улучшений)
- Flash URL Redirection - перенаправление swf-потока на клиентское устройство.
- Режим Unity Touch теперь поддерживается для Windows Server 2008 R2 и Windows 8.1.
- USB 3.0 redirection support - возможность перенаправления таких устройств в виртуальные ПК.
- Поддержка БД Oracle 11.2.0.3.
Кроме этого, были обновлены все клиенты VMware View до версии 2.2 (теперь поддерживается iOS 7). Вот документация по этим клиентам, где можно узнать о новых возможностях каждого:
Теперь официальные документы по Horizon View 5.3:
Остальные документы еще не обновились.
Интересное видео по настройке View 5.3 совместно с хранилищами VSAN:
И на эту же тему интересная статья - Horizon View 5.3 Storage Optimization Features–Deep Dive.
Прямое соединение по PCoIP:
Скачать VMware Horizon View 5.3 можно по этой ссылке. |
VMware Webinar | Решения VMware для автоматизации работы с виртуальным ЦОДом |
| (0 Comment) |
| Посетите вебинар, посвященный решениям по автоматизации работы с виртуальным ЦОДом от VMware. |
VMware NVIDIA AMD | Какие адаптеры NVIDIA и AMD поддерживаются для режимов vSGA / vDGA в VMware vSphere 5.5 и требования к платформе и гостевым ОС. |
| (0 Comment) |
Как вы знаете, в VMware vSphere 5.5 и VMware Horizon View 5.3 в гостевых ОС виртуальных машин поддерживаются функции гостевых систем по обработке 3D-графики на стороне сервера за счет использования следующих режимов:
- Soft 3D - рендеринг 3D-картинки без использования адаптера на основе программных техник с использованием памяти сервера.
- vDGA - выделение графического адаптера (GPU) отдельной виртуальной машине.
- vSGA - использование общего графического адаптера несколькими виртуальными машинами.
Естественно, для всего этого необходимы специальные серверные видеоадаптеры, поддерживающие режимы vDGA и vSGA, например, NVIDIA Grid K1 и K2.
Однако справедливости ради надо отметить, что несмотря на то, что NVIDIA является пионером визуализации 3D-графики в виртуальных машинах VMware, и там режимы vDGA/vSGA уже работают, поддержка данных техник также заявлена и в адаптерах AMD (но на данный момент, судя по всему, это не совсем полноценно работает). Функции vSGA и vDGA поддерживаются следующими графическими адаптерами:
NVIDIA
- Grid K1 and K2
- Quadro 4000/5000/6000
- Tesla M2070Q

AMD
- FirePro S7000 /S9000/S10000
- FirePro v7800P/V9800P

С точки зрения платформы виртуализации, гостевых ОС и прочего виртуальные машины с поддержкой vDGA должны удовлетворять следующим требованиям:
- Платформа VMware vSphere 5.1 или более поздней версии (в 5.5 функции шире), для виртуальных ПК - VMware Horizon View 5.2 или более поздняя версия (5.3).
- Использование одного из клиентов vSphere либо VMware Workstation.
- ВМ с гостевой ОС Windows 7 или Windows 8 если используется vSphere / View. Для режима vDGA поддерживаются только 64-битные ОС.
- ВМ с гостевыми ОС Fedora 10+/Ubuntu 12+ (только на платформе vSphere).
- В настройках виртуальной машины нужно включить поддержку 3D-графики (если используется режим vSGA, для vDGA - это не нужно).
- Необходимы VIB-модули для VMware ESXi от производителя графического адаптера (например, для NVIDIA их можно найти тут). Они разрабатываются и поддерживаются NVIDIA и AMD - не VMware. VIB-модули нужно ставить только для режима vSGA.
- Для виртуальных ПК необходим клиент на базе протокола PCoIP или HTML-клиент (протокол Blast).
На сегодняшний день, с точки зрения поддержки приложений в гостевых ОС режимов vSGA и vDGA, компания VMware предоставляет вот такие таблички:



Ну и для тех, кто хочет углубиться в детали рекомендуем документ "Virtual Machine Graphics Acceleration Deployment Guide". |
VMware VDP Update | Обновленная версия VMware vSphere Data Protection Advanced 5.5 доступна для загрузки. |
| (0 Comment) |
На прошедшей в Барселоне конференции VMworld 2013 компания VMware сделала множество интересных анонсов. Среди всего прочего, было также анонсирована обновленная версия решения для резервного копирования виртуальных машин VMware Sphere Data Protection Advanced 5.5. Теперь этот продукт стал доступен для загрузки.
Новые возможности VMware VDP Advanced 5.5:
- Возможность репликации данных резервных копий между виртуальными модулями VDP Advanced в целях хранения бэкапов в режиме off-site.

- Поддержка резервного копирования и восстановления на уровне приложения для Microsoft SharePoint.

- Возможность восстановления отдельных почтовых ящиков Microsoft Exchange из бэкапов ВМ.


- Поддержка использования EMC Data Domain в качестве назначения для резервных копий.

- Автоматизированная верификация бэкапов. Этот режим работает аналогично механизму Veeam Backup - верифицируемая машина восстанавливается из резервной копии в изолированное сетевое окружение, где администратор может проверить, работает ли гостевая ОС и приложения - вручную или скриптами.
Скачать пробную версию vSphere Data Protection Advanced 5.5 можно по этой ссылке. Более подробно о новых возможностях решения написано тут. |
| Обновление VMware ESXi 5.5 средствами Interactive Installer |
| (0 Comment) |
|
NVIDIA Grid Amazon | Amazon Web Services предоставляет виртуальные машины с поддержкой технологии NVIDIA GRID GPU. |
| (0 Comment) |
Не так давно компания NVIDIA объявила о том, что технология NVIDIA GRID (о которой мы писали вот тут и тут) теперь доступна через Amazon Web Services (AWS) в новом инстансе Amazon Elastic Compute Cloud (Amazon EC2) G2, что позволяет использовать GPU-ускорение требовательных к графике приложений и игр для «облачных» пользователей.

Используя технологию NVIDIA GRID, компании, предоставляющие программное обеспечение как услугу (SaaS-провайдеры), теперь могут предлагать в аренду облачные сервисы с высокой производительностью графики для проектирования, визуализации изображений, создания медиаконтента, игр и других требовательных к вычислительным ресурсам приложений. Да, на этих машинах можно будет полноценно играть в 3D-игры!
Клиенты облака Amazon EC2 теперь могут использовать два новых инстанса - g2.2xlarge и cg1.4xlarge. Машина на базе g2.2xlarge представляет из себя следующее:
- Графический процессор NVIDIA GRID на базе GK105 Kepler с ядрами 1536 CUDA и 4 ГБ оперативной памяти.
- Процессор Intel Sandy Bridge 2,6 ГГц с технологией Turbo Boost и 8 vCPU.
- 15 ГБ RAM.
- 60 ГБ хранилища на SSD-дисках.
- 10 Gigabit Ethernet.
Второй инстанс (cg1.4xlarge) предназначен для HPC-нагрузок. Там используется более мощный модуль GPGPU (General Purpose Graphics Processing Unit) и технология error-correcting memory.
На данный момент эти инстансы доступны только в следующих датацентрах: US East (Northern Virginia), US West (Northern California), US West (Oregon) и EU (Ireland).
Основанные на архитектуре NVIDIA Kepler графические процессоры GRID оснащены кодером H.264, который позволяет сжимать графику высокого разрешения в реальном времени и передавать ее на любое подключенное к интернету устройство. Один GPU может поддерживать до восьми HD-видеопотоков в реальном времени (720p / 30 fps) или до четырех Full-HD потоков (1080p / 30 fps).
Чтобы упростить развертывание приложений на инстансах G2, компания OTOY добавила связующее ПО OTOY ORBX к образу AMI (Amazon Machine Image) на базе Windows и Linux. SaaS-компании могут устанавливать свои приложения в OTOY AMI и сразу же предоставлять к ним доступ по сети.
Вот какие образы доступны через AWS Marketplace:
Кстати, в данный момент OTOY и Autodesk разрабатывают технологию, которая предоставит доступ к самым популярным приложениям проектирования Autodesk через OTOY AMI.
Вот такое можно будет делать прямо в браузере:
Цена инстансов будет такова: G2 обойдется по цене от $0.294 за час, цена же на cg1.4xlarge еще не определена.

|
VMware vSphere Hot Add | Немного о Hot Add / Hot plug для виртуальных процессоров и памяти виртуальных машин VMware vSphere. |
| (0 Comment) |
Как знают многие администраторы, в VMware vSphere есть такая возможность как Hot Add (для процессоров ее называют Hot plug) виртуальных устройств (vRAM и vCPU), которая позволяет добавить эти ресурсы прямо в работающую виртуальную машину без необходимости ее остановки.
По умолчанию функции Hot Add для виртуальных машин на VMware ESXi выключены, чтобы не создавать дополнительную нагрузку при ненужном для большинства пользователей функционале. Hot Add можно включить на вкладке Options для виртуальной машины:

Это же можно сделать и через vSphere Web Client:

После этого можно добавлять vCPU и vRAM работающей виртуальной машине (но не для всех гостевых ОС). Вот какие требования предъявляются к технологии Hot Add в VMware vSphere:
- Минимально необходима версия виртуального "железа" Hardware Version 7 или более поздняя.
- Технология Hot-add/Hot-Plug не совместима с техникой Fault Tolerance.
- Для поддержки Hot Add понадобится одно из следующих коммерческих изданий: vSphere Advanced, Enterprise или Enterprise plus.
- Возможно только горячее добавление vRAM и vCPU, но не горячее удаление (раньше это поддерживалось) - и только для списка поддерживаемых ОС.
- Необходимо учитывать особенности лицензирования гостевой ОС по процессорам и памяти, когда проводите такие манипуляции.
| Гостевая ОС |
Лицензия VMware vSphere |
Hot-Add RAM | Hot-Plug CPUs |
| Windows Server 2003 32bit/64bit | Standard
Enterprise |  | |
| Windows Server 2008 32bit | Standard
Enterprise
Datacenter |  | |
| Windows Server 2008 64bit | Standard
Enterprise |  | |
| Windows Server 2008 64bit | Datacenter |  |  |
| Windows Server 2008 R2 | Standard
Enterprise |  | |
| Windows Server 2008 R2 | Datacenter |  |  |
| Windows Server 2012 |
Standard
Datacenter |
 |
 |
| Windows Server 2012 R2 | Standard
Datacenter |
? | Нет, см. KB 2050800 |
Если вы планируете использовать технологию Hot Add в Windows Server 2003, то нужно иметь в виду, что начнет происходить что-то странное, о чем написано в KB 913568 компании Microsoft.
Кроме этого, если вы включите Hot Add для виртуальных процессоров (vCPU), у вас прекратит работать технология vNUMA, что может существенно повлиять на производительность (см. KB 2040375). Ну а в логе в этом случае будет написано следующее:
vmx| W110: NUMA and VCPU hot add are incompatible. Forcing UMA
|
VMware Tools ESXi | VMware Tools для виртуального VMware ESXi - очередная полезность на VMware Labs. |
| (0 Comment) |
То, о чем думали многие экспериментаторы и разработчики, но боялись попросить - на сайте проекта VMware Labs появились VMware Tools для виртуального VMware ESXi. Они поддерживают VMware vSphere версий 5.0, 5.1 и 5.5.

Как многим стало понятно, это пакет ПО, предназначенный для установки в консоли сервера ESXi, когда он установлен в виртуальной машине, запущенной на уже физической платформе с ESXi (по аналогии с VMware Tools для виртуальных машин).
Вот какие возможности есть в VMware Tools for Nested ESXi:
- Предоставляет в консоли vSphere Client информацию о виртуальной машине с Nested ESXi (IP-адрес, имя хоста и прочее).
- Позволяет виртуальному ESXi быть правильно перезапущенным или выключенным (restart и shut down, соответственно) при операциях через vSphere Client (толстый клиент) или vSphere API.
- Возможность выполнения скриптов во время изменения хостом ESXi состояний питания (включение, выключение и т.п.).
- Поддержка Guest Operations API (бывший VIX API) для операций внутри ВМ (т.е. в консоли вложенного ESXi).
Порядок установки:
- Вариант 1 - скачиваем VIB-пакет, кладем его на датастор и ставим:
esxcli system maintenanceMode set -e true esxcli software vib install -v /vmfs/volumes/[VMFS-VOLUME-NAME]/esx-tools-for-esxi-9.7.0-0.0.00000.i386.vib -f
esxcli system shutdown reboot -r "Installed VMware Tools" - See more at: http://www.virtuallyghetto.com/2013/11/w00t-vmware-tools-for-nested
esxi.html#sthash.f89qps1O.dpuf
- Вариант 2 - устанавливаем VIB прямо с сайта VMware:
esxcli network firewall ruleset set -e true -r httpClient
esxcli software vib install -v http://download3.vmware.com/software/vmw-tools/esxi_tools_for_guests/esx-tools-for-esxi-9.7.0-0.0.00000.i386.vib -f
Далее нужно перезагрузить виртуальный VMware ESXi.
Чтобы удалить эти VMware Tools, используйте команду:
esxcli software vib remove -n esx-tools-for-esxi
|
VMware Storage ESXi | Как заставить работать неподдерживаемый SATA AHCI Controller сервера с VMware ESXi 5.5. |
| (0 Comment) |
С выходом обновленной версии платформы виртуализации VMware vSphere 5.5 компания VMware ввела новую модель Native Device Driver Architecture, которая позволяет использовать нативные драйверы для VMkernel вместо драйверов под Linux.
Однако, помимо этого нововведения, VMware также убрала и неофициальную поддержку многих SATA-контроллеров, которые раньше и не заявлялись как работающие, но вполне нормально функционировали на whitebox-конфигурациях (например, контроллеры ASMedia и Marvell). Теперь многие SATA-контроллеры в ESXi 5.5 просто не работают.

Но не все так плохо. Поскольку поддержка старой модели драйверов еще осталась (неизвестно будет ли она в следующей версии ESXi, но скорее всего будет, так как не все партнеры успеют перейти на новую модель), то можно заставить работать некоторые неподдерживаемые контроллеры SATA AHCI, поскольку сам драйвер AHCI остался в виде модуля VMkernel (ahci). Andreas Peetz не только написал хорошую статью о том, как это сделать, но и сделал кастомные VIB-пакеты для добавления поддержки некоторых SATA-контроллеров AHCI.
Суть такая - автор раньше думал, что команда vmkload_mod ahci заставляет ESXi загружать драйверы для всех обнаруженных PCI-устройств, то оказалось, что она конфигурирует только устройства, которые есть в файле /etc/vmware/driver.map.d/ahci.map. А там неподдерживаемых девайсов не появляется. Поэтому надо сделать отдельный map-файл и добавить ссылки соответствующих устройств (их PCI ID) на драйвер AHCI.
Андреас сделал VIB-пакет позволяющий добавить поддержку ESXi следующих SATA-контроллеров:
- ASMedia Technology Inc. ASM1061 SATA IDE Controller (1b21:0611)
- ASMedia Technology Inc. ASM1062 Serial ATA Controller (1b21:0612)
- Marvell Technology Group Ltd. 88SE9123 PCIe SATA 6.0 Gb/s controller (1b4b:9123)
- Marvell Technology Group Ltd. 88SE9172 SATA 6Gb/s Controller (1b4b:9172)
В каментах Андреас принимает заявки на добавление поддержки нужных SATA-контроллеров, так что если их в приведенном выше списке - пишите ему и он добавит.
Процедура добавления поддержки контроллеров такова. Добавляем возможность использования кастомных драйверов на ESXi:
esxcli software acceptance set --level=CommunitySupported
Разрешаем использование http на хосте в фаерволе:
esxcli network firewall ruleset set -e true -r httpClient
Устанавливаем VIB-пакет:
esxcli software vib install -v https://esxi-customizer.googlecode.com/files/sata-xahci-1.0-1.x86_64.vib
Пакет sata-xahci предоставляется как в виде VIB-файла, так и в виде Offline Bundle. Включить драйверы в состав установщика ESXi можно с помощью инструментов ESXi-Customizer или ESXi-Customizer-PS. |
VMware VOVA OpenStack | Компания VMware показала нового Вову - виртуальный модуль vSphere OpenStack Virtual Appliance (VOVA). |
| (0 Comment) |
Те из вас, кто интересуется облачными технологиями, наверняка знают инициативу OpenStack, которая представляет собой комплекс проектов свободного программного обеспечения, предназначенного для построения облачной инфраструктуры.
Open Stack - это не продукт, не платформа и не фреймворк. Это некий набор "кирпичиков", с помощью которых может строиться инфраструктура облака, в том числе гетерогенная:

OpenStack называют еще облачной операционной системой, хотя, строго говоря, она таковой не является. Эту инициативу в той или иной степени поддерживают 150 компаний (это активных, а пассивных намного больше), хотя большинство архитектур OpenStack используют в качестве ОС Ubuntu (в 80% случаев), а в качестве гипервизора KVM.

Но поскольку основной целью OpenStack провозглашается открытость и вендоронезависимость при построении частного или публичного облака, то вы можете использовать в качестве гипервизора, например, VMware ESXi, а в качестве хранилищ Microsoft Windows Server 2012 R2, используя при этом компоненты OpenStack, предназначенные для комплексного управления облачными сервисами (многие из них, кстати ориентированы на средства самообслуживания пользователей, которые сами могут запрашивать себе ресурсы облака). В этом смысле средства OpenStack чем-то похожи на решение vCloud Director от компании VMware.
Еще летом 2013 года компания VMware объявила о скором запуске виртуального модуля vSphere OpenStack Virtual Appliance (VOVA), который позволит наладить интеграцию с такими компонентами OpenStack, как Nova (контроллер вычислительных ресурсов) and Cinder (облачные блочные хранилища).
А совсем недавно VMware объявила о новой версии vSphere OpenStack Virtual Appliance (VOVA), которое можно использовать для дистрибутива Mirantis OpenStack (компании Mirantis).

Однако, скажем сразу, что этот модуль не является официальным решением VMware, это просто способ показать, как именно можно интегрировать компоненты VMware vSphere в архитектуру OpenStack.
Вот что можно делать с помощью VOVA:
- В качестве OpenStack Compute service (Nova) использовать VMware vCenter Server
- В качестве OpenStack Networking service (Neutron) использовать VMware NSX (пока недоступно в текущей версии)
- В качестве OpenStack Block Storage service (Cinder) использовать виртуальные диски формата VMware VMDK
- Возможность совместимости с дистрибутивом OpenStack Havana в будущих релизах
Видеодемонстрация решения vSphere OpenStack Virtual Appliance:
Для тех, кто дочитал до конца, бонус - лабораторная работа, где можно самостоятельно потыкать Вову и ознакомиться с архитектурой OpenStack: http://labs.hol.vmware.com/HOL/#lab/698.
Ну и постоянная ссылка на инициативы VMware для OpenStack - http://www.vmware.com/go/openstack. |
VMware View Poster | Очередная диаграмма VMware - порты и соединения VMware Horizon View 5.2. |
| (0 Comment) |
Компания VMware время от времени выпускает интересные постеры и диаграммы (кстати, они вывешены у нас в правой колонке чуть пониже), которые отражают различные процессы и описывают компоненты инфраструктуры VMware vSphere, View, vCloud и прочие. Не так давно был выпущен постер с портами и соединениями VMware vSphere 5.1, а на днях VMware выпустила аналогичный плакат с диаграммой портов "Network port diagram for Horizon View", который наглядно показывает взаимодействие компонентов, а заодно и дает информацию сетевым администраторам о том, какие правила нужно добавить в сетевой экран:

Там же, на страницах за постером, приведена таблица портов с пояснениями к используемым соединениям в инфраструктуре виртуальных ПК VMware View 5.2:

Нужная и полезная штука. Хотя с выходом VMware View 5.3 ее все же придется обновить, так как появятся новые компоненты (например, View Agent Direct Connection Plugin) или изменятся существующие (например, HTML Access). |
VMware vSphere vFlash | Документы: что такое VMware vSphere Flash Read Cache (vFlash) и официальный FAQ. |
| (0 Comment) |
Мы уже писали про распределенный кэш на SSD-накопителях локальных дисков серверов ESXi, который имел рабочее название vFlash, а затем превратился в полноценную функцию VMware vSphere Flash Read Cache платформы VMware vSphere 5.5.

Сегодня мы хотим обратить внимание на два интересных документа, которые раскрывают подробности использования этой технологии.
Напомним, что Flash Read Cache позволяет использовать кэширование данных только на чтение для дисков VMDK виртуальных машин, работает она на уровне гипервизора и существенно улучшает производительность виртуальных машин, которые интенсивно используют подсистему ввода-вывода для операций на чтение. Очевидно, что SSD-кэш, который по производительности находится между оперативной памятью и обычными дисками, существенно повышает быстродействие в системах, где периодически наблюдается недостаток ресурсов RAM. Все это дело работает в кластере до 32 хостов ESXi.
Итак, первый документ о том как работает технология Flash Read Cache - "What’s New in VMware vSphere Flash Read Cache":

В этом документе описано, как работает инфраструктура vFlash в рамках виртуальной инфраструктуры vSphere, для каких целей можно использовать данную технологию, требования, а также шаги по установке и настройке этого механизма.
Второй документ - это официальный FAQ VMware по технологии Flash Read Cache - "VMware vSphere Flash Read Cache 1.0 FAQ". Так как она появилась впервые, и не все технические особенности ясны администраторам, в документе даны ответы аж на 67 вопросов.

Интересные факты из этого FAQ:
- В качестве интерфейсов накопителей поддерживаются SATA, SAS и PCI Express.
- До 8 устройств vFlash на один хост ESXi и до 4 ТБ емкости на устройство (до 400 ГБ на один VMDK). На один контейнер VFFS (то есть на хост) поддерживается до 32 ТБ.
- В качестве хранилищ ВМ механизмом поддерживаются тома VMFS/NFS/vRDM (pRDM не поддерживается).
- Настраивается только через Web Client.
- При изменении настроек vFlash все кэши для дисков сбрасываются.
- Thin provisioning не поддерживается технологией vFlash.
- При миграции виртуальной машины средствами vMotion можно использовать 2 политики: Always migrate the cache contents (copy) - кэш копируется вместе с ВМ и Do not migrate the cache contents (drop) - кэш очищается. Техники VMware HA / SVMotion также полностью поддерживается.
- Механизм VMware DRS при миграции не затрагивает машины с включенным Virtual Flash Read Cache.
- Операции, которые очищают кэш ВМ: suspend, изменение конфигурации, удаление,
перезапуск машины или хоста, восстановление из снапшота. Операции, которые не очищают кэш: снятие снапшота, клонирование, миграция vMotion, fast suspend/resume.
- В vCenter есть 3 специальных метрики для мониторинга vFlash (IOPS, Latency и объем кэша).
- Кэшем vFlash можно управлять через ESX CLI:
get –m <module> -c <cache file name>
- Файлы кэша vFlash находятся в следующей директории на хосте:
/vmfs/volumes/vffs/vflash
Информацию об официально поддерживаемых механизмом VMware vSphere Flash Read Cache устройствах можно найти по этой ссылке: http://www.vmware.com/resources/compatibility/search.php?deviceCategory=vfrc
|
VMware Labs PowerCLI | Новое в администрировании VMware vSphere через PowerShell - командлеты PowerCLI Extensions. |
| (0 Comment) |
На сайте проекта VMware Labs, известного всем администраторам VMware vSphere, появились интересные утилиты для управления инфраструктурой VMware vSphere через PowerShell - командлеты PowerCLI Extensions, объединенные в отдельный PowerShell-модуль VMware.VimAutomation.Extensions.

Эти командлеты реализуют управление следующими новыми компонентами VMware vSphere 5.5:
Для использования этих командлетов вам понадобится:
- Microsoft PowerShell v2 или более поздний
- Фреймворк vSphere PowerCLI v5.5 R1
Скачать VMware PowerCLI Extensions можно по этой ссылке. Инструкция по установке - здесь.
|
VMware vSphere Security | Вышла финальная версия руководства по безопасности VMware vSphere 5.5 Hardening Guide. |
| (0 Comment) |
Не так давно мы писали о том, что компания VMware обкатывает бета-версию своего руководства по обеспечению безопасности виртуальной среды, а вчера этот документ VMware vSphere 5.5 Hardening Guide был выпущен в окончательной редакции. Если говорить об изменениях по сравнению с бета-версией, то в основном были сделаны добавления в части vSphere Web Client.

Традиционно в документе, который представляет собой Excel-файл с несколькими вкладками, присутствуют следующие разделы:
- Virtual Machines
- ESXi hosts
- Virtual Network
- vCenter Server (а также различные БД и клиенты)
- vCenter Web Client
- vCenter SSO Server
- vCenter Virtual Appliance (VCSA) и различные аспекты его использования
- vCenter Update Manager
- vSphere Management Assistant (vMA)
- различные аддоны
По поводу большинства рекомендаций есть необходимые команды CLI или PowerCLI, которые приведут компоненты VMware vSphere в желаемое состояние. Рекомендуется обращать внимание на колонку Negative Functional Impact, которая описывает возможные негативные последствия для инфраструктуры.
Кроме того, некоторые параметры разделены по "профилям риска":
- Risk Profile 1 - для суперзащищенных систем (обработка гостайны, информация особой важности). Надо учитывать, что применение этих рекомендаций может повлечь за собой то, что некоторые функции платформы перестанут работать.
- Risk Profile 2 - рекомендации среднего уровня защиты, которые необходимо применять при работе с чувствительными данными.
- Risk Profile 3 - то, что должны (по-хорошему) применять все.
Также, по традиции, есть и лог изменений с предыдущей версии:

Некоторые вещи были изменены совсем недавно, поэтому многим будет интересно этот док посмотреть.
Скоро VMware vSphere 5.5 Hardening Guide появится вот на этой странице, где собираются все версии руководств Security Hardening Guides (там пока есть доки для vCloud Director и Configuration Manager).
Прямые ссылки на скачивание:
Также порекомендуем здесь комплексное средство для обеспечения безопасности виртуальной инфраструктуры vGate R2, которое (помимо всего прочего) позволит применить необходимые политики Security Hardening Guide и обеспечить защиту от НСД. |
|
|  |
|