Хочу поддержать коллег (в частности, Костю Введенского из StarWind) и сообщить нашим друзьям с Украины, что 25 ноября в Киеве пройдет первая НА Украине встреча VMware User Group.
Что это такое? Это неофициальное мероприятие, посвящённое любым техническим темам, которые касаются компании VMware и её продуктов. Встречи такого формата проходят во многих городах и странах мира.
Для чего это нужно? Встреча может помочь всем желающим поделиться своим опытом с коллегами, узнать что-то новое и в неформальной обстановке пообщаться с высококлассными специалистами и представителями самой VMware, а также других профильных вендоров.
Для кого это всё? Большая часть обсуждений на мероприятиях такого рода зачастую носит технический характер (презентация решений, всевозможные howto и технические сравнения продуктов) – потому встреча в первую очередь нацелена на администраторов виртуальных инфраструктур, инженеров поддержки, системных администраторов и различных IT-специалистов, интересующихся тематикой виртуализации. Кроме того, обзорные доклады, релизы новейших продуктов и секретные подробности ещё не выпущенных продуктов могут заинтересовать руководителей IT-отделов, IT-аналитиков и просто энтузиастов от IT, жалающих быть на гребне новых тенденций.
И сколько? Нисколько. По традиции, участие в данном меропрятии бесплатное.
Дата: 25 ноября Место: конференц зал Арена Плаза. Количество мест строго ограничено. Зарегистрироваться можно по этой ссылке.
Как многие знают, у компании VMware есть продукт VMware ThinApp, который позволяет создавать виртуализованные приложения, "отвязанные" от операционной системы (многие еще помнят этот продукт как Thinstall, а приложения так и назывались thinstalled applications). Такие приложения еще называют предустановленными - в результате его создания вы получаете 1 или 2 файла, которые можно просто переносить на флэшке и запускать или запускать с общего SMB-ресурса (см. нашу заметку тут).
Кроме того, виртуализацию приложений ThinApp можно интегрировать с решением для создания инфраструктуры виртуальных ПК предприятия VMware View 5 (см. нашу заметку тут). А скоро их вообще можно будет запускать через веб-браузер с поддержкой HTML5 в рамках решения VMware AppBlast (см. тут), извлекать из рабочих машин и распространять через ThinApp Factory (см. тут).
В этой заметке мы рассмотрим, какие режимы функционирования виртуализованных приложений ThinApp, а точнее - режимы изоляции приложения, определяющие с какими данными оно может работать и как взаимодействует с ОС, в которой запускается. Это определяет степень отделения приложения от ОС, в которой оно работает. Отделение это реализовано за счет папок и веток реестра "песочницы" (sandbox) приложения - определение того, куда приложение может производить запись и как влиять на файлы ОС.
В файле package.ini, который идет в составе проекта вы можете детально определить, в какие папки и ветки реестра приложение может осуществлять запись.
Всего есть 3 режима приложений ThinApp:
Full - в этом режиме приложение работает с реестром и файловой системе в условиях полной изоляции. Все элементы (изменения реестра и создаваемые файлы) остаются только внутри песочницы, а приложение не может ничего получить из ОС, ее файловой системы и реестра. То есть, приложение никак не повлияет на работу ОС и ничего не сможет в ней ни прочитать, ни изменить, ни создать. Файлы из песочницы и создаваемые объекты реестра существуют в виртуальных контейнерах только во время работы приложения, как только вы его закрываете - все пропадает.
WriteCopy - в этом режиме приложение может читать файлы ОС, в которой исполняется, но не может ничего записывать.
Merged - в этом режиме приложение может и читать, и записывать свои файлы, что необходимо для "тяжелых" пользовательских приложений (например, Microsoft Office).
При создании виртуализованного приложения в ThinApp в Setup Capture wizard, вы можете создавать только следующие режимы изоляции:
Modified Merged isolation mode - возможность чтения-записи файлов, кроме системных директорий.
Modified WriteCopy isolation mode - возможность ограниченного чтения файло ОС.
В режиме Modified Merged isolation mode приложению нельзя записывать ничего в следующие папки:
%AppData%
%Local AppData%
%Common AppData%
%SystemRoot%
%SystemSystem% (*see note below)
%ProgramFilesDir%
%Program Files Common%
В режиме Modified WriteCopy isolation mode приложению можно записывать только в следующие папки:
%Desktop%
%Personal% (My Documents)
%SystemSystem%\spool
GUI ThinApp позволяет задавать только эти 2 режима изоляции и только для файловой системы, остальные режимы изоляции и режим работы с реестром задается в файле Package.ini проекта ThinApp. По умолчанию режим RegistryIsolationMode в этом файле установлен в WriteCopy.
Помимо режимов работы для всей файловой системы и реестра, вы можете создать исключения для отдельных директорий и веток реестра с помощью файла ##Attributes.ini (как это делается описано тут).
Ну и на видео ниже вы можете услышать детальное описание режимов работы изоляции приложений ThinApp:
Кстати, хинт - для разработки пакетов ThinApp есть удобный редактор ThinApp Browser.
Среди подобных новостей о покупке Gluster очень много общих слов и очень мало анализа того, зачем Red Hat сделала эту покупку и как она может отразиться на рынке облачных вычислений. Пришлось думать самому. :-) Я собрал информацию из различных источников и надеюсь, что смогу немного прояснить ситуацию.
Некоторые из вас, конечно же, как-то раз задумывались - а не открыть ли мне свой бизнес по сдаче в аренду виртуальных машин VMware vSphere? У каждого клиента будут свои виртуальные машины, я буду собирать с них помесячно плату, они уже никуда не соскочат, а мне останется лишь собирать деньги, да знай себе поддерживать инфраструктуру и наращивать мощности.
Я как человек в этом немного покрутившийся, могу вам сказать, что здесь не все так просто, и сам бы я такой бизнес профильным не сделал бы ни за что на свете. Но для тех, кого все-таки не оставляет эта идея, ниже приведены некоторые моменты об организации облака на основе решений VMware, виртуальные машины из которого вы можете предоставлять как услугу.
Начнем с того, что обычные лицензии VMware, которые вы покупаете у одного из партнеров или получаете как Internal Use Licenses, не позволяют вам сдавать виртуальные машины в аренду (внешним пользователям, не в своей организации) - это прямо запрещено пользовательским соглашением (EULA). Поэтому для таких дельцов придумана программа VSPP - VMware Service Provider Program (за само партнерство в программе платить не надо).
Программа VSPP направлена для сервис-провайдеров, телеком-операторов, интернет-провайдеров, поставщиков услуг, системных интеграторов и ИТ-подразделений корпораций, которые "продают" ИТ-ресурсы дочерним или аффилированным компаниям.
Эта программа позволяет вам получить некоторый пакет продуктов в рамках вашего партнерства с VMware по программе VSPP и начать предоставлять пользователям виртуальные машины (но не только!) в аренду, используя множество программных продуктов: vSphere, vCloud Director, vShield, View и многое другое. Всего есть несколько уровней партнерства по VSPP, у каждого из которых есть свои преимущества и требования.
Здесь нужно выделить 2 ключевых момента - это очки (points) и Aggregator (агрегатор) VSPP. Начнем с агрегатора. На самом деле вы не можете подписать контракт с VMware и начать сдавать в аренду ее машины и отчислять ей платежи. Это потому, что VMware ведет бизнес в каждой стране по своему и там ей нужны партнеры, которые посредством своих мутных схем и офшоров будут гонять бабло между, например, Россией, Кипром, ОАЭ и Америкой с одной стороны, а с другой - между юрлицом в России и российскими партнерами VMware.
Собственно, агрегатор - это тот же дистрибьютор, только касаемо облачных сервисов VMware. Но у него есть и некая техническая функция. Когда вы вписываетесь в VSPP, у вас в инфраструктуре vSphere развертывается специальное ПО на сервере vCenter, котороя смотрит сколько расходуется у вас ресурсов для виртуальных машин и посылает эти данные агрегатору. Делается это ежемесячно.
Далее агрегатор посылает эти данные в VMware на аудит, а сам выставляет вам счет, чтобы собрать бабло, которое дальше через офшоры и серые схемы потечет в VMware. В России таких агрегаторов несколько, и вы их найдете без труда.
Далее ключевой момент это очки (points), которые вы покупаете (а точнее, арендуете) ежемесячно, чтобы иметь право предоставлять некоторое количество услуг на базе продуктов VMware (чаще - виртуальных машин) в аренду. Самое важное тут то, что в большинстве случаев единицей тарификации является сконфигурированная оперативная память виртуальных машин (vRAM) - очки за 1 ГБ. Но есть и другие варианты тарификации для некоторых продуктов:
Но вас, скорее всего, интересует только Infrastructure as a Service (IaaS) - то есть, собственно, сдача виртуальных машин в аренду (то, что выделено красным). На сами цифры не смотрите - они американские и для нас неактуальные.
Для нас интересны вот эти 2 набора (эти цифры, вроде, актуальные):
VSPP Standard Bundle - это, по-сути, VMware vSphere 5 + Chargeback (для внутреннего биллинга) + vCloud Director (система управления датацентром с точки зрения облака - выделение ВМ и ресурсов, задание уровней сервиса, управление пользователями и т.п.). Для нас он стоит 5 очков в месяц за 1 ГБ памяти виртуальных машин (ниже я расскажу какой гигабайт). Второй VSPP Enterprise Bundle включает в себя еще и продукт vShield Edge для комплексной защиты периметра датацентра (см. подробнее тут и тут).
Теперь о тарификации этого самого гигабайта. Вы уже поняли, что единица стоимости - это 1 point, сколько он стоит в России я вам не скажу, но скажу, что в Америке 1 point = 1$. А суть лицензирования гигабайта такова:
Вы создаете виртуальные машины для аренды и выставляете им vRAM Reservation, но не менее 50% (требование VMware) от сконфигурированной памяти.
Максимально учитывается на одну ВМ - не более 24 ГБ.
Умножаете ваш бандл (например, для Standard - это 5 очков) на число vRAM ваших ВМ и на долю зарезервированных ресурсов (например, для 50% это, понятное дело, 0,5). Получаете общее количество очков в месяц, за которые вам надо платить агрегатору.
Выключенные ВМ не тарифицируются.
Как видно, у сервис-провайдера VSPP тоже есть некоторые права - вы можете гарантировать меньше ресурсов и меньше платить, либо обеспечить 100%-й SLA, но платить больше.
Смотрим на пример расчета:
Ну и каждый месяц агрегатор смотрит, сколько у вас набежало использованных очков, способствует продвижению уровня партнерства VSPP и выбиванию скидок за объем потребляемых поинтов. Вот тут есть хороший FAQ по программе VSPP, а тут - презентация.
Вкратце - это все. Тема у нас пока эта очень муторная. Если инетересно дальше - могу дать контакт с кем можно поговорить на эту тему. Ну а хотите купить виртуальные машины VMware в аренду - пожалуйста.
Несмотря на то, что в VMware vSphere Client диски виртуальных машин создаются уже выровненными относительно блоков системы хранения данных, многих пользователей платформы беспокоит, не выглядит ли их дисковая подсистема для ВМ таким образом:
Специально для таких пользователей, на сайте nickapedia.com появилась бесплатная утилита UBERAlign, которая позволяет найти виртуальные диски машин с невыровненными блоками и выровнять их по любому смещению.
Но самое интересное, что утилита UBERAlign работает еще и как средство, позволяющее уменьшать размер виртуальных дисков ВМ с "тонкими" дисками (thin provisioning), возвращая дисковое пространство за счет удаленных, но не вычищенных блоков.
Скачать UBERAlign можно по этой ссылке (а вот тут в формате виртуального модуля OVA), полный список возможностей утилиты можно найти тут (там еще несколько видеодемонстраций).
Как вы знаете, компания Код Безопасности, выпускающая продукт номер 1 для защиты виртуальных сред vGate R2 (читаем тут и тут), выпускает еще несколько программных и аппаратных решений для защиты физической и виртуальной инфраструктуры (см., например, тут).
Один из таких продуктов, интересных вам - это Security Code TrustAccess, который позволяет организовать распределенный межсетевой экран (МЭ) с централизованным управлением, предназначенный для защиты серверов и рабочих станций локальной сети от несанкционированного доступа и разграничения сетевого доступа к информационным системам предприятия, в том числе в инфраструктурах виртуализации (а также трафика между машинами в рамках одного хост-сервера).
Надо сказать, что TrustAccess - это один из тех продуктов, которые позволят защитить виртуальную инфраструктуру vSphere, в которой обрабатываются персональные данные, согласно требованиям закона ФЗ 152. То есть его можно и нужно использовать совместно с продуктом vGate.
Многие пользователи VMware vSphere знают, что для кластера HA раньше была настройка das.failuredetectiontime - значение в миллисекундах, которое отражает время, через которое VMware HA признает хост изолированным, если он не получает хартбитов (heartbeats) от других хостов и isolation address недоступен. После этого времени срабатывает действие isolation response, которое выставляется в параметрах кластера в целом, либо для конкретной виртуальной машины.
В VMware vSphere 5, в связи с тем, что алгоритм HA был полностью переписан, настройка das.failuredetectiontime для кластера больше не акутальна.
Теперь все работает следующим образом.
Наступление изоляции хост-сервера ESXi, не являющегося Master (т.е. Slave):
Время T0 – обнаружение изоляции хоста (slave).
T0+10 сек – Slave переходит в состояние "election state" (выбирает "сам себя").
T0+25 сек – Slave сам себя назначает мастером.
T0+25 сек – Slave пингует адрес, указанный в "isolation addresses" (по умолчанию, это Default Gateway).
T0+30 сек – Slave объявляет себя изолированным и вызывает действие isolation response, указанное в настройках кластера.
Наступление изоляции хост-сервера ESXi, являющегося Master:
T0 – обнаружение изоляции хоста (master).
T0 – Master пингует адрес, указанный в "isolation addresses" (по умолчанию, это Default Gateway).
T0+5 сек – Master объявляет себя изолированным и вызывает действие isolation response, указанное в настройках кластера.
Как мы видим, алгоритм для мастера несколько другой, чтобы при его изоляции остальные хосты ESXi смогли быстрее начать выборы и выбрать нового мастера. После падения мастера, новый выбранный мастер управляет операциями по восстановлению ВМ изолированного хоста. Если упал Slave - то, понятное дело, восстановлением его ВМ управляет старый мастер. Помним, да, что машины будут восстанавливаться, только если в Isolation Responce стоит Shutdown или Power Off, чтобы хост мог их погасить.
Как мы уже писали, недавно компания StarWind выпустила решение StarWind Native SAN for Hyper-V (возможности см. тут), которое позволяет построить кластер отказоустойчивости серверов и хранилищ для виртуальных машин Hyper-V, используя всего лишь 2 физических сервера, что вдвое сокращает затраты на внедрение решения и его обслуживание.
10 ноября компания StarWind проводит вебинар по продукту Native SAN for Hyper-V, ведет его Анатолий Вильчинский, который, как не трудно догадаться, говорит по-русски, поэтому вы сможете задать все интересующие вас вопросы по решению для вашей виртуальной инфраструктуры Hyper-V.
Дана и время вебинара: 10 ноября в 19-00 по московскому времени.
Компания Veeam Software обновила результаты своего исследования по виртуализации V-Index за третий квартал 2011 года на сайте проекта. Интересен тот факт, что процент используемых виртуальных машин по сравнению с физическими стал несколько меньше:
Кстати, консерватизм англичан проявляется и здесь. Напомним, что данные V-Index регулярно обновляются в соответствии с исследованием более 500 крупных компаний по всему миру (в исследовании за 3-й квартал приняли участи 578 компаний, за 2-й - 544 организации). А еще у V-Index есть замечательная инфографика:
Полный отчет за третий квартал 2011 года читайте тут. В виде PDF можно загрузить по этой ссылке.
Интересный момент обнаружился на блогах компании VMware. Оказывается, если вы используете в кластере VMware HA разные версии платформы VMware ESXi (например, 4.1 и 5.0), то при включенной технологии Storage DRS (выравнивание нагрузки на хранилища), вы можете повредить виртуальный диск вашей ВМ, что приведет к его полной утере.
In clusters where Storage vMotion is used extensively or where Storage DRS is enabled, VMware recommends that you do not deploy vSphere HA. vSphere HA might respond to a host failure by restarting a virtual machine on a host with an ESXi version different from the one on which the virtual machine was running before the failure. A problem can occur if, at the time of failure, the virtual machine was involved in a Storage vMotion action on an ESXi 5.0 host, and vSphere HA restarts the virtual machine on a host with a version prior to ESXi 5.0. While the virtual machine might power on, any subsequent attempts at snapshot operations could corrupt the vdisk state and leave the virtual machine unusable.
По русски это выглядит так:
Если вы широко используете Storage vMotion или у вас включен Storage DRS, то лучше не использовать кластер VMware HA. Так как при падении хост-сервера ESXi, HA может перезапустить его виртуальные машины на хостах ESXi с другой версией (а точнее, с версией ниже 5.0, например, 4.1). А в это время хост ESXi 5.0 начнет Storage vMotion, соответственно, во время накатывания последовательности различий vmdk (см. как работает Storage vMotion) машина возьмет и запустится - и это приведет к порче диска vmdk.
Надо отметить, что такая ситуация, когда у вас в кластере используется только ESXi 5.0 и выше - произойти не может. Для таких ситуаций HA и Storage vMotion полностью совместимы.
Многие задаются вопросом - а как себя поведет кластер VMware HA в vSphere 5 при отключении всех хост-серверов VMware ESXi 5 (например, отключение электричества в датацентре)?
Алгоритм в этом случае таков:
1. Все хосты выключаются, виртуальные машины на них помечаются как выключенные некорректно.
2. Вы включаете все хосты при появлении питания.
3. Между хостами ESXi происходят выборы Master (см. статью про HA).
4. Master читает список защищенных HA виртуальных машин.
5. Master инициирует запуск виртуальных машин на хостах-членах кластера HA.
Надо отметить, что восстановлении VMware HA смотрит на то, какие из них были выключены некорректно (в случае аварии), и для таких ВМ инициирует их запуск. Виртуальные машины выключенные корректно (например, со стороны администратора) запущены в этом случае не будут, как и положено.
Отличия от четвертой версии vSphere здесь в том, что вам не надо первыми включать Primary-узлы HA (для ускорения восстановления), поскольку в vSphere 5 таких узлов больше нет. Теперь просто можете включать серверы в произвольном порядке.
Многие из вас знают, что у компании VMware есть утилита VMmark, которая позволяет измерять производительность различных аппаратных платформ (и работающих в ВМ приложений), когда на них работает платформа виртуализации VMware vSphere. При этом можно сравнивать различные платформы между собой в плане производительности.
Сейчас компания VMware решила сделать несколько иначе: на одном и том же сервере Dell Power Edge R310 поставить vSphere 4, посчитать производительность, а потом сделать то же самое с vSphere 5 на этом же сервере. При тестировании было 4 типа нагрузки с нарастанием до насыщения утилизации сервера по CPU и получились вот такие результаты:
В результате ESXi 5.0 обогнал ESXi 4.1 на 3-4% очкам в зависимости от нагрузки (линии же CPU - практически одинаковы). Но самое интересное, что при росте нагрузки машин на сервер ESXi 5 позволил поддерживать виртуальных машин на 33% больше, чем ESXi 4.1 при условии соблюдения требований к качеству обслуживания для виртуальных машин - правый столбик (как это оценивалось не очень понятно). При этом ESXi 5.0 позволял выполнять в два раза больше операций с инфраструктурой в кластере, чем его предшественник (см. ниже).
Также VMware померила время отклика различных приложений и вычислила их задержки (latency), а также latency для операций инфраструктуры (vMotion, Storage vMotion и VM Deploy). Вышло так (показано в нормализованном виде):
Обратите внимание, что vMotion и Storage vMotion - стали работать значительно быстрее (о том, как это было сделано - тут). Вот как раз за счет низкого latency ESXi 5 и смог обеспечить поддержку на 33% больше виртуальных машин при условии соблюдения QoS.
Продолжаем разговор о решении номер 1 для создания отказоустойчивых хранилищ StarWind Enterprise HA, которое наиболее оптимально подходит как раз для малого и среднего бизнеса, где не хочется тратить деньги на дорогостоящее хранилище и его обслуживание. Берете просто 2 сервера, на нем поднимаете виртуальные машины и там же отказоусточивое хранилище (при отказе работает без простоя ВМ). На Hyper-V делается это с помощью StarWind Native SAN for Microsoft Hyper-V, а для VMware можно сделать так на StarWind 5.7.
Второй - это статья "Кластер Hyper-V 2008 R2 на коленке", где чувак взял и поднял кластер Hyper-V R2 с Live Migration на базе iSCSI-хранилища StarWind, используя обычные ПК.
На мероприятии UK VMware User Group Julian Wood представил интересную презентацию, которая суммирует необходимые дествия и процедуры по миграции с платформы VMware vSphere 4 на vSphere 5, включая хост-серверы ESX / ESXi, vCenter (включая его компоненты), виртуальные машины, VMware Tools и тома VMFS.
Один из лучших материалов, обобщающих информацию на тему миграции на vSphere 5.
Как знают многие из вас, в инфраструктуре виртуализации VMware vSphere одна из самых частых конфигураций платформы - назначение администратора виртуальной инфраструктуры одному человеку, который потенциально может разрушить всю инфраструктуру предприятия:
Это на самом деле очень плохо, поскольку по данным исследования, проведенного аналитической службой компании «Код Безопасности» среди 100 российских организаций, наибольшую угрозу для компании представляют инсайдеры, имеющие доступ к конфиденциальной информации. Исследование показало, что наиболее актуальными ИБ-угрозами для большинства российских компаний остаются внутренние факторы. В частности, 25% опрошенных респондентов убеждены, что наибольшую опасность для компании представляет несанкционированный доступ собственных сотрудников к конфиденциальной информации компании.
Не менее интересными являются результаты опроса в части оценки принятых мер по выполнению требований Федерального закона «О персональных данных». 52% опрошенных на вопрос: «Приняты ли в Вашей организации меры по защите ПДн в связи с вступлением в силу №152-ФЗ», – ответили утвердительно. Компании, в которых проект проводится в данный момент, но пока не завершен, составляют 37% и 5% планируют проект по защите ПДн в соответствии с требованиями №152-ФЗ на следующий, 2012 год. Среди участников опроса оказалось 6% и тех, кто пока не приступал к выполнению требований №152-ФЗ.
И вот тут нужно сказать, что vGate R2 от компании "Код Безопасности" - это лучший продукт, чтобы убить перечисленных двух зайцев: разделить полномочия администратора VMware vSphere (или по крайней мере детально протоколировать его действия) с помощью продукта vGate R2 за счет введения роли администратора ИБ, а также настроить инфраструктуру защиты VMware vSphere в соответствии с нормами ФЗ 152 за счет средств автоматической конфигурации безопасности vGate R2.
Напомним, что это vGate R2 - это единственное на сегодняшний день сертифицированное средство защиты информации от несанкционированного доступа, предназначенное для обеспечения безопасности виртуальных инфраструктур на базе платформ VMware Infrastructure 3 и VMware vSphere 4, применение которого дает возможность легитимной обработки данных ограниченного доступа в виртуальной среде. Подробнее о сертификатах vGate R2 написано тут.
Запросить пробную версию vGate R2 можно по этой ссылке.
Как многие из вас знают, в новой версии решения для виртуализации настольных ПК предприятия VMware View 5 появилось множество интересных возможностей, одно из которых возможность отключения передачи картинки десктопа пользователю без потери качества (Disable build-to-lossless) для протокола PCoIP, что очень актуально для WAN-соединений.
Если сравнивать версии VMware View, то для обычного офисного ПК необходима следующая полоса пропускания канала до устройства доступа (тонкого или толстого), если он работает в виртуальной машине:
View 4.x с дефолтными настройками = 150 Kbps
View 5.x с дефолтными настройками = 60Kbps
View 5.x с опцией Disable build-to-lossless = 48Kbps
Как видно, помимо того, что в VMware View 5 существенно уменьшились требования к каналу, с отключением передачи десктопа без потери качества можно добиться снижения требований еще до 30%.
Если говорить о качестве картинки рабочего стола, то выглядит это так:
Из картинки видна, что потери весьма незначительны. Конфигурируется эта настройка через шаблон групповой политики (GPO) pcoip.adm, расположенный на сервере VMware View Connection Server в папке:
Там много интересных настроек протокола PCoIP, но нас интересует первая - Turn off Build-to-Lossless feature:
Все это можно делать и через реестр - читайте KB 1014686 или вот тут.
Вторая оптимизация - это video frame-rate, то есть частота отображения кадров для видео, а также качество передаваемой картинки. Задается она настройкой Configure PCoIP image quality levels, где есть на выбор три опции для тюнинга протокола PCoIP:
Minimum и Maximum Image Quality - по умолчанию установлено в значение 50 (диапазон - от 30 до 100). Определяет качество картинки при заданном количестве кадров (третий параметр). Minimum гарантирует качество картинки, maximum - ограничивает полосу, необходимую для десктопа. Когда канал широкий - настройка Maximum игнорируется и PCoIP работает на максимально возможном качестве картинки.
Minimum и Maximum Initial Image Quality - это качество картинки первично передаваемой на десктоп View 5. Т.е. регулируется первично передаваемый регион картинки, а изменяющиеся регионы будут уже регулироваться первой настройкой. По умолчанию установлено в значение 90 (диапазон - от 30 до 100). Minimum Image Qualityне может превышать Maximum Initial Image Quality.
Maximum Frame Rate - по умолчанию это значение равно 30 кадрам в секунду, но для большинства случаев, если установить 15 кадров, то требование к полосе для видео уменьшится до 1,7 раза, при этом гладкость картинки останется вполне приемлемой.
Третий вид оптимизации - оптимизация полосы пропускания для аудио (Configure the PCoIP session audio bandwidth limit).
Тут варианты такие:
1600 kbps - для любителей качественного звука без компрессии в виртуальном ПК
450 kbps - качественный звук с компрессией
50-450 kbps - что-то среднее между FM-радио и телефоном
Если поставить значение 100, то будет нормальный звук (не для меломанов, конечно), при этом полоса, необходимая для аудио, снижается в 5 раз!
Четвертый вид оптимизации - это оптимизация пользовательского ПК с Windows. Тут рекомендации просты:
Выставляем настройку "optimize for performance" - требования к каналу снижаются на 10%
Отключаем шрифты ClearType - получаем еще 5%
Отключаем картинку рабочего стола, скринсэйвер, Windows update, Super-fetch и Windows index - получаем тоже выигрыш в производительности
И, наконец, регулируем настройку "Configure PCoIP client image cache size policy" - это новая функция VMware View 5, позволяющая определять размер кэша для картинок, передаваемых посредством PCoIP на сторону клиента (по умолчанию - 250 МБ)
Читаем полный список оптимизации гостевых ОС Windows 7 в качестве виртуальных ПК VMware View 5.
Вкратце - это первые шаги по оптимизации PCoIP для VMware View 5. Дальше изучаем следующие материалы:
На небезызвестном ресурсе myvirtualcloud.net появилась первая версия калькулятора XenDesktop VDI Calculator, который помогает рассчитать необходимое количество хост-серверов для размещения требуемого количества виртуальных ПК с решением Citrix XenDesktop (напомним, что ранее был выпущен калькулятор для VMware View, а также для PCoIP). В качестве ПО для VDI используются версии XenDesktop 5.0 and 5.5.
На данный момент в качестве серверной платформы виртуализации пока поддерживается только VMware vSphere 5, но, надо сказать, что этот продукт в большенстве случаев и используется в качестве платформы для XenDesktop с доставкой десктопов через MCS (Machine Creation Services) для крупных инсталляций.
Основные возможности XenDesktop VDI Calculator:
Поддержка многоядерных CPU
Поддержка 32-битных разрешений в гостевой ОС виртуальных ПК
Платформа - VMware vSphere 5.0
Поддержка использования 3D-графики в ПК
Расчет выделенных десктопов и пулов
Расчет выделения CPU для ВМ
Поддержка swap-файлов ВМ на локальном хранилище
Поддержка Delivery Controller High Availability
Расчет IOPs'ов на базе типа нагрузки, уровня RAID и т.п.
Расчет overhead'а на поддержку ВМ
Поддержка VM memory reservation
Учет overhead'а на гипервизор
Учет выключенных виртуальных ПК
Учет хранилищ, в том числе для выключенных ВМ
Использовать XenDesktop VDI Calculator можно по этой ссылке.
Компания Citrix анонсировала обновление своей платформы для виртуализации настольных ПК Citrix XenClient, рассказав о новых возможностях XenClient 2.1. Напомним, что продукт позволяет запускать виртуальные машины на рабочих станциях и ноутбуках без хостовой операционной системы, используя тонкую прослойку XenClient.
Новые возможности Citrix XenClient 2.1:
Функция Delta Image Update, которая позволяет компоненту Synchronizer передавать на сторону клиента только различия между файлами образов.
Функция Fast System Updates позволяет передавать обновления в фоновом режиме и применять их во время следующей загрузки.
Возможность очистки изменений в пользовательском профиле и его данных при следующей загрузке (Automatic Image Lockdown, т.е. получение чистого базового образа только с теми приложениями, которые в него закатала служба ИТ).
Возможность отката к прошлой версии образа гостевой ОС Windows (Image Rollback).
Возможность самостоятельного развертывания пользователем приложений, утвержденных со стороны администраторов, через Citrix Receiver for Windows.
Более стабильная работа 3D-графики.
Поддержка виртуализованных USB-устройств.
Расширенная поддержка образов Windows с дисками, которые имеют несколько разделов.
Поддержка соединения компонента Synchronizer к службе каталога с нестандартной структурой OU.
Поддержка нескольких мониторов и новых GPU.
Citrix XenClient 2.1 будет доступен для загрузки в конце этого года.
Как мы уже писали, компания VMware выпустила новую версию своего решения для виртуализации настольных ПК предприятия VMware View 5, имеющую множество улучшений, в том числе в плане производительности протокола PCoIP.
Сейчас стали доступны несколько интересных материалов по View 5. Презентация Родиона Тульского, сотрудника российского подразделения VMware, на русском языке:
Производительность и лучшие практики использования протокола PCoIP:
Продукт VMware Go Pro (о котором мы уже писали) был разработан совместно компаниями Shavlik и VMware и предназначен для упрощения миграции на виртуальную инфраструктуру VMware в небольших организациях и управления ей через веб-браузер. С помощью служб Go можно развертывать новые виртуальные машины на базе бесплатного продукта VMware ESXi (теперь это VMware Hypervisor) и даже делать некоторые процедуры по управлению виртуальной и физической инфраструктурой. Он поставляется в бесплатном издании (Go) и коммерческом (Go Pro). Надо отметить, что продукт поставляется как SaaS-решение и имеет сервисы не только для виртуализации.
Бесплатная версия VMware Go предоставляет следующую функциональность:
IT Advisor - решение для обследования инфраструктуры на предмет виртуализации, которое предоставляет рекомендации по миграции систем.
Мастер установки, настройки и управления бесплатными хост-серверами vSphere hypervisors (ESXi 5)
Создание новых виртуальных машин Virtual Machines
Список программных компонентов в виртуальной среде
Список оборудования
Сканирование систем на обновления, включая ПО не только от Microsoft
Служба Help Desk для управления инцидентами на базе тикетов
Коммерческая версия Go Pro добавляет в решение следующую функциональность:
Управление лицензиями на ПО
Учет оборудования
Развертывание обновлений и патчей
Портал Help Desk для пользователей вашей организации и управление учетными записями
Поддержка SaaS-решения
Возможность использования платной версии продукта VMware Go Pro появится уже до конца года по цене от $12 за управляемую систему в год (для американцев).
Второй продукт - это VMware vCenter Protect Essentials Plus, который раньше назывался Shavlik NetChk Protect. Он позволит управлять обновлениями операционных систем и приложений в физических и виртуальных средах (которое для виртуальных машин раньше было в vSphere как раз от Shavlik). Поставляться он будет в двух издания - Essentials и Essentials Plus (отличия тут).
VMware vCenter Protect Essentials имеет следующие возможности:
Автоматическое сканирование и обновление выключенных виртуальных машин и шаблонов для ПО различных вендоров (например, Microsoft, Adobe, Java)
Работа с группами виртуальных машин
Поиск по domain, organizational unit, machine name, IP-адресу или диапазону IP
Запуск задач по обновлению систем в определенное время и по условиям
Поддержка патчинга для custom-приложений
Накат частных патчей от Microsoft
Custom Patch File Editor - для обновления внутренних продуктов компании
Machine View - информация о системах и их статусе
Поддержка скриптов, например, для сбора логов агентами и др.
Работа с агентами и без них
Поддержка резервного копирования и отката через механизм снапшотов
В решении VMware vCenter Protect Essentials Plus добавляются:
Антивирус на базе Sunbelt VIPRE Enterprise Antivirus and Antispyware
Управление электропитанием серверов через Wake-on LAN (WoL)
Управление конфигурациями систем (Configuration Management)
Расширенная поддержка сценариев, Microsoft PowerShell для автоматизации задач
Возможность использования продукта VMware vCenter Protect Essentials появится уже до конца года по цене от $57 за управляемый сервер в год и от $36 за рабочую станцию (для американцев).
Распространяться оба продукта будут, как я понимаю, через обычных реселлеров.
Приходите - будет интересно, особенно если в вашей компании обрабатываются финансовые данные в виртуальной инфраструктуре. А если вы еще и в банке работаете - то явка обязательна.
Решение Veeam nworks MP 5.7 добавляет в область мониторинга инфраструктуру VMware, позволяя поддерживать единообразие политик и правил для
System Center и отслеживать состояние всей инфраструктуры с помощью уже имеющейся консоли Operations Manager.
Новые возможности Veeam nworks Management Pack 5.7:
Полная поддержка VMware vSphere 5.0
Обработка более 500 событий и более 160 метрик в виртуальной инфраструктуре
Новые виды отчетов, включая отчет по виртуальным машинам, которым выделено слишком много ресурсов
Новые типы представлений (более 20) отчетных данных и обзорные экраны (dashboards)
Поддержка больших инсталляций vSphere
Мониторинг оборудования напрямую с хостов ESXi через интерфейс CIM
Оптимизация производительности и обнаружения объектов
Решение Veeam nworks SPI 5.7 добавляет в область мониторинга инфраструктуру VMware в консоль HP Operations Manager.
Новые возможности Veeam nworks Smart Plug-in 5.7:
Полная поддержка VMware vSphere 5.0
Поддержка HP Operations Manager 9.0 for Windows
ПоддержкаHP Performance Agent 11
Поддержка последней версии Veaam Business View для организации мониторинга по бизнес-объектам
Поддержка больших инсталляций vSphere
Динамическая группировка кластеров, хостов, хранилищ и виртуальных машин
Мониторинг оборудования напрямую с хостов ESXi через интерфейс CIM
Решения Veeam nworks Management Pack и Smart Plug-in 5.7 будут доступны для загрузки в течение 60 дней. Пока можно скачать бета-версии и отслеживать новости на этой странице.
Скоро нам придется участвовать в интереснейшем проекте - построение "растянутого" кластера VMware vSphere 5 на базе технологии и оборудования EMC VPLEX Metro с поддержкой возможностей VMware HA и vMotion для отказоустойчивости и распределения нагрузки между географически распределенными ЦОД.
Вообще говоря, решение EMC VPLEX весьма новое и анонсировано было только в прошлом году, но сейчас для нашего заказчика уже едут модули VPLEX Metro и мы будем строить active-active конфигурацию ЦОД (расстояние небольшое - где-то 3-5 км) для виртуальных машин.
Для начала EMC VPLEX - это решение для виртуализации сети хранения данных SAN, которое позволяет объединить ресурсы различных дисковых массивов различных производителей в единый логический пул на уровне датацентра. Это позволяет гибко подходить к распределению дискового пространства и осуществлять централизованный мониторинг и контроль дисковых ресурсов. Эта технология называется EMC VPLEX Local:
С физической точки зрения EMC VPLEX Local представляет собой набор VPLEX-директоров (кластер), работающих в режиме отказоустойчивости и балансировки нагрузки, которые представляют собой промежуточный слой между SAN предприятия и дисковыми массивами в рамках одного ЦОД:
В этом подходе есть очень много преимуществ (например, mirroring томов двух массивов на случай отказа одного из них), но мы на них останавливаться не будем, поскольку нам гораздо более интересна технология EMC VPLEX Metro, которая позволяет объединить дисковые ресурсы двух географически разделенных площадок в единый пул хранения (обоим площадкам виден один логический том), который обладает свойством катастрофоустойчивости (и внутри него на уровне HA - отказоустойчивости), поскольку данные физически хранятся и синхронизируются на обоих площадках. В плане VMware vSphere это выглядит так:
То есть для хост-серверов VMware ESXi, расположенных на двух площадках есть одно виртуальное хранилище (Datastore), т.е. тот самый Virtualized LUN, на котором они видят виртуальные машины, исполняющиеся на разных площадках (т.е. режим active-active - разные сервисы на разных площадках но на одном хранилище). Хосты ESXi видят VPLEX-директоры как таргеты, а сами VPLEX-директоры являются инициаторами по отношению к дисковым массивам.
Все это обеспечивается технологией EMC AccessAnywhere, которая позволяет работать хостам в режиме read/write на массивы обоих узлов, тома которых входят в общий пул виртуальных LUN.
Надо сказать, что технология EMC VPLEX Metro поддерживается на расстояниях между ЦОД в диапазоне до 100-150 км (и несколько более), где возникают задержки (latency) до 5 мс (это связано с тем, что RTT-время пакета в канале нужно умножить на два для FC-кадра, именно два пакета необходимо, чтобы донести операцию записи). Но и 150 км - это вовсе немало.
До появления VMware vSphere 5 существовали некоторые варианты конфигураций для инфраструктуры виртуализации с использованием общих томов обоих площадок (с поддержкой vMotion), но растянутые HA-кластеры не поддерживались.
С выходом vSphere 5 появилась технология vSphere Metro Storage Cluster (vMSC), поддерживаемая на сегодняшний день только для решения EMC VPLEX, но поддерживаемая полностью согласно HCL в плане технологий HA и vMotion:
Обратите внимание на компонент посередине - это виртуальная машина VPLEX Witness, которая представляет собой "свидетеля", наблюдающего за обоими площадками (сам он расположен на третьей площадке - то есть ни на одном из двух ЦОД, чтобы его не затронула авария ни на одном из ЦОД), который может отличить падения линка по сети SAN и LAN между ЦОД (экскаватор разрезал провода) от падения одного из ЦОД (например, попадание ракеты) за счет мониторинга площадок по IP-соединению. В зависимости от этих обстоятельств персонал организации может предпринять те или иные действия, либо они могут быть выполнены автоматически по определенным правилам.
Теперь если у нас выходит из строя основной сайт A, то механизм VMware HA перезагружает его ВМ на сайте B, обслуживая их ввод-вывод уже с этой площадки, где находится выжившая копия виртуального хранилища. То же самое у нас происходит и при массовом отказе хост-серверов ESXi на основной площадке (например, дематериализация блейд-корзины) - виртуальные машины перезапускаются на хостах растянутого кластера сайта B.
Абсолютно аналогична и ситуация с отказами на стороне сайта B, где тоже есть активные нагрузки - его машины передут на сайт A. Когда сайт восстановится (в обоих случаях с отказом и для A, и для B) - виртуальный том будет синхронизирован на обоих площадках (т.е. Failback полностью поддерживается). Все остальные возможные ситуации отказов рассмотрены тут.
Если откажет только сеть управления для хостов ESXi на одной площадке - то умный VMware HA оставит её виртуальные машины запущенными, поскольку есть механизм для обмена хартбитами через Datastore (см. тут).
Что касается VMware vMotion, DRS и Storage vMotion - они также поддерживаются при использовании решения EMC VPLEX Metro. Это позволяет переносить нагрузки виртуальных машин (как вычислительную, так и хранилище - vmdk-диски) между ЦОД без простоя сервисов. Это открывает возможности не только для катастрофоустойчивости, но и для таких стратегий, как follow the sun и follow the moon (но 100 км для них мало, специально для них сделана технология EMC VPLEX Geo - там уже 2000 км и 50 мс latency).
Самое интересное, что скоро приедет этот самый VPLEX на обе площадки (где уже есть DWDM-канал и единый SAN) - поэтому мы все будем реально настраивать, что, безусловно, круто. Так что ждите чего-нибудь про это дело интересного.
Компания VKernel (о которой мы много писали) выпустила очередную бесплатную, но весьма интересную утилиту - vScope Explorer. Объекты виртуальной инфраструктуры, включая хост-серверы, кластеры хранилища и виртуальные машины, с помощью утилиты можно визуализовать на dashboarde для виртуального датацентра, где видны основные источники проблем производительности, а также перегрузка ресурсов (вычислительных и хранилищ) и необходимые меры по добавлению новых мощностей:
Основные задачи, которые решает VKernel vScope Explorer:
Идентификация проблем с производительностью для виртуальных машин и хост-серверов в пределах не только одного датацентра, но и нескольких площадок под управлением нескольких серверов vCenter. В качестве движка продукта используется технология Capacity Analytics Engine.
Анализ текущего состояния вычислительных мощностей и информирование о том, как их необходимо увеличивать в случае их нехватки для виртуальных машин (Host Capacity Issues).
Анализ эффективности работы виртуальных машин и вывод информации о тех из них, которым выделено слишком много или, наоборот, слишком мало ресурсов.
Отчет об эффективности использования хранилищ: выводятся datastores, где место используется неэффективно (изолированные vmdk, выключенные машины, снапшоты, шаблоны и т.п.) - все это на одном экране для нескольких виртуальных датацентров.
Скачать бесплатный VKernel vScope Explorer можно по этой ссылке.
После выпуска платформы Citrix Xen Cloud Platform (XCP) 1.0, компания Citrix совместно с сообществом разработчиков Xen.org выпустила обновленную версию своей облачной платформы XCP 1.1. Напомним, что проект XCP является свободной облачной платформой на базе XenServer, распространяемой под лицензией GPLv2. Поддержка Xen API позволяет переносить виртуальные машины на платформы Amazon EC2, Rackspace Cloud Servers или GoGrid (например, в случае нехватки ресурсов в своем ЦОД).
Новые возможности Citrix Xen Cloud Platform 1.1:
Поддержка технологии IntelliCache, которая позволяет использовать для кэширования данных виртуальных машин локальные и общие хранилища, что увеличивает быстродействие, особенно в VDI-окружениях.
Локальное хранилище поддерживает все физические диски, объединяемые через LVM.
Поддержка режима "Reset-on-boot" для дисков из репозиториев любого типа (ранее поддерживалось только для NFS и EXT).
Поддержка Red Hat Enterprise Linux (RHEL) 6 в качестве гостевой ОС.
Улучшения интеграции с OpenStack: поддержка ebtables и других возможностей netfilter (отключено по умолчанию). Это фаервол, поддерживающий DNAT/SNAT для MAC-адресов и маршрутизацию по MAC-адресам.
Переопределение Xen API: хосты XCP теперь могут работать как будто они хосты XenServer, что улучшает интеграцию с XenCenter.
Скачать дистрибутив Citrix XCP 1.1 в виде ISO-образа можно по этой ссылке.
Кстати, вот интересная табличка сравнения изданий Citrix XenServer и XCP (кликабельно):
Пусть повисит тут эта инструкция - полезно и часто ищут. SSH на хосте VMware ESXi 5 можно включить двумя способами - через консоль сервера ESXi и через vSphere Client. Надо отметить, что в отличие от предыдущих версий ESX/ESXi, доступ по SSH к хосту ESXi 5.0 полностью поддерживается и является нормальным рабочим процессом.
1. Включение SSH на ESXi 5 через консоль.
Нажимаем <F2> в консоли:
Вводим пароль root и переходит в пункт "Troubleshooting Options":
Выбираем пункт "Enable SSH":
2. Включение SSH на ESXi 5 через vSphere Client.
Переходим на вкладку "Configuration", выбираем пункт "Security Profile" и нажимаем "Properties":
Выбираем сервис SSH и нажимаем "Options":
Устанавливаем режим запуска сервиса SSH на ESXi и включаем его кнопкой Start:
После включения SSH на ESXi 5.0 у вас появятся следующие предупреждения в vSphere Client для хоста:
SSH for the host has been enabled
Если вы включали ESXi Shell, то будет сообщение:
ESXi Shell for the Host has been enabled
Чтобы их убрать, нужно сделать так:
Выбираем нужный хост ESXi.
Переходим в категорию "Advanced Settings" в разделе "Software" на вкладке "Configuration".
Переходим в раздел UserVars > UserVars.SupressShellWarning.
Меняем значение с 0 на 1.
Нажимаем OK.
Но, вообще говоря, так делать не надо, так как SSH лучше выключать в целях безопасности на время, когда вы им не пользуетесь.
Ну и как войти по SSH на ESXi 5 пользователе root читаем тут - ничего не изменилось.
Неожиданно оказался в числе приглашённых на пресс-конференцию, посвящённую официальному открытию представительства Red Hat в России. Мероприятие состоялось 13 октября в отеле «Ренесанс-Москва» и, не считая мелких накладок, было организовано на достаточно высоком уровне. Честно говоря, думал, что пресс-конференция будет скучной и чопорной, но ошибся. Под хабркатом описание всего происходившего на пресс-конференции будет разбавлено моими комментариями (курсивом). Заранее прошу прощения за качество фотографий — снимал на фотокамеру телефона...
Иногда бывает так, что без видимых причин виртуальная машина на хост-сервере Microsoft Hyper-V зависает. В этом случае не хочется перезагружать хост только из-за нее одной, так как в других машинах могут исполняться критичные нагрузки. Поэтому ниже приведен способ обнаружения процесса с ВМ, и рассказано, как убить этот зависший процесс.
Итак, открываем Task Manager и находим процесс vmwp.exe - это и есть процесс с виртуальной машиной. Но процессов этих столько же, сколько у вас исполняется виртуальных машин, поэтому найти нужный сразу не получится:
Поэтому идем в папку с зависшей виртуальной машиной и ищем ее GUID. Для этого заходим в подпапку "Virtual Machines" и видим там xml-файл, имя которого и есть GUID этой машины:
Теперь идем в Task Manager, нажимаем View->Select Columns:
Выбираем колонки Command Line и Description:
Нажимаем Ok и видим в команде запуска процесса vmwp.exe путь с GUID виртуальной машины:
Поскольку мы уже выяснили GUID искомой виртуальной машины из xml-файла, мы можем смело убивать этот процесс: