Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6480 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Виртуализация VMware vSphere / ESX / ESXi, VMware View, VMware Workstation и др.

VMware
Fusion
Update

Вышел VMware Fusion 8.1 - новые возможности платформы виртуализации для Mac.

(0 Comment)

Компания VMware на днях выпустила обновление своей платформы виртуализации для Mac OS - VMware Fusion 8.1. Напомним, что о прошлой версии VMware Fusion 8 мы писали вот тут.

Интересно, что эта версия продукта не предоставляет новых возможностей, но несет в себе достаточно много исправлений ошибок, что означает, что их в восьмой версии было немало (вообще говоря, в последнее время VMware довольно часто выпускает продукты с серьезными багами).

От себя скажу, что для меня лично была очень актуальна ошибка с задержками при работе в Excel - пишут что был "one-second delay", однако ничего подобного - у меня вся машина фризилась секунд на 20-30, пока я не обновил Fusion.

Итак, какие багофиксы были сделаны:

  • Исправления ошибок для упрощенного процесса инсталляции гостевых ОС из ISO-образов Windows 10 и Windows server 2012 R2.
  • Исправлена ошибка с неработающим обратным DNS lookup в виртуальной машине, когла на Mac-хосте установлен сервер dnsmasq.
  • Исправление ошибки с крэшем машины при отключении внешнего монитора от Mac, когда Fusion работает в полноэкранном режиме.
  • Исправлена ошибка при зависании машины на несколько секунд при работе в Microsoft Excel.
  • Исправлена ошибка, когда использование USB-устройств на OS X 10.11 могло завалить виртуальную машину.
  • Исправлена ошибка, когда хостовая и гостевая раскладки клавиатуры (non-English) отличались при использовании VNC.
  • Исправлена ошибка подключения хоста к гостевой ОС, когда USB Attached SCSI (UAS) присоединен к порту USB 3.0 на Mac OS X 10.9 или более поздних версий.
  • Исправлено поведение, когда копирование большого файла с USB могло приводить к замораживанию процесса и в итоге его прерыванию по таймауту.

Посмотрите на список: большинство из этого - реально серьезные вещи. Что-то VMware в последнее время не радует своим подходом к тестированию продуктов.

Обновление VMware Fusion 8.1 бесплатно для всех пользователей восьмой версии, скачать его можно по этой ссылке.

VMware
vSphere
Performance

Сколько "съедает" виртуализация бизнес-критичных приложений на платформе VMware vSphere?

(0 Comment)

На блогах VMware появился интересный пост про производительность виртуальных машин, которые "растянуты" по ресурсам на весь физический сервер, на котором они запущены. В частности, в посте речь идет о сервере баз данных, от которого требуется максимальная производительность в числе транзакций в секунду (см. наш похожий пост о производительности облачного MS SQL здесь).

В данном случае речь идет о виртуализации БД с типом нагрузки OLTP, то есть обработка небольших транзакций в реальном времени. Для тестирования использовался профиль Order-Entry, который основан на базе бенчмарка TPC-C. Результаты подробно описаны в открытом документе "Virtualizing Performance Critical Database Applications in VMware vSphere 6.0", а здесь мы приведем основные выдержки.

Сводная таблица потерь на виртуализацию:

Метрика Нативное исполнение нагрузки Виртуальная машина
Пропускная способность транзакций в секунду 66.5K 59.5K
Средняя загрузка логических процессоров (72 штуки) 84.7% 85.1%
Число операций ввода-вывода (Disk IOPS) 173K 155K
Пропускная способность ввода-вывода дисковой подсистемы (Disk Megabytes/second) 929MB/s 831MB/s
Передача пакетов по сети в секунду 71K/s receive
71K/s send
63K/s receive
64K/s send
Пропускная способность сети в секунду 15MB/s receive
36MB/s send
13MB/s receive
32MB/s send

А вот так выглядит график итогового тестирования (кликабельно):

Для платформы VMware ESXi 5.1 сравнивалась производительность на процессоре микроархитектуры Westmere, а для ESXi 6.0 - на процессорах Haswell.

Результаты, выраженные в числе транзакций в секунду, вы видите на картинке. Интересно заметить, что ESXi версии 6.0 всерьез прибавил по сравнению с прошлой версией в плане уменьшения потерь на накладные расходы на виртуализацию.

А вот так выглядят усредненные значения для версий ESXi в сравнении друг с другом по отношению к запуску нагрузки на нативной платформе:

Ну и несложно догадаться, что исследуемая база данных - это Oracle. Остальное читайте в интереснейшем документе.

VMware
View
Horizon

Вышел VMware View Horizon Toolbox 2 - новые возможности средства аудита и поддержки виртуальных ПК.

(0 Comment)

Год назад мы писали о средстве VMware View Horizon Toolbox, доступном на сайте проекта VMware Labs, которое позволяет получать информацию о виртуальных ПК, производительности и сессиях пользователей в инфраструктуре VMware Horizon View. В начале декабря вышла обновленная версия утилиты - Horizon Toolbox 2.

Horizon Toolbox 2 - это дополнение к стандартной консоли View Administrator, исполненное в виде веб-портала с различными функциями вроде аудита, удаленной поддержки и прочих полезных возможностей:

Перечислим основные нововведения VMware View Horizon Toolbox 2:

1. Console Access

Теперь появилась возможность полноценного доступа к консоли виртуальных ПК:

Можно просматривать список виртуальных машин для пулов виртуальных ПК и фильтровать их по именам машин (или DNS-именам).

2. Power-on policy

Теперь появилась вкладка Power-on policy, на которой можно посмотреть и изменить политику включения рабочих виртуальных ПК по дням недели:

Отдельную политику включения можно настраивать для каждого пула виртуальных десктопов.

3. Client IP address auditing

Теперь можно просматривать детальную информацию обо всех сессиях, обслуживаемых брокером соединений: IP-адреса клиентов, время логина и логаута и другое.

4. Installation file

Теперь процесс развертывания Horizon Toolbox 2 идет в полноценном графическом интерфейсе.

5. Прочие улучшения

  • Производительность функций аудита была существенно повышения за счет оптимизации SQL-запросов.
  • Функция Remote assistance работает более стабильно.
  • Улучшена совместимость с различными версиями Horizon View.
  • Установщик на стороне пользователя проверяет, что режим Windows Remote Assistance настроен корректно.

Также вы можете почитать 2 полезных документа о View Horizon Toolbox 2 - это руководство по продукту, а также открытый документ об этом решении.

Скачать Horizon Toolbox 2 можно по этой ссылке.

VMware
PowerCLI
PowerShell

Команда Connect-VIServer в PowerCLI: глубокое погружение или «куда же я подключен?»

(0 Comment)

VMware PowerCLI – это весьма мощный инструмент управления, а всё, что нужно сделать для начала работы с ним - это подключиться к серверу или серверам виртуальной инфраструктуры, которыми могут являться сервер управления vCenter Server, Linux vCenter Server Appliance (vCSA) или ESXi-хост.

VMware
vCloud
Air

Производительность Microsoft SQL Server в облаке VMware vCloud Air.

(0 Comment)

В блоге VMware появился интересный пост о производительности СУБД Microsoft SQL Server на облачной платформе VMware vCloud Air. Целью исследования было выявить, каким образом увеличение числа процессоров и числа виртуальных машин сказываются на увеличении производительности баз данных, которые во многих случаях являются бизнес-критичными приложениями уровня Tier 1 на предприятии.

В качестве тестовой конфигурации использовались виртуальные машины с числом виртуальных процессоров (vCPU) от 4 до 16, с памятью от 8 до 32 ГБ на одну ВМ, а на хост-серверах запускалось от 1 до 4 виртуальных машин:

На физическом сервере было 2 восьмиядерных процессора (всего 16 CPU), то есть можно было запустить до 16 vCPU в режиме тестирования линейного роста производительности (Hyper-Threading не использовался).

В качестве приложения использовалась база данных MS SQL с типом нагрузки OLTP, а сами машины размещались на хостинге vCloud Air по модели Virtual Private Cloud (более подробно об этом мы писали вот тут). Для создания стрессовой нагрузки использовалась утилита DVD Store 2.1.

Первый эксперимент. Увеличиваем число четырехпроцессорных ВМ на хосте от 1 до 4 и смотрим за увеличением производительности, выраженной в OPM (Orders Per Minute), то есть числе небольших транзакций в минуту:

Как видно, производительность показывает вполне линейный рост с небольшим несущественным замедлением (до 10%).

Второй эксперимент. Увеличиваем число восьмипроцессорных ВМ с одной до двух:

 

Здесь также линейный рост.

Замеряем производительность 16-процессорной ВМ и сводим все данные воедино:

 

Проседание производительности ВМ с 16 vCPU обусловлено охватом процессорами ВМ нескольких NUMA-узлов, что дает некоторые потери (да и вообще при увеличении числа vCPU удельная производительность на процессор падает).

Но в целом, как при увеличении числа процессоров ВМ, так и при увеличении числа виртуальных машин на хосте, производительность растет вполне линейно, что говорит о хорошей масштабируемости Microsoft SQL Server в облаке vCloud Air.

Кстати, если хочется почитать заказуху про то, как облака VMware vCloud Air уделывают Microsoft Azure и Amazon AWS, можно пройти по этим ссылкам:

Partnership

Порталу о виртуализации VM Guru 9 лет! Поздравляйте)

(0 Comment)

Осенью 2006 года я начал вести первый и на тот момент единственный на русском языке блог о виртуализации (понятное дело, тогда его никто еще не читал). Сначала это был небольшой бложек на движке Blogger, и посты были о каких-то настройках в VMware Workstaion. Того блога, как и первой версии сайта, уже давным давно нет, а портал VM Guru как самостоятельный ресурс оформился ровно 9 лет назад - 3 декабря 2006 года. Вот так он выглядел в далеком 2006 году:

С тех пор на нашем сайте появилось более трех с половиной тысяч записей, и сегодня это главный ресурс о виртуализации в России.

Трудно такое представить, но системные администраторы, которые сейчас управляют виртуальными инфраструктурами в свои 22 года, закончив институт, тогда еще ходили в 8-й класс. От всей души поздравляю всех авторов VM Guru и наших читателей с годовщиной!

Спасибо, что остаетесь с нами.

VMware
CBT
Bug

Фикс бага с Changed Block Tracking в VMware vSphere 6 оказался неполным - новый баг.

(0 Comment)

Странные вещи происходят в последнее время с VMware. Сначала в технологии Changed Block Tracking (CBT) платформы VMware vSphere 6 был найдет серьезный баг, заключавшийся в том, что операции ввода-вывода, сделанные во время консолидации снапшота ВМ в процессе снятия резервной копии, могли быть потеряны. Из-за этого пользователи переполошились не на шутку, ведь бэкапы, а это критически важная составляющая инфраструктуры, могли оказаться невосстановимыми.

Недавно этот баг был пофикшен в обновлении ESXi600-201511401-BG, и вроде бы все стало окей. Но нет - оказалось, что накатить обновление на ваши серверы VMware ESXi недостаточно, о чем своевременно сообщила компания Veeam (официальная KB находится вот тут). Нужно еще и сделать операцию "CBT reset", то есть реинициализировать Changed Block Tracking для виртуальных машин.

Все дело в том, что уже созданные файлы CBT map могут содержать невалидные данные, касательно изменившихся блоков, а ведь они могли быть созданы еще до накатывания патча от VMware. Таким образом, простое обновление ESXi не убирает потенциальную проблему - старые файлы *-ctk.vmdk могут, по-прежнему, быть источником проблем. Удивительно, как такая могучая компания как VMware просто взяла и прошляпила этот момент.

Итак, как нужно делать CBT reset для виртуальной машины описано вот тут у Veeam. Приведем этот процесс вкратце:

1. Открываем настройки виртуальной машины (да-да, для каждой ВМ придется это делать) и идем в Configuration Parameters:

2. Там устанавливаем значение параметра:

ctkEnabled = false

3. Далее устанавливаем

scsi0:x.ctkEnabled также в значение false:

4. Открываем папку с виртуальной машиной через Datastore Browser и удаляем все файлы *-ctk.vmdk (это и есть CBT map файлы):

5. Включаем виртуальную машину и заново запускаем задачу резервного копирования Veeam Backup and Replication.

Для тех, кто умеет пользоваться интерфейсом PowerCLI есть бонус - компания Veeam сделала PowerShell-скрипт, который автоматизирует эту операцию. Он позволяет переинициализировать CBT для указанных пользователем виртуальных машин. Виртуальные машины со снапшотом, а также выключенные ВМ будут проигнорированы. Также надо отметить, что при выполнении сценария создается снапшот машины, а потом удаляется, что может вызвать временное "подвисание" машины и ее недоступность в течение некоторого времени, поэтому лучше выполнять этот скрипт ночью или в нерабочие часы.

1cloud
IaaS
Cloud

Представляем нового спонсора VM Guru - компанию 1cloud.

(0 Comment)

Рады представить вам очередного спонсора ресурса VM Guru - компанию 1cloud, предоставляющую услуги по аренде виртуальной инфраструктуры для физических и юридических лиц с 2012 года. Кликайте на баннер справа.

На данный момент оборудование 1cloud размещено в двух Дата-Центрах Росси: SDN в Санкт-Петербурге и Dataspace в Москве. Для построения инфраструктуры используется только самое надежное, качественное и современное оборудование: CISCO, DELL, NetApp, Juniper и другое).

В 1cloud используется платформа виртуализации VMware vSphere. 1cloud гарантирует доступность по SLA на уровне 99,9%. Главным вектором в развитии сервиса сотрудники 1cloud простоту и удобство работы с сервисом. Именно поэтому 1cloud постоянно дополняется всевозможными фичами призванными упростить жизнь конечного пользователя, например, возможность автоматического выставления счетов или возможность добавлять дополнительные диски различных типов. При этом, дизайн и устройство собственной панели управления 1cloud позволяют легко воспользоваться всем спектром возможностей пользователям с любым уровнем знаний в IT.

С той же целью в 1cloud разработали довольно обширную базу знаний, покрывающую основные потребности и вопросы пользователей, которая постоянно пополняется новыми статьями. Добавив к вышесказанному надежность, отказоустойчивость архитектуры 1cloud, весьма демократичные цены и качественную, вежливую техническую поддержку, работающую в режиме 24x7, вы получите представление о 1cloud.ru.

Аренда виртуальной инфраструктуры в 1cloud - это отличный выбор как для среднего и малого бизнеса, так и для частных лиц. Зайдите на сайт и вы сразу увидите конфигуратор виртуального сервера, а также его цену за месяц, сутки и час:


Выбирая 1cloud, Вы получаете сразу целый ряд выгод по доступным ценам:

  1. Надежное оборудование High-End класса.
  2. Возможность изменения конфигурации Ваших VPS практически налету.
  3. Использование технологий High Availability и DRS позволяют гарантировать непрерывную доступность ваших виртуальных серверов и их высокую производительность (доступность по SLA 99,9 %).
  4. Выделенный IPv4 для каждого виртуального сервера.
  5. Тарификация каждые 10 минут и оплата только тех ресурсов, которые вы используете (при выключенном сервере оплата за RAM и CPU не списывается) позволяют экономить Ваши средства.
  6. API, позволяющий автоматизировать операции в виртуальной среде.
  7. Грамотная вежливая техподдержка, доступная в любой момент дня и ночи.
  8. Собственная удобная и простая панель управления, с множеством возможностей:
    - Изменять конфигурацию виртуального сервера
    - Создавать частные сети
    - Управлять DNS записями
    - Создавать снапшоты виртуальных серверов
    - Управлять резервными копиями серверов
    - Работать с виртуальными серверами через web-консоль
    - Создавать шаблоны виртуальных серверов и разворачивать из них новые сервера.
  9. Удобные средства оплаты как для физических так и для юридических лиц (автовыставление счетов).
  10. Финансовые закрывающие документы для юр. лиц.
  11. Обширная, постоянно пополняющаяся база знаний.

При этом 1cloud постоянно развивают и улучшают свой сервис - оставляйте ваши комментарии. Подробнее о компании вы можете узнать по этой ссылке: https://1cloud.ru

VMware
Virtual SAN
Stretched Cluster

Какая полоса пропускания необходима для "растянутого кластера" (VMware Virtual SAN Stretched Cluster)?

(0 Comment)

Мы уже писали о том, что "растянутый" кластер VMware HA Stretched Cluster прекрасно работает и поддерживается вместе с отказоустойчивыми хранилищами Virtual SAN. Также мы писали о документе с лучшими практиками по построению таких кластеров, для которых требуется обеспечивать максимальную производительность.

Однако многие задаются вопросом - а как планировать ширину канала между площадками таких растянутых кластеров, чтобы обеспечить необходимую пропускную способность для синхронизации узлов кластера VMware Virtual SAN? В помощь таким пользователям компания VMware выпустила интересный документ "VMware Virtual SAN Stretched Cluster Bandwidth Sizing Guidance", в котором даются конкретные параметры и формулы для расчета необходимой пропускной способности между площадками.

Архитектура растянутого кластера в общем случае выглядит так:

Таким образом, имеет место быть 2 связи - между двумя площадками как узлами кластера, а также между каждой из площадок и компонентом Witness, следящим за состоянием каждой из площадок и предотвращающим сценарии Split Brain.

Для этих соединений рекомендуются следующие параметры:

Как известно, реальный трафик состоит из отношения операций чтения и записи, которое зависит от характера нагрузки. Например, в VDI-среде это отношение составляет примерно 30/70, то есть 30% - это операции чтения (read), а 70% - операции записи (write).

В среде растянутого кластера данные виртуальной машины всегда читаются с локальных узлов VSAN - это называется Read Locality. Ну а для операций записи, само собой, нужна определенная пропускная способность на другую площадку. Она рассчитывается как:

B = Wb * md * mr

где:

  • Wb - полоса записи данных.
  • md - множитель данных, он зависит от потока метаданных кластера VSAN и сервисных операций. VMware рекомендует использовать значение 1,4 для этого параметра.
  • mr - множитель ресинхронизации. Для целей ресинхронизации VMware рекомендует заложить в канал еще 25%, то есть использовать значение этого параметра 1,25.

Например, рабочая нагрузка у вас составляет 10 000 IOPS на запись (10 тысяч операций в секунду). Возьмем типичный размер операции записи в 4 КБ и получим параметр Wb:

Wb = 10 000 * 4KB = 40 MB/s = 320 Mbps

Мегабайты в секунду переводятся в мегабиты умножением на 8. Ну и заметим, что требование канала по записи нужно умножать на 1,4*1,25 = 1,75. То есть канал нужно закладывать почти в 2 раза больше от требований по записи данных.

Теперь считаем требуемую пропускную способность канала между площадками:

B = Wb * md * mr = 320 Mbps * 1,4 * 1,25 = 560 Mbps

Ну а в самом документе вы найдете еще больше интересных расчетов и примеров.

VMware
vSphere
Backup

Вышло исправление ошибки Changed Block Tracking для VMware vSphere 6 - как скачать.

(0 Comment)

Некоторое время назад мы писали об очень серьезном баге в технологии Changed Block Tracking, обеспечивающей работу инкрементального резервного копирования виртуальных машин VMware vSphere 6. Баг заключался в том, что операции ввода-вывода, сделанные во время консолидации снапшота ВМ в процессе снятия резервной копии, могли быть потеряны. Для первого бэкапа в этом нет ничего страшного, а вот вызываемая во второй раз функция QueryDiskChangedAreas технологии CBT не учитывала потерянные операции ввода-вывода, а соответственно при восстановлении из резервной копии такой бэкап был неконсистентным.

Мы писали про временное решение, заключающееся в отключении технологии CBT при снятии резервных копий продуктом Veeam Backup and Replication, но оно, конечно же, было неприемлемым, так как скорость бэкапов снижалась в разы, расширяя окно резервного копирования до неприличных значений.

И вот, наконец, вышло исправление этого бага, описанное в KB 2137545. Это патч для сервера VMware ESXi, который распространяется в виде стандартного VIB-пакета в сжатом zip-архиве.

Чтобы скачать патч, идите по этой ссылке, выберите продукт "ESXi Embedded and Installable" и введите в поле Enter Bulletin Number следующую строчку:

ESXi600-201511401-BG

Нажмите Search, после чего скачайте обновленный билд VMware ESXi 6.0 по кнопке Download:

 

Про патч в формате VIB-пакета написано вот тут, а про сам обновленный релиз ESXi вот тут. Для установки VIB на сервере ESXi используйте следующую команду:

# esxcli software vib install -d "/vmfs/volumes/Datastore/DirectoryName/PatchName.zip"

Более подробно об установке VIB-пакетов написано тут.

VMware
Virtual SAN
Performance

Как работает кэш на чтение в VMware Virtual SAN и новый документ о кэшировании на SSD.

(0 Comment)

Компания VMware выпустила очень познавательный документ "An overview of VMware Virtual SAN caching algorithms", который может оказаться полезным всем тем, кто интересуется решением для создания программных хранилищ под виртуальные машины - VMware Virtual SAN. В документе описан механизм работы кэширования, который опирается на производительные SSD-диски в гибридной конфигурации серверов ESXi (то есть, SSD+HDD).

SSD-диски используются как Performance tier для каждой дисковой группы, то есть как ярус производительности, который преимущественно предназначен для обеспечения работы механизма кэширования на чтение (Read cache, RC). По умолчанию для этих целей используется 70% емкости SSD-накопителей, что экспериментально было определено компанией VMware как оптимальное соотношение.

SSD-диски значительно более производительны в плане IOPS (тысячи и десятки тысяч операций в секунду), поэтому их удобно использовать для кэширования. Это выгодно и с экономической точки зрения (доллары на IOPS), об этом в документе есть наглядная табличка:

То есть, вы можете купить диск SSD Intel S3700 на 100 ГБ за $200, который может выдавать до 45 000 IOPS, а это где-то $0,004 за IOPS. С другой же стороны, можно купить за те же $200 диск от Seagate на 1 ТБ, который будет выдавать всего 100 IOPS, что составит $2 на один IOPS.

Кэш на чтение (RC) логически разделен на "cache lines" емкостью 1 МБ. Это такая единица информации при работе с кэшем - именно такой минимальный объем на чтение и резервирование данных в памяти используется. Эта цифра была высчитана экспериментальным путем в исследовании нагрузок на дисковую подсистему в реальном мире, которое VMware предпочитает не раскрывать. Кстати, такой же величины объем блока в файловой системе VMFS 5.x.

Помимо обслуживания кэша на SSD, сервер VMware ESXi использует небольшой объем оперативной памяти (RAM) для поддержки горячего кэша обслуживания этих самых cache lines. Он содержит несколько самых последних использованных cache lines, а его объем зависит от доступной памяти в системе.

Также в памяти хранятся некоторые метаданные, включая логические адреса cache lines, валидные и невалидные регионы кэша, информация о сроке хранения данных в кэше и прочее. Все эти данные постоянно хранятся в памяти в сжатом виде и никогда не попадают в своп. При перезагрузке или выключении/включении хоста кэш нужно прогревать заново.

Итак, как именно работает кэширование на SSD в VMware Virtual SAN:

1. Когда операция чтения приходит к Virtual SAN, сразу же включается механизм определения того, находятся ли соответствующие данные в кэше или нет. При этом запрашиваемые данные за одну операцию могут быть больше одной cache line.

2. Если данные или их часть не находятся в RC, то для них резервируется буфер нужного объема с гранулярностью 1 МБ (под нужное количество cache lines).

3. Новые аллоцированные cache lines вытесняют из кэша старые в соответствии с алгоритмом Adaptive Replacement Cache (ARC), который был лицензирован VMware у IBM.

4. В случае промаха кэша каждое чтение одной cache line с HDD разбивается на чанки размером 64 КБ (этот размер тоже был определен экспериментально в ходе исследований). Это сделано для того, чтобы не забивать очередь на чтение с HDD "жирной" операцией чтения в 1 МБ, которая бы затормозила общий процесс ввода-вывода на диск.

5. В общем случае, одна операция чтения запрашивает лишь часть данных одной cache line, а первыми читаются именно нужные 64 КБ чанки с HDD-диска от этой cache line.

6. Запрошенные с HDD-диска данные сразу отдаются к подсистеме вывода и направляются туда, откуда их запросили, а уже потом в асинхронном режиме они попадают в соответствующие cache lines кэша и под каждую из них выделяется буфер 1 МБ в памяти. Таким образом устраняются потенциальные затыки в производительности.

В документе описаны также и механики работы кэша на запись (Write cache), для которого используется техника write-back, а также рассматриваются All Flash конфигурации. Читайте - это интересно!

VMware
vSphere
PowerCLI

VMware Sample Exchange - центр загрузки шаблонов для скриптов управления виртуальной инфраструктурой.

(0 Comment)

Компания VMware на днях представила проект VMware Sample Exchange, представляющий собой портал, где разработчики выкладывают для загрузки различные шаблоны сценариев, помогающие в решении повседневных задач по администрированию виртуальной инфраструктуры VMware vSphere.

На этом сайте можно найти не только сценарии сотрудников VMware на языках/оболочках PowerShell/PowerCLI, Python, Ruby, Java и других, но и предложить свой вариант решения задачи или запросить его у сообщества профессионалов, которые будут там тусоваться (потому и называется Exchange). На данный момент на портале есть контент от таких известных многим людей, как Alan Renouf и William Lam.

Сейчас загружать свой контент и сценарии могут только носители звания VMware vExpert и авторизованные со стороны VMware люди, но в релизной версии сервиса это смогут сделать все желающие (на данный момент обсуждения по этим вопросам находятся вот тут).

В левой колонке портала находятся фильтры по категориям применения сценариев (платформы, решения VMware и бизнес-задачи):

А также по языку программирования/интерфейсу:

Пока в библиотеке всего 260 сэмплов (нераспиханных по категориям и интерфейсам), но будем надеяться, что скоро коллекция существенно расширится и там наведут порядок.

VMware
vROPs
Enterprise

Как сбросить (восстановить) пароль root в VMware vRealize Operations 6.x.

(0 Comment)

Не так давно мы писали о полезном дэшборде для продукта VMware vRealize Operations, а сегодня расскажем, как восстановить забытый пароль от виртуального модуля vRealize Operations 6.x (vROPs).

Если вы не помните пароль, нужно просто перезагрузить Virtual Appliance и в меню загрузки в раздел Boot Options добавить после всех параметров следующую строчку:

init=/bin/bash

Далее загружаемся в консоль и просто пишем:

# passwd

После этого у нас запросят создать новый пароль пользователя root, далее перезагружаем модуль командой:

# reboot

Затем неплохо бы включить сервис SSH управлять модулем уже через putty:

Чтобы SSH работал постоянно, нужно выполнить команду:

# chkconfig sshd on

Обратите внимание, что это не только способ восстановить/сбросить пароль на vROPs, но и большая дыра в безопасности, так как любой, кто имеет доступ к консоли модуля, может провернуть это.

VMware
vRealize
Operations

Готовый дэшборд для мониторинга виртуального датацентра из VMware vRealize Operations 6.x.

(0 Comment)

Наверняка многие из вас знают, что представляет собой продукт VMware vRealize Operations 6.x (а некоторые и используют его в производственной среде), предназначенный для мониторинга производительности виртуальной инфраструктуры VMware vSphere, анализа ее состояния, планирования и решения проблем.

Добрые ребята с сайта vXpresss сделали уже готовый дэшборд для vRealize Operations, который включает в себя 15 объектов "Super Metrics", 6 представлений (Views) и один кастомизированный XML. Визуально дэшборд выглядит следующим образом (кликабельно):

То, что могло бы занять у вас часы настройки, теперь можно просто развернуть за 10 минут, используя готовый модуль.

Опишем эти представления:

1 - список ваших кластеров, которые вы мониторите через vRealize Operations Manager 6.x.

2 - этот виджет отображает ключевые метрики с точки зрения процессора, памяти и хранилищ датацентра.

3 - данный виджет показывает пиковые и средние значения использования CPU виртуальной машиной в выбранном кластере. Это позволяет видеть нагруженные машины в вашем окружении.

4 - этот виджет похож на предыдущий только здесь отображается метрика Contention% для CPU (ожидание ресурсов со стороны ВМ), которая является одной из ключевых в плане производительности.

5 - виджет показывает пиковые и средние значения использования памяти (Memory) виртуальной машиной в выбранном кластере. Это позволяет видеть тяжелые по памяти машины в вашем окружении.

6 - по аналогии с CPU Contention, для памяти используется метрика Memory Contention % - отображаются также ее средние и пиковые значения. Ее рост показывает, что ваши машины скоро будут конкурировать за ресурсы оперативной памяти (и начнется memory overcommitment).

7 - этот виджет показывает пиковые и средние значения IOPS для виртуальной машины в выбранном кластере.

8 - в дополнение к IOPS, здесь можно видеть пиковое и среднее значение задержки в дисковой подсистеме (Virtual Disk latency), которая возникает при работе виртуальных машин.

Скачать описанный дэшборд и его компоненты можно по этим ссылкам:

О том, как все это развертывать и использовать, написано здесь.

VMware
Auto Deploy
ESXi

VMware Auto Deploy GUI - развертывание хостов ESXi с человеческим интерфейсом и поддержкой vSphere 6.

(0 Comment)

На сайте проекта VMware Labs, где сотрудники VMware частенько публикуют различного рода утилиты для инфраструктуры VMware vSphere, появилось обновление очень полезной штуки, которое все очень давно ждали - VMware Auto Deploy GUI. Напомним, что о прошлой верcии этого средства мы писали вот тут.

Теперь вы можете проводить преднастройку профилей и развертывание новых хостов VMware ESXi 6 для Stateless-окружения прямо из графического интерфейса VMware vSphere Client:

Auto Deploy GUI - это плагин к vSphere Client, реализующий основные функции VMware vSphere Auto Deploy, такие как:

  • Добавление/удаление хранилищ (depots).
  • Работа с профилями образов (image profiles).
  • Настройка шаблона файла ответов (answer template).
  • Просмотр свойств VIB-пакетов.
  • Создание/редактирование правил соответствия хостов и профилей образов.
  • Проверка соответствия хостов этим правилам и восстановление этого соответствия.

Новые возможности последней версии Auto Deploy GUI:

  • Поддержка VMware vSphere 6.0.
  • В мастере Image Profile Wizard появились новые функции "VIB filter".
  • Новые средства "PXE Host List and Boot Configuration troubleshooting" для решения проблем с загрузкой хостов.

Надо отметить, что это последняя версия Auto Deploy GUI, которая поддерживает VMware vSphere версии 5.0. Скачать VMware Auto Deploy GUI можно по этой ссылке. Ну и порекомендуем очень полезный документ "VMware Auto Deploy GUI Practical Guide".

VMware
Backup
Bug

И снова критический баг VMware vSphere 6 - ваши бэкапы могут оказаться невосстановимыми.

(0 Comment)

Как-то раз мы писали про баг в VMware vSphere 5.5 (и более ранних версиях), заключавшийся в том, что при увеличении виртуальных дисков машин с включенной технологией Changed Block Tracking (CBT) их резервные копии оказывались невалидными и не подлежащими восстановлению. Эта ошибка была через некоторое время пофикшена.

Однако похожая (но только еще более тяжелая) судьба постигла и свежую версию платформы виртуализации VMware vSphere 6 - технология CBT также портит резервные копии виртуальных машин любого решения для резервного копирования, использующего отслеживание изменившихся блоков, например, Veeam Backup and Replication. Более подробно проблема изложена в KB 2136854.

Суть критического бага в том, что операции ввода-вывода, сделанные во время консолидации снапшота ВМ в процессе снятия резервной копии, могут быть потеряны. Для первого бэкапа в этом нет ничего страшного, а вот вызываемая во второй раз функция QueryDiskChangedAreas технологии CBT не учитывает потерянные операции ввода-вывода, а соответственно при восстановлении из резервной копии такой бэкап будет неконсистентным. То есть баг намного более серьезный, чем был в версии vSphere 5.5 (там надо были задеты только ВМ, диски которых увеличивали, а тут любая ВМ подвержена багу).

На данный момент решения этой проблемы нет, надо ждать исправления ошибки. Пока VMware предлагает на выбор 3 варианта:

  • Сделать даунгрейд хостов ESXi на версию 5.5, а версию virtual hardware 11 понизить на 10.
  • Делать полные бэкапы виртуальных машин (full backups) вместо инкрементальных.
  • Выключать виртуальные машины во время инкрементального бэкапа, чтобы у них не было никаких IO, которые могут потеряться.

Как вы понимаете, ни один из этих вариантов неприемлем в условиях нормальной работы производственной среды. Мы оповестим вас об исправлении ошибки, ну а пока поздравляем службу контроля качества компании VMware с очередной лажей!

P.S. Пока делайте полные бэкапы критичных систем. И следите за новостями от Veeam.

VMware
Horizon
View

Порядок установки VMware Horizon View Agent и других агентов в инфраструктуре виртуальных ПК.

(0 Comment)

При развертывании инфраструктуры виртуальных ПК VMware Horizon View многие администраторы задумываются о правильном порядке установки вспомогательного ПО, такого как Horizon View Agent или VMware Tools. Также надо учитывать, что свои агенты есть у User Environment Manager и App Volumes.

Эти вопросы возникают как при развертывании виртуальных ПК, так и при настройке терминальных RDSH-серверов. Правильный порядок развертывания компонентов инфраструктуры виртуальных десктопов позволит вам избежать таких багов, как черный экран в Windows-десктопе при соединении с ним по протоколу PCoIP.

Итак, в каком порядке нужно развертывать агенты инфраструктуры VDI:

1. VMware Tools - помните, что по умолчанию не устанавливаются драйверы NSX File and Network Introspection (vsepflt.sys и vnetflt.sys).

2. VMware Horizon View Agent. Сам агент ставьте только после тулзов, иначе рискуете получить ошибки при подключениях пользователей.

3. View Agent Direct Connection - это агент, который доступен только, если вы используете прямое соединение с облаком VMware Direct Connect.

4. VMware User Environment (UEM) Agent.

О его развертывании и настройке хорошо написано вот тут.

5. VMware App Volumes Agent. Для App Volumes версии 2.9 порядок установки неважен, а вот для более ранних версий устанавливайте его всегда последним.

О развертывании этого решения можно почитать тут и тут.

Если нужно проапгрейдить агенты, то лучше всего деинсталлировать их в указанном выше порядке и в этом же порядке поставить снова обновленные версии.

VMware
VMDK
PowerCLI

Как конвертировать «тонкие» VMDK-диски в Eager Zeroed Thick с помощью VMware PowerCLI.

(0 Comment)

Сегодняшняя статья расскажет вам ещё об одной функции моего PowerShell-модуля для управления виртуальной инфраструктурой VMware - Vi-Module. Первая статья этой серии с описанием самого модуля находится здесь. Функция Convert-VmdkThin2EZThick. Как вы уже поняли из её названия, функция конвертирует все «тонкие» (Thin Provision) виртуальные диски виртуальной машины в диски типа Thick Provision Eager Zeroed.

VMware
ESXi
vSphere

Вышло обновление ESXi Community Packaging Tools версии 2.3 с поддержкой VMware vSphere 6.

(0 Comment)

3 года назад мы писали об утилите ESXi5 Community Packaging Tools 2.0, которая позволяет создавать собственные пакеты для VMware ESXi в форматах VIB (VMware Installation Bundle) and ZIP (VMware Offline Bundle). В результате VIB-файлы получают уровень доверия (acceptance level) Community Supported. Зачастую, эти утилиты необходимы пользователям для включения сторонних драйверов устройств в состав дистрибутива платформы ESXi, которые отсутствуют в стандартном комплекте поставки.

На днях автор проекта (и он же блоггер на v-front.de) выпустил обновление этого средства - ESXi Community Packaging Tools 2.3.

На самом деле, изменений было сделано не так много, но они есть и важные:

  • Появилась полная поддержка VMware vSphere 6 (именно поэтому "ESXi5 Community Packaging Tools" (ESXi5-CPT) переименованы в "ESXi Community Packaging Tools" (ESXi-CPT).
  • Пакетный сценарий TGZ2VIB5.cmd обновлен до версии 2.3.
    • Пофикшено название уровня доверия (acceptance level) "certified" (раньше он назывался "vmware").
    • Добавлены пресеты конфигураций "ESXi 6.0+ driver" и "VMware Tools" (tools-light.vib). Теперь вы можете создать свой пакет VMware Tools для распространения в гостевых ОС на базе гипервизора ESXi!
    • Добавлена поддержка типа VIB-пакета (vibType) "locker".
  • Пакетный файл VIB2ZIP.cmd обновился до версии 1.3 - туда были добавлен выбор настроек совместимости для VMware ESXi.

Видео о создани VMware Offline Bundle с помощью VIB2ZIP:

Скачать ESXi Community Packaging Tools версии 2.3 можно по этой ссылке.

VMware
vSphere
SRM

VMware Site Recovery Manager (SRM) и тома Raw Device Mapping (RDM).

(0 Comment)

Многие из вас знают, что в VMware vSphere есть такой режим работы виртуальных дисков, как Raw Device Mapping (RDM), который позволяет напрямую использовать блочное устройство хранения без создания на нем файловой системы VMFS. Тома RDM бывают pRDM (physical) и vRDM (virtual), то есть могут работать в режиме физической и виртуальной совместимости. При работе томов в режиме виртуальной совместимости они очень похожи на VMFS-тома (и используются очень редко), а вот режим физической совместимости имеет некоторые преимущества перед VMFS и довольно часто используется в крупных предприятиях.

Итак, для чего может быть полезен pRDM:

  • Администратору требуется использовать специальное ПО от производителя массива, которое работает с LUN напрямую. Например, для создания снапшотов тома, реплики базы данных или ПО, работающее с технологией VSS на уровне тома.
  • Старые данные приложений, которые еще не удалось перенести в виртуальные диски VMDK.
  • Виртуальная машина нуждается в прямом выполнении команд к тому RDM (например, управляющие SCSI-команды, которые блокируются слоем SCSI в VMkernel).

Перейдем к рассмотрению схемы решения VMware Site Recovery Manager (SRM):

Как вы знаете, продукт VMware SRM может использовать репликацию уровня массива (синхронную) или технологию vSphere Replication (асинхронную). Как мы писали вот тут, если вы используете репликацию уровня массива, то поддерживаются тома pRDM и vRDM, а вот если vSphere Replication, то репликация физических RDM будет невозможна.

Далее мы будем говорить о репликации уровня дискового массива томов pRDM, как о самом часто встречающемся случае.

Если говорить об уровне Storage Replication Adapter (SRA), который предоставляется производителем массива и которым оперирует SRM, то SRA вообще ничего не знает о томах VMFS, то есть о том, какого типа LUN реплицируется, и что на нем находится.

Он оперирует понятием только серийного номера тома, в чем можно убедиться, заглянув в XML-лог SRA:

Тут видно, что после серийного номера есть еще и имя тома - в нашем случае SRMRDM0 и SRMVMFS, а в остальном устройства обрабатываются одинаково.

SRM обрабатывает RDM-диски похожим на VMFS образом. Однако RDM-том не видится в качестве защищаемых хранилищ в консоли SRM, поэтому чтобы добавить такой диск, нужно добавить виртуальную машину, к которой он присоединен, в Protection Group (PG).

Допустим, мы добавили такую машину в PG, а в консоли SRM получили вот такое сообщение:

Device not found: Hard disk 3

Это значит одно из двух:

  • Не настроена репликация RDM-тома на резервную площадку.
  • Репликация тома настроена, но SRM еще не обнаружил его.

В первом случае вам нужно заняться настройкой репликации на уровне дискового массива и SRA. А во втором случае нужно пойти в настройки SRA->Manage->Array Pairs и нажать там кнопку "Обновить":

Этот том после этого должен появиться в списке реплицируемых устройств:

Далее в настройках защиты ВМ в Protection Group можно увидеть, что данный том видится и защищен:

Добавление RDM-диска к уже защищенной SRM виртуальной машине

Если вы просто подцепите диск такой ВМ, то увидите вот такую ошибку:

There are configuration issues with associated VMs

Потому, что даже если вы настроили репликацию RDM-диска на уровне дискового массива и SRA (как это описано выше), он автоматически не подцепится в настройки - нужно запустить редактирование Protection Group заново, и там уже будет будет виден RDM-том в разделе Datastore groups (если репликация корректно настроена):

Помните также, что SRM автоматически запускает обнаружение новых устройств каждые 24 часа по умолчанию.

VMware
vRealize
Automation

Новая версия VMware vRealize Automation 7 - управление гибридным облаком на базе vSphere и не только.

(0 Comment)

Некоторое время назад мы писали о решении VMware vRealize Automation, которое появилось в результате ребрендинга продукта vCloud Automation, который предназначен для автоматизации операций в облачной инфраструктуре (в том числе гетерогенной и гибридной) на базе различных гипервизоров (не только VMware vSphere) .

Анонс новой версии VMware vRealize Automation 7 был сделан еще на VMworld Europe 2015, но так как обновление до сих пор не вышло, то еще не поздно рассказать вам о его новых возможностях.

Итак, давайте взглянем на новые возможности платформы VMware vRealize Automation 7:

1. Упрощенная процедура развертывания.

vRealize Automation 7 теперь не требует сложных операций при установке и настройке - развертывание решения происходит в едином интерфейсе с предлагаемыми настройками (также есть настройки аутентификации и Single Sign-On), которые потом можно просто изменить. Консоль выглядит намного приятнее (кликабельно):

2. Унифицированный дизайн инфраструктуры сервисов.

Теперь в наглядном проектировщике инфраструктуры сервисов все делается, в основном, с помощью мыши, поэтому построить архитектуру ИТ-инфраструктуры вашего предприятия стало значительно проще:

3. Поддержка VMware NSX для сетевой топологии и инфраструктуры безопасности.

Теперь компоненты сетевой инфраструктуры VMware NSX доступны для построения сетевой архитектуры и инфраструктуры безопасности. Их можно переносить в визуальном редакторе с помощью Drag&Drop:

 

Это отменяет необходимость проектировать виртуализованную сетевую инфраструктуру за пределами vRealize Automation.

4. Формализованные описания сервисов и шаблоны.

Теперь шаблоны описания сервисов можно редактировать как текстовые файлы. Это позволяет более гибко подходить к проектированию и унификации архитектуры DevOps. Также поддерживаются системы управления версиями для хранения объектов - скриптов, шаблонов и сценариев рабочих процессов, файлов описания сервисов и т.п.

5. Улучшенная расширяемость решения для интеграции со сторонними облачными решениями.

Теперь vRealize Automation 7 имеет более широкие возможности по вызову операций в сторонних решениях для управления виртуальными инфраструктурами. Теперь появился Event Broker, который стандартизирует операции по передаче команд сторонним средствам.

Кроме того, был существенно доработан API и улучшена интеграция с облачной инфраструктурой Amazon AWS и VMware vCloud Air, что позволяет строить гибридные облака для предприятия (частное+публичное):

На момент написания заметки VMware vRealize Automation 7 еще не доступен для скачивания (обещают до конца 2015 года), но подписаться на оповещение о его доступности можно по этой ссылке.

VMware
Virtual SAN
Beta

Новые фичи будущей версии VMware Virtual SAN для уменьшения необходимой дисковой емкости.

(0 Comment)

Как некоторые из вас знают, сейчас в разработке у VMware находится новая версия продукта Virtual SAN (о текущей версии VSAN 6.1 мы писали вот тут), а скоро появится ее бета. Дункан написал пару интересных постов о том, какие возможности для экономии дискового пространства появятся в новой версии Virtual SAN.

А именно:

  • erasure coding
  • deduplication
  • compression

Обещают, что эти 3 вещи уменьшат потребляемое дисковое пространство в разы. Давайте посмотрим на некоторые детали этих возможностей.

Erasure coding (коррекция ошибок - "RAID из узлов")

Сейчас если вы используете параметр failures to tolerate =1 (зеркальная избыточность), то вам нужна двойная емкость в кластере. То есть, если будет 100 ГБ под виртуальные машины, то на хостах суммарная емкость должна составлять 200 ГБ.

По аналогии с RAID5/6 и другими типами RAID с чередованием, пространство хранения Virtual SAN будет представлять собой "RAID из хостов ESXi". Таким образом, можно будет использовать схемы 3+1 или 4+2, которые позволят иметь лишь в 1,3 раза больше физического пространства (для первой схемы), чем полезной емкости.

Но, понятное дело, для таких схем понадобится несколько больше хостов, чем, например, два.

Deduplication (дедупликация блоков)

Дедупликация блоков будет работать на уровне дисковой группы. Коэффициент дедупликации зависит от характера и разнообразия данных виртуальных машин, но при тестах он доходил до 8x.

Compression (сжатие данных)

Здесь каждый vmdk будет хранить только оригинальные дисковые блоки:

Ожидается, что для каждого 4KB блока в среднем удастся сэкономить 2KB.

Сделать запрос на бета-версию VMware Virtual SAN можно по этой ссылке.

VMware
vCenter
HA

vCenter Server Watchdog - сервисы контроля и восстановления доступности vCenter.

(0 Comment)

На блоге vSphere появилась отличная статья о сервисах семейства vCenter Server Watchdog, которые обеспечивают мониторинг состояния различных компонентов vCenter, а также их восстановление в случае сбоев. Более подробно о них также можно прочитать в VMware vCenter Server 6.0 Availability Guide.

Итак, сервисы Watchdog бывают двух типов:

  • PID Watchdog - мониторит процессы, запущенные на vCenter Server.
  • API Watchdog - использует vSphere API для мониторинга функциональности vCenter Server.

Сервисы Watchdog пытаются рестартовать службы vCenter в случае их сбоя, а если это не помогает, то механизм VMware перезагружает виртуальную машину с сервером vCenter на другом хосте ESXi.

PID Watchdog

Эти службы инициализируются во время инициализации самого vCenter. Они мониторят только службы, которые активно работают, и если вы вручную остановили службу vCenter, поднимать он ее не будет. Службы PID Watchdog, контролируют только лишь наличие запущенных процессов, но не гарантируют, что они будут обслуживать запросы (например, vSphere Web Client будет обрабатывать подключения) - этим занимается API Watchdog.

Вот какие сервисы PID Watchdog бывают:

  • vmware-watchdog - этот watchdog обнаруживает сбои и перезапускает все не-Java службы на сервере vCenter Server Appliance (VCSA).
  • Java Service Wrapper - этот watchdog обрабатывает сбои всех Java-служб на VCSA и в ОС Windows.
  • Likewise Service Manager - данный watchdog отвечает за обработку отказов всех не-Java служб сервисов platform services.
  • Windows Service Control Manager - отвечает за обработку отказов всех не-Java служб на Windows.

vmware-watchdog

Это шелл-скрипт (/usr/bin/watchdog), который располагается на виртуальном модуле VCSA. Давайте посмотрим на его запущенные процессы:

mgmt01vc01.sddc.local:~ # ps -ef | grep vmware-watchdog
root 5767 1 0 16:20 ? 00:00:00 /bin/sh /usr/bin/vmware-watchdog -s rhttpproxy -u 30 -q 5 /usr/sbin/rhttpproxy -r /etc/vmware-rhttpproxy/config.xml -d /etc/vmware-rhttpproxy/endpoints.conf.d -f /etc/vmware-rhttpproxy/endpo root 7930 1 0 16:21 ? 00:00:00 /bin/sh /usr/bin/vmware-watchdog -s vws -u 30 -q 5 /usr/lib/vmware-vws/bin/vws.sh root 8109 1 0 16:21 ? 00:00:11 /bin/sh /usr/bin/vmware-watchdog -s syslog -u 30 -q 5 -b /var/run/rsyslogd.pid /sbin/rsyslogd -c 5 -f /etc/vmware-rsyslog.conf root 8266 1 0 16:21 ? 00:00:11 /bin/sh /usr/bin/vmware-watchdog -b /storage/db/vpostgres/postmaster.pid -u 300 -q 2 -s vmware-vpostgres su -s /bin/bash vpostgres -c 'LD_LIBRARY_PATH=/opt/vmware/vpostgres/curre root 9422 1 0 16:21 ? 00:00:00 /bin/sh /usr/bin/vmware-watchdog -a -s vpxd -u 3600 -q 2 /usr/sbin/vpxd root 13113 1 0 16:22 ? 00:00:00 /bin/sh /usr/bin/vmware-watchdog -s vsan-health -u 600 -q 10 su vsan-health -c '/opt/vmware/bin/vmware-vsan-health /usr/lib/vmware-vpx/vsan-health/VsanHealthServer.py -p 8006' root 28775 19850 0 20:42 pts/0 00:00:00 grep vmware-watchdog

В понятном виде это можно представить так:

Служба Имя процесса Перезапускать ВМ? Минимальный аптайм Число перезагрузок
Reverse Proxy rhttpproxy Нет 30 секунд 5
vCenter Management Web Service vws Нет 30 секунд 5
Syslog Collector Syslog Нет 30 секунд 5
vPostgres Database vmware-vpostgres Нет 5 минут 2
vCenter Server vpxd Да 1 час 2
VSAN Health Check vsan-health Нет 10 минут 10

Давайте разберем эти параметры на примере наиболее важной службы VPXD:

-a
-s vpxd
-u 3600
-q 2

Это означает, что:

vpxd (-s vpxd) запущен (started), для него работает мониторинг, и он будет перезапущен максимум дважды в случае сбоя (-q 2). Если это не удастся в третий раз при минимальном аптайме 1 час (-u 3600 - число секунд), виртуальная машина будет перезагружена (-a).

Полный список параметров представлен ниже:

-d = DAEMONIZE
-n = QUIET
-b = BG_PROC-s = START
-k = STOP
-r = QUERY
-a = REBOOT_FLAG
-u = MIN_UPTIME
-q = MAX_QUICK_FAILURES
-t = MAX_TOTAL_FAILURES
-i = IMMORTAL
-c = CLEANUP_CMD
-f = EXIT_CLEANUP_CMD

Java Service Wrapper

Он основан на Tanuki Java Service Wrapper и нужен, чтобы обнаруживать сбои в Java-службах vCenter (как обычного, так и виртуального модуля vCSA). Вот какие службы мониторятся:

mgmt01vc01.sddc.local:~ # ps -ef | grep tanuki
cm 6331 6324 0 16:20 ? 00:00:37 /usr/java/jre-vmware/bin/vmware-cm -Dorg.tanukisoftware.wrapper.WrapperSimpleApp.waitForStartMain=FALSE -XX:+ForceTimeHighResolution -Dlog4j.configuration=cm-log4j.properties -Dxml.config=ht root 6876 6869 0 16:20 ? 00:00:50 /usr/java/jre-vmware/bin/vmware-cis-license -Dorg.tanukisoftware.wrapper.WrapperSimpleApp.waitForStartMain=FALSE -Dorg.apache.catalina.startup.EXIT_ON_INIT_FAILURE=TRUE -XX:+ForceTimeHighRe root 7267 7258 1 16:21 ? 00:03:45 /usr/java/jre-vmware/bin/vmware-sca -Dorg.tanukisoftware.wrapper.WrapperSimpleApp.waitForStartMain=FALSE -XX:+ForceTimeHighResolution -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/var/lo root 7634 7627 0 16:21 ? 00:00:29 /usr/java/jre-vmware/bin/vmware-syslog-health -Dorg.tanukisoftware.wrapper.WrapperSimpleApp.waitForStartMain=FALSE -XX:+ForceTimeHighResolution -DlogDir=/var/log/vmware/syslog -Dlog4j.config 1002 7843 7836 0 16:21 ? 00:01:08 /usr/java/jre-vmware/bin/vmware-vapi-endpoint -Dorg.tanukisoftware.wrapper.WrapperSimpleApp.waitForStartMain=FALSE -XX:+ForceTimeHighResolution -Dlog4j.configuration=file:/etc/vmware-vapi//e root 8453 8433 1 16:21 ? 00:02:55 /usr/java/jre-vmware/bin/vmware-invsvc -Dorg.tanukisoftware.wrapper.WrapperSimpleApp.waitForStartMain=FALSE -Dvim.logdir=/var/log/vmware/invsvc -XX:+ForceTimeHighResolution -XX:+ParallelRefP root 10410 10388 0 16:22 ? 00:00:54 /usr/java/jre-vmware/bin/vmware-sps -Dorg.tanukisoftware.wrapper.WrapperSimpleApp.waitForStartMain=FALSE -Dxml.config=../conf/sps-spring-config.xml -Dpbm.config=../conf/pbm-spring-config.xml 1007 11099 11088 0 16:22 ? 00:01:27 /usr/java/jre-vmware/bin/vmware-vpx-workflow -Dorg.tanukisoftware.wrapper.WrapperSimpleApp.waitForStartMain=FALSE -XX:+ForceTimeHighResolution -ea -Dlog4j.configuration=conf/workflow.log4j.p root 23423 19850 0 20:41 pts/0 00:00:00 grep tanuki

Если Java-приложение или JVM (Java Virtual Machine) падает, то перезапускается JVM и приложение.

Likewise Service Manager

Это сторонние средства Likewise Open stack от компании BeyondTrust, которые мониторят доступность следующих служб, относящихся к Platform Services среды vCenter:

  • VMware Directory Service (vmdir)
  • VMware Authentication Framework (vmafd, который содержит хранилище сертификатов VMware Endpoint Certificate Store, VECS)
  • VMware Certificate Authority (vmca)

Likewise Service Manager следит за этими сервисами и перезапускает их в случае сбоя или если они вываливаются.

mgmt01vc01.sddc.local:~ # /opt/likewise/bin/lwsm list | grep vm
vmafd running (standalone: 5505)
vmca running (standalone: 5560)
vmdir running (standalone: 5600)

Вместо параметра list можно также использовать start и stop, которые помогут в случае, если одна из этих служб начнет подглючивать. Вот полный список параметров Likewise Service Manager:

list          List all known services and their status
autostart Start all services configured for autostart
start-only <service> Start a service
start <service> Start a service and all dependencies
stop-only <service> Stop a service
stop <service> Stop a service and all running dependents
restart <service> Restart a service and all running dependents
refresh <service> Refresh service's configuration
proxy <service> Act as a proxy process for a service
info <service> Get information about a service
status <service> Get the status of a service
gdb <service> Attach gdb to the specified running service

А вот таким образом можно узнать детальную информацию об одном из сервисов:

mgmt01vc01.sddc.local:~ # /opt/likewise/bin/lwsm info vmdir
Service: vmdir
Description: VMware Directory Service
Type: executable
Autostart: yes
Path: /usr/lib/vmware-vmdir/sbin/vmdird
Arguments: '/usr/lib/vmware-vmdir/sbin/vmdird' '-s' '-l' '0' '-f' '/usr/lib/vmware-vmdir/share/config/vmdirschema.ldif'
Environment:
Dependencies: lsass dcerpc vmafd

Помните также, что Likewise Service Manager отслеживает связи служб и гасит/поднимает связанные службы в случае необходимости.

API Watchdog

Этот сервис следит через vSphere API за доступностью самого важного сервиса vCenter - VPXD. В случае сбоя, этот сервис постарается 2 раза перезапустить VPXD, и если это не получится - он вызовет процедуру перезапуска виртуальной машины механизмом VMware HA.

Эти службы инициализируются только после первой загрузки после развертывания или обновления сервисов vCenter. Затем каждые 5 минут через vSphere API происходит аутентификация и опрос свойства rootFolder для корневой папки в окружении vCenter.

Далее работает следующий алгоритм обработки отказов:

  • Первый отказ = Restart Service
  • Второй отказ = Restart Service
  • Третий отказ = Reboot Virtual Machine
  • Сброс счетчика отказов происходит через 1 час (3600 секунд)

Перед рестартом сервиса VPXD, а также перед перезагрузкой виртуальной машины, служба API Watchdog генерирует лог, который можно исследовать для решения проблем:

  • storage/core/*.tgz - на виртуальном модуле VCSA
  • C:\ProgramData\VMware\vCenterServer\data\core\*.tgz - не сервере vCenter

Конфигурация сервиса API Watchdog (который также называется IIAD - Interservice Interrogation and Activation Daemon) хранится в JSON-формате в файле "iiad.json", который можно найти по адресу /etc/vmware/ на VCSA или C:\ProgramData\VMware\vCenterServer\cfg\iiad.json на Windows-сервер vCenter:

mgmt01vc01.sddc.local:/ # cat /etc/vmware/iiad.json
{
"requestTimeout": 20,
"hysteresisCount": 4,
"remediatedHysteresisCount": 6,
"rebootShellCmd": null,
"restartShellCmd": null,
"maxTotalFailures": 50,
"needShellOnWin": true,
"watchdogDisabled": false,
"vpxd.watchdogDisabled": false,
"createSupportBundle": true,
"automaticServiceRestart": true,
"automaticSystemReboot": false,
"maxSingleRestarts": 3,
"maxSingleFailures": 2
}

Вот что это значит:

  • requestTimeout – дефолтный таймаут для запросов по умолчанию.
  • hysteresisCount – позволяет отказам постепенно "устаревать" - каждое такое значение счетчика при отказе, число отсчитываемых отказов будет уменьшено на один.
  • rebootShellCmd – указанная пользователем команда, которая будет исполнена перед перезапуском ВМ.
  • restartShellCmd – указанная пользователем команда, которая будет исполнена перед перезапуском сервиса.
  • maxTotalFailures – необходимое число отказов по всем службам, которое должно случиться, чтобы произошел перезапуск виртуальной машины.
  • needShellOnWin – определяет, нужно ли запускать сервис с параметром shell=True на Windows.
  • watchdogDisabled – позволяет отключить API Watchdog.
  • vpxd.watchdogDisabled – позволяет отключить API Watchdog для VPXD.
  • createSupportBundle – нужно ли создавать support-бандл перед перезапуском сервиса или рестартом ВМ.
  • automaticServiceRestart – нужно ли перезапускать сервис при обнаружении сбоя или просто записать это в лог.
  • automaticSystemReboot – нужно ли перезапускать ВМ при обнаружении сбоя или просто записать в лог эту рекомендацию.
  • maxSingleRestarts – верхний лимит попыток перезапуска упавшего сервиса.
  • maxSingleFailures – число отказов, требуемой для срабатывания действия по перезапуску сервиса.

Также сервис IIAD перед перезапуском сервисов или виртуальной машины генерирует лог по адресу:

  • /var/log/vmware/iiad/* - на виртуальном модуле VCSA
  • %VMWARE_LOG_DIR%/iiad/* - в ОС Windows

Вот такой небольшой deep dive в службы доступности сервисов vCenter:)

VMware
esxtop
ESXi

Когда esxtop может тормозить работу сервера VMware ESXi.

(0 Comment)

Многие из вас знают утилиту esxtop (о которой мы часто пишем), позволяющей осуществлять мониторинг производительности сервера VMware ESXi в различных аспектах - процессорные ресурсы, хранилища и сети. Многие администраторы пользуются ей как раз для того, чтобы решать проблемы производительности.

Но оказывается, что использование esxtop само по себе может тормозить работу сервера VMware ESXi!

Это может произойти в ситуации, если у вас к ESXi смонтировано довольно много логических томов LUN, на обнаружение которых требуется более 5 секунд. Дело в том, что esxtop каждые 5 секунд повторно инициализирует объекты, с которых собирает метрики производительности. В случае с инициализацией LUN, которая занимает длительное время, запросы на инициализацию томов будут складываться в очередь. А как следствие (при большом числе томов) это будет приводить к возрастанию нагрузки на CPU и торможению - как вывода esxtop, так и к замедлению работы сервера в целом.

Выход здесь простой - надо использовать esxtop с параметром -l:

# esxtop -l

В этом случае данная утилита ограничит сбор метрик производительности только теми объектами, которые были обнаружены при первом сканировании. Соответственно, так лучше всего ее и использовать, если у вас к серверу VMware ESXi прицеплено много хранилищ.

VMware
Virtual SAN
Performance

Новый документ - VMware Virtual SAN Stretched Cluster Performance and Best Practices.

(0 Comment)

На днях компания VMware выпустила полезный документ о лучших практиках по использованию "растянутых" кластеров на базе решения для создания отказоустойчивых хранилищ - "VMware Virtual SAN Stretched Cluster Performance and Best Practices".

Напомним также, что не так давно мы писали про конфигурацию VMware HA Stretched Cluster вместе с отказоустойчивыми хранилищами Virtual SAN.

Как и другие документы этой серии, этот whitepaper богат различными графиками и диаграммами, касающимися производительности решения. Например, вот производительность обычного кластера VMware Virtual SAN 6.1 и растянутого с задержками (latency) в 1 мс и 5 мс:

Основные моменты, раскрываемые в документе:

  • Развертывание и настройка Virtual SAN Stretched Cluster
  • Производительность растянутого кластера в сравнении с обычным
  • Производительность кластера при различных отказах (хост, сайт целиком)
  • Лучшие практики использования растянутых кластеров
VMware
Onyx
Update

Вышел Onyx для VMware vSphere Web Client с поддержкой vSphere 6.0 Update 1.

(0 Comment)

Некоторое время назад вышло обновление VMware vSphere 6.0 Update 1, после чего пользователи Onyx под Web Client заметили, что он перестал работать. Напомним, что Onyx предназначен для записи действий пользователя в клиенте vSphere, после чего они записываются в виде сценариев PowerShell.

Теперь в обновленном Onyx для VMware vSphere Web Client, который можно скачать с сайта VMware Labs, новая версия vSphere 6.0 U1 полностью поддерживается.

Причина плохого поведения Onyx проста - так как этот продукт теперь полностью завязан на VMware vCenter, то теперь любое значимое изменение оного требует отдельного апдейта.

VMware
ESXi
VMachines

Вышел VMware ESXi Embedded Host Client Fling v3 - новые возможности.

(0 Comment)

Мы уже не раз писали про VMware ESXi Embedded Host Client, который возвращает полноценный веб-клиент для сервера VMware ESXi с возможностями управления хостом и виртуальными машинами, а также средствами мониторинга производительности.

Совсем недавно на сайте проекта VMware Labs была опубликована третья версия этого полезнейшего средства - VMware ESXi Embedded Host Client Fling v3.

Теперь для этого продукте есть offline bundle, который можно накатывать с помощью VMware Update Manager, как на VMware vSphere 5.x, так и на VMware vSphere 6.x.

Одна из долгожданных фичей этого релиза - возможность просматривать и редактировать разделы дисков ESXi:

Если у вас есть это средство второй версии, то обновиться на третью можно с помощью следующей команды:

[root@mini:~] esxcli software vib update -v /esxui-signed.vib
Installation Result
Message: Operation finished successfully.
Reboot Required: false
VIBs Installed: VMware_bootbank_esx-ui_0.0.2-0.1.3172496
VIBs Removed: VMware_bootbank_esx-ui_0.0.2-0.1.3015331
VIBs Skipped:

Новые возможности VMware ESXi Embedded Host Client Fling v3:

Виртуальные машины

  • Поддержка ответа на вопрос интерфейса (Answer question)
  • Поддержка виртуального железа (Virtual Hardware) на самую последнюю версию, поддерживаемую хостом ESXi
  • Горячее редактирование настроек ВМ
  • Настройка колонок в конфигурации (показать/спрятать/ширина), которая сохраняется при рефреше страницы
  • Настройка приоритета VM startup/shutdown

Хост ESXi

  • Изменение политики электропитания (power management policy) и расширенные ее настройки
  • Генерация запроса на подпись IP/FQDN-сертификатом и импорт сертификата
  • Добавление хоста к контроллеру домена

Хранилища

  • Редактор разделов диска хоста
  • Рескан для обнаружения новых LUN и изменений в старых
  • Обнаружение новых томов VMFS
  • Очистка таблицы разделов на диске
  • Диаграмма разбиения разделов диска
  • Возможность увеличения хранилища для диска, у которого уже есть таблица разделов

Графики производительности

  • Возможность изменять цвета диаграмм (дефолтная схема и высококонтрастная)
  • Добавлены графики Network и Disk в разделе производительности
  • Улучшенное быстродействие интерфейса
  • Улучшенная производительность на планшетах
  • Возможность спрятать верхнюю легенду на диаграмме
  • Возможность спрятать виджет для расчистки места

Основное

  • In-app update tool: возможность обновлять самого себя, просто подставив обновленный VIB-пакет
  • Запоминается выбранная вкладка на планшете при навигации
  • Более плавный скроллинг на планшетах
  • Возможность спрятать интерфейс навигатора, оставив быстрые кнопки Host, Host Manage, Host Monitor, VMs, Storage и Networking
  • Кнопка закрытия в менюшках
  • Переподключение к консоли при потере соединения к ВМ или при откатывании к снапшоту
  • Множественные багофиксы

Скачать VMware ESXi Embedded Host Client Fling v3 можно по этой ссылке.

VMware
vSphere
Enterprise

VMware vSphere Content Library - распространение шаблонов между датацентрами.

(0 Comment)

Интересная возможность есть в VMware vSphere 6, которая может оказаться полезной для администраторов датацентров, которые имеют подчиненность главному ЦОД, который задает стандарты администрирования виртуальной инфраструктуры. Возьмем, например, РЖД - у них есть главный вычислительный центр (ГВЦ) и сеть информационно-вычислительных центров (ИВЦ) по всей стране, в которых, как и в ГВЦ, есть свои виртуальные инфраструктуры на платформе VMware vSphere.

Так вот, функция VMware vSphere Content Library позволяет подписать ИВЦ на обновления ГВЦ (который будет издатель/publisher), где можно создать шаблон виртуальной машины, а на уровне ИВЦ (подписчик/subscriber) администраторы этот шаблон ВМ увидят и установят. Очень удобно.

Для этого в центральном датацентре нужно перейти в раздел Content Libraries в vSphere Web Client:

Там нажимаем иконку создания нового объекта и добавляем новую библиотеку (Library):

Далее возьмем виртуальную машину, которую мы хотим превратить в шаблон (VM Template) и выберем из ее контекстного меню пункт Clone -> Clone to Template in Library:

Переходим на вкладку Related Objects и убеждаемся, что шаблон виртуальной машины добавлен в библиотеку:

Теперь, чтобы опубликовать библиотеку (Publish), нужно пойти на вкладку Manage, нажать Edit и поставить галку Publish this library externally (можно задать параметры доступа в разделе Authentication):

Уже в региональном датацентре нужно создать новую библиотеку:

И выбрать пункт Subscribed content library, указав URL центральной библиотеки паблишера:

После этого мы увидим в ней шаблон виртуальной машины, который мы создали в центральном датацентре:

Ну и из этого шаблона мы можем развернуть новую виртуальную машину в нашем региональном ЦОД на базе стандартов центра:

Как вы наверное заметили, помимо вкладки Templates, есть еще и вкладка Other Types, то есть можно публиковать не только шаблоны, но и другие объекты. Наиболее полезно будет распространять таким способом ISO-образы для гостевых ОС, а также скрипты для автоматизации различного рода операций. Удобная штука, но мало кто об этом знает.

VMware
vSphere
SIOC

VMware Storage I/O Control (SIOC) - как это работает на практическом примере.

(0 Comment)

Больше 5 лет назад мы писали о технологии VMware Storage I/O Control (SIOC), которая позволяет приоритизировать ввод-вывод для виртуальных машин в рамках хоста, а также обмен данными хостов ESXi с хранилищами, к которым они подключены. С тех пор многие администраторы применяют SIOC в производственной среде, но не все из них понимают, как именно это работает.

На эту тему компания VMware написала два интересных поста (1 и 2), которые на практических примерах объясняют, как работает SIOC. Итак, например, у нас есть вот такая картинка:

В данном случае мы имеем хранилище, отдающее 8000 операций ввода-вывода в секунду (IOPS), к которому подключены 2 сервера ESXi, на каждом из которых размещено 2 виртуальных машины. Для каждой машины заданы параметры L,S и R, обозначающие Limit, Share и Reservation, соответственно.

Напомним, что:

  • Reservation - это минимально гарантированная производительность канала в операциях ввода-вывода (IOPS). Она выделяется машине безусловно (резервируется для данной машины).
  • Shares - доля машины в общей полосе всех хостов ESXi.
  • Limit - верхний предел в IOPS, которые машина может потреблять.

А теперь давайте посмотрим, как будет распределяться пропускная способность канала к хранилищу. Во-первых, посчитаем, как распределены Shares между машинами:

Общий пул Shares = 1000+2500+500+1000 = 5000

Значит каждая машина может рассчитывать на такой процент канала:

VM1 = 1000/5000 = 20% = 0,2 * 8000 = 1600 IOPS
VM2 = 2500/5000 = 50% = 0,5 * 8000 = 4000 IOPS
VM3 = 500/5000 = 10% = 0,1 * 8000 = 800 IOPS
VM4 = 1000/5000 = 20% = 0,2 * 8000 = 1600 IOPS

Если смотреть с точки зрения хостов, то между ними канал будет поделен следующим образом:

ESX1 = 3500/5000 = 70%
ESX2 = 1500/5000 = 30%

А теперь обратимся к картинке. Допустим у нас машина VM1 простаивает и потребляет только 10 IOPS. В отличие от планировщика, который управляет памятью и ее Shares, планировщик хранилищ (он называется mClock) работает по другому - неиспользуемые иопсы он пускает в дело, несмотря на Reservation у это виртуальной машины. Ведь он в любой момент может выправить ситуацию.

Поэтому у первой машины остаются 1590 IOPS, которые можно отдать другим машинам. В первую очередь, конечно же, они будут распределены на этом хосте ESXi. Смотрим на машину VM2, но у нее есть LIMIT в 5000 IOPS, а она уже получает 4000 IOPS, поэтому ей можно отдать только 1000 IOPS из 1590.

Следовательно, 590 IOPS уйдет на другой хост ESXi, которые там будут поделены в соответствии с Shares виртуальных машин на нем. Таким образом, распределение IOPS по машинам будет таким:

VM1 = 10 IOPS
VM2 = 4000+1000 = 5000 IOPS (так как установлен Limit)
VM3 = 800 + ((500/1500) * 590) = 997 IOPS
VM4 = 1600 + ((1000/1500) * 590) = 1993 IOPS

Все просто и прозрачно. Если машина VM1 начнет запрашивать больше канала, планировщик mClock начнет изменять ситуацию и приведет ее к значениям, описанным выше.



Все сессии VMware VMworld 2015

(0 Comment)
<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 | 105 | 106 | 107 | 108 | 109 | 110 | 111 | 112 | 113 | 114 | 115 | 116 | 117 | 118 | 119 | 120 | 121 | 122 | 123 | 124 | 125 | 126 | 127 | 128 | 129 | 130 | 131 | 132 | 133 | 134    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V vSAN Private AI VMmark VCF Operations Certification Memory Kubernetes NVMe AI VMConAWS vDefend VCDX Explore Tanzu Workstation Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge