Новости Статьи VMware Veeam StarWind vStack Microsoft Nakivo Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6340 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Сломавшийся Auto Start для виртуальных машин в бесплатном VMware ESXi 5.0 Update 1.


Сейчас на VMware Communities обсуждается очередной баг в бесплатном гипервизоре VMware ESXi 5.0 Update 1 (он же vSphere Hypervisor). Приведенная ниже информация касается только пользователей бесплатного ESXi и не затрагивает владельцев любого из платных изданий vSphere.

Итак, когда вы обновляете VMware ESXi 5.0 на ESXi 5.0 Update 1, вы обнаруживаете неприятную особенность: функции Auto Start для виртуальных машин больше не работают (то есть машины при старте хост-сервера не запускаются). И это несмотря на то, что настройки автоматического запуска виртуальных машин работают:

Проблема начинается с билда 623860 и, повторимся, не касается платных изданий ESXi в составе vSphere. Слухи о том, что это, ходят разные: либо это новое ограничение бесплатного ESXi, либо обычный баг. Вроде бы все в итоге склоняются, что обычный баг. Сама VMware обещает поправить это в VMware vSphere 5.0 Update 2.

Если функции автоматического запуска виртуальных машин в бесплатном ESXi так важны, то вы можете откатиться до ESXi 5.0 просто нажав при загрузке Shift+R для входа в Recovery Mode, где можно откатить Update 1:

Более подробную информацию можно получить вот в этой статье на блогах VMware.


Таги: VMware, ESXi, Bug, Bugs, vSphere, Blogs, Бесплатно

Вышли VMware ESXi 5.0 Update 1, vCenter 5.0 Update 1 и куча других - время обновлять не только гипервизор.


Компания VMware выпустила очередное обновления своей платформы виртуализации VMware vSphere 5 Update 1, в которое вошли VMware vCenter 5.0 Update 1 и VMware ESXi 5.0 Update 1.

Новые возможности VMware ESXi 5.0 Update 1:

  • Support for new processors – ESXi 5.0 Update 1 поддерживает новые процессоры AMD и Intel, которые приведены в VMware Compatibility Guide.
  • Support for additional guest operating systems – В ESXi 5.0 Update 1 появилась поддержка гостевых ОС Mac OS X Server Lion 10.7.2 и 10.7.3.
  • New or upgraded device drivers – В ESXi 5.0 Update 1 появилась поддержка драйверов Native Storage Drivers для чипсетов Intel C600 series, а драйвер LSI MegaRAID SAS продвинулся до версии 5.34.
  • Также были исправлены несколько зафикисрованных ранее проблем.

Новые возможности VMware vCenter 5.0 Update 1:

  • Улучшения механизма Guest Operating System Customization. Теперь vCenter Server может кастомизировать при развертывании следующие ОС:
    • Windows 8
    • Ubuntu 11.10
    • Ubuntu 11.04
    • Ubuntu 10.10
    • Ubuntu 10.04 LTS
    • SUSE Linux Enterprise Server 11 SP2

Кроме того, прошло массовое обновление следующих продуктов VMware:

VMware vCloud Director 1.5.1 (тут):

  • Добавлена поддержка vSphere 5.0 Update 1 и vShield 5.0.1
  • ОС RHEL 5 Update 7 поддерживается как платформа для управления
  • Улучшения для: firewall rules, AMQP system notifications, log collection, chargeback retention
  • Добавлена поддержка шифрования AES-256 для Site-to-Site VPN-туннелей (при отсутствии поддержки vSphere 5.0 Update 1 <-> vCloud Connector 1.5)

VMware Site Recovery Manager 5.0.1 (тут):

  • Добавлена поддержка vSphere 5.0 Update 1
  • Возможность Forced Failover, которая позволяет восстановление ВМ в случаях, когда дисковый массив отказывает на защищенном сайте, который ранее не мог остановить и разрегистрировать ВМ.
  • IP customization для некоторых релизов Ubuntu
  • Вернулась расширенная настройка storageProvider.hostRescanCnt (см. тут)
  • Массивы, сертифицированные на версии 5.0 автоматически пересертифицированы на 5.0.1

VMware View 5.0.1 (тут):

  • Добавлена поддержка vSphere 5.0 Update 1
  • Обновленные версии VMware View Connection Server 5.0.1, который включает replica server, security server и View Transfer Server, а также VMware View Agent 5.0.1, VMware View Client for Windows 5.0.1
  • View Client for Mac OS X теперь поддерживает коммуникацию с виртуальными ПК по PCoIP (см. тут)
  • VMware View Client for Ubuntu Linux1.4 с поддержкой PCoIP
  • Новые релизы View client for Android и View Client for iPad (все клиенты View теперь консолидированно качаются тут)
  • Требование по наличию SSL-сертификатов со стороны клиента

VMware vShield 5.0.1 (тут):

  • Добавлена поддержка vSphere 5.0 Update 1
  • Улучшенные движки отчетности и экспорта
  • Новые вызовы REST API
  • Улучшенные логи для аудита
  • Улучшенное управление политиками для vShield App
  • Поддержка Autodeploy через модули vShield VIB, загружаемые vShield Manager

Если у вас в датацентре установлена не только VMware vSphere 5, то Jason Boche предлагает обновляться следующим образом:

1a. View 5.0 –> View 5.0.1

1b. vCD 1.5 –> VCD 1.5.1

1c. SRM 5.0 –> SRM 5.0.1

1d. vShield App/Edge/Endpoint 5.0 –> 5.0.1

1e. vDR 2.0 –> Go Fish

2. vSphere Client 5.0.1 (it’s really not an upgrade, installs parallel with other versions)

3. vCenter Server 5.0 –> vCenter Server 5.0 Update 1

4. Update Manager 5.0 –> Update Manager 5.0 Update 1

5. ESXi 5.0 –> ESXi 5.0 Update 1

И отметим, что VMware vSphere 5 Update 1 несовместима с некоторыми другими еще не обновленными продуктами VMware (наприме, Data Recovery 2.0). Поэтому вам может оказаться полезной следующая картинка совместимости от Джейсона:

Все вышеперечисленное загружается по этой ссылке.


Таги: VMware, vSphere, Update, ESXi, View, vCloud Director, View, SRM, vShield

Что можно сделать через VMware vCenter и ESXi Web Access?


Недавно мы писали о такой интересной вещи как Managed Object Browser (MOB), которая доступна через веб-сервер, работющий на сервере VMware vCenter (а также напрямую через веб-доступ к ESXi). А что вообще есть еще интересного на этом веб-сервере? Давайте посмотрим:

1. Если вы еще не пользовались веб-клиентом VMware vSphere Web Client в vSphere 5.0, самое время сделать это, зайдя по ссылке:

https://<имя vcenter>

Этот клиент умеет очень многое из того, что делает обычный "толстый" клиент:

2. Там же, на стартовом экране веб-сервера vCenter, вы можете нажать "Browse Datastores in the vSphere Inventory" и просмотреть хранилища, прикрепленные к хостам ESXi, прицепленным к vCenter:

3. Следующая интересная вещь - vCenter operational dashboard, компонент, который позволяет просматривать статистики по различным событиям, произошедшим в виртуальной инфраструктуре vSphere. Он доступен по ссылке:

http://<имя vCenter>/vod/index.html

Смотрите как интересно (кликабельно) - там много разых страничек:

4. Ну и на закуску - просмотр конфигурации и лог-файлов хоста ESXi через его веб-сервер (предварительно должен быть включен доступ по SSH). Зайдите по ссылке:

https://<имя ESXi>/host

Здесь можно ходить по папкам /etc, /etc/vmware и /var/log, исследуя логи хоста и его конфигурацию:


Таги: VMware, vCenter, Web Access, Web Client, vSphere, ESXi, Blogs

Managed Object Browser для VMware vSphere 5: Fault Domain Manager (HA).


Все разработчики, но не все администраторы VMware vSphere 5 знают, что есть такой инструмент Managed Object Browser (MOB), который позволяет просматривать структуру программных объектов хоста или сервера vCenter и вызывать различные методы через API.

Работать с MOB через браузер можно двумя способами (потребуется ввод административного пароля):

  • По ссылке на хост ESXi: http://<имя хоста>/mob
  • По ссылке на сервер vCenter: http://<имя vCenter>/mob

Вот, например, методы для работы с виртуальными дисками:

Вообще, полазить там для администратора будет интересно и полезно - можно узнать много нового о том, какие свойства есть у различных объектов vSphere. И прямо оттуда можно создавать различные объекты виртуальной среды с их параметрами.

Ну а пост этот о том, что в VMware vSphere 5 появился еще один раздел MOB - mobfdm, доступный по ссылке:

http://<имя хоста>/mobfdm

Этот MOB позволяет вызывать методы Fault Domain Manager, отвечающего за работу механизма VMware HA. Там можно узнать много интересного: какие хосты master и slave, список защищенных ВМ, Heartbeat-датасторы, состояние кластера и многое другое.

Покопайтесь - это интересно.


Таги: VMware, vSphere, Обучение, ESXi, vCenter, VMachines, FDM, HA

Как изменить IP-адрес VMware vCenter: переподключение хостов ESXi и перенастройка Update Manager + Auto Deploy.


Иногда бывает необходимо поменять IP адрес сервера vCenter Server в продуктивной, а чаще в тестовой, среде. Это не так просто - хосты ESXi, подключенные к vCenter, переходят в состояние Disconnected. Ниже приведен способ восстановления конфигурации vCenter, хостов ESXi, Update Manager и Auto Deploy после изменения IP-адреса vCenter.

1. Поменяйте IP-адрес сервера vCenter и переприсоедините его к домену Active Directory.

2. После этого произойдут следующие вещи:

  • Хосты ESXi перейдут в статус "disconnected" - это происходит потому, что каждый хост ESXi хранит IP-адрес vCenter в конфигурационном файле vpxa.cfg
  • Перестанет работать vSphere Update Manager - по той же причине, только у него есть файл extension.xml
  • Перестанет работать vSphere Auto Deploy - у него файлик vmconfig-autodeploy.xml

3. Для переприсоединения хоста ESXi к серверу vCenter вы можете удалить его из окружения vCenter и добавить повторно через vSphere Client, но этот способ приведет к потере данных о производительности хоста, что не очень хорошо. Поэтому нужно сделать так:

  • Зайти на сервер ESXi по SSH (сначала нужно его включить)
  • Открыть файл /etc/vmware/vpxa/vpxa.cfg
  • Изменить в нем секцию <serverIP>, указав новый IP-адрес vCenter:

  • Перезапустить management agents на хосте ESXi 5 командой # /sbin/services.sh restart, либо из DCUI как показано на видео ниже:

За более подробной информацией обращайтесь к KB 1001493.

  • После всего этого перезапустите службу "VMware VirtualCenter Server" на сервере vCenter.

4. Теперь приступаем к vSphere Update Manager. Заходим на машину, где он установлен, и переходим в папку C:\Program Files (x86)\VMware\Infrastructure\Update Manager, где открываем файл extension.xml и редактируем секцию <healthUrl>, указав новый IP-адрес vCenter Server:

Теперь открываем командную строку (cmd). Переходим в папку C:\Program Files (x86)\VMware\Infrastructure\Update Manager. Там выполняем следующую команду:

vciInstallUtils.exe –vc <vc_ip> –port <vc_http_port> -U <user_name> -P <password> -S extension.xml -C . -L . -O extupdate

где <vc_ip> = новый IP vCenter Server, а <vc_http_port> = 80. Параметры <user_name> и <password> - учетная запись администратора vCenter.

Если все прошло нормально, вывод будет выглядеть подобным образом:

Далее запускаем C:\Windows\ SysWOW64\obcad32.exe на сервере Update Manager. Там переходим на вкладку "System DSN" и нажимаем кнопку Configure. Идем до конца мастера по шагам и успешно проходим тест:

Пробуем запустить службу VMware vSphere Update Manager Service и получаем ошибку:

There was an error connecting to VMware vSphere Update Manager – [vc5:443]. Fault.HostNotReacable.summary

Поэтому переходим в папку C:\Program Files (x86)\VMware\Infrastructure Update Manager и открываем файл vci-integrity.xml, где в секции <vpxdLocation> вводим новый IP-адрес vCenter.

Теперь перезапускаем VMware vSphere Update Manager Service и включаем VMware vSphere Update Manger Extension в vSphere Client. После этого все должно заработать.

Более подробная информация в KB 101322.

5. Переходим к vSphere Auto Deploy. Открываем файл:

c:\ProgramData\VMware\VMware vCenter Auto Deploy\vmconfig-autodeploy.xml

где меняем старый адрес vCenter на новый IP.

Из этой же папки, из командной строки выполняем команду:

autodeploy-register.exe -R -a <vc_ip> -p <vc_http_port> -u <user_name> -w <password> -s <setup-file-path>

параметры вбиваем те же, что и на шаге 4, за исключением последнего:

<setup-file-path>= c:\ProgramData\VMware\VMware vCenter Auto Deploy\vmconfig-autodeploy.xml

Включаем Auto Deploy Plug-in в vSphere Client. Более подробная информация в KB 2000988.


Таги: VMware, vCenter, Обучение, ESXi, vSphere, Blogs, Troubleshooting, Update Manager, Auto Deploy

Весенний сезон скидок на StarWind iSCSI SAN или StarWind Native SAN for Hyper-V Edition - до 15 марта.


Решение номер 1 - StarWind iSCSI SAN - для создания отказоустойчивых хранищ под виртуальные машины серверов VMware ESXi и Microsoft Hyper-V снова в продаже со скидками, которые уменьшаются каждый день. Торопитесь!

Календарь скидок в процентах при заказе в первых двух неделях марта:

Напомним основные возможности решений StarWind:

Плюс к этому в StarWind для Hyper-V и vSphere есть Backup Plug-in, который имеет следующие преимущества:

  • Безагентная Архитектура
  • Резервные копии, сохраняемые в «родном» для Hyper-V VHD-формате (для vSphere - в своем)
  • Глобальная Дедупликация
  • Операция резервного копирования и восстановления ВМ в один клик

Более подробно с продуктом можно ознакомиться в наших статьях:

Купить продукты компании StarWind можно в компании VMC.


Таги: StarWind, Enterprise, iSCSI, Storage, HA, VMware, vSphere, Hyper-V, ESXi

Проброс USB-устройств в гостевые ОС VMware vSphere 5 - условия и ограничения.


Как вы знаете, еще в VMware vSphere 4.1 появилась возможность "пробрасывать" USB-устройства сервера в виртуальные машины (USB device passthrough). В VMware vSphere 5 эти возможности еще были несколько улучшены за счет добавления поддержки устройств для проброса и от клиента (+USB 3.0), а не только от сервера. В этой заметке приведем основные особенности и условия использования USB-устройств в виртуальных машинах на серверах ESXi.

Для начала простые правила при пробросе USB-устройств сервера (Host-Connected USB Passthrough):

  • одно USB-устройствo может быть проброшено только в одну ВМ, для одной ВМ может быть использовано до 20 устройств
  • Для работы проброса необходима версия Virtual Hardware 7 или выше (в vSphere 5 - восьмая версия)
  • Понятное дело, на хосте должен быть USB-контроллер. USB arbitrator хоста ESXi может управлять 15-ю контроллерами
  • Для ВМ с привязанными к ним USB-устройствами можно использовать vMotion, но мигрировать сами устройства нельзя
  • Перед тем как использовать USB-устройство в ВМ, нужно добавить к ней USB-контроллер в настройках

Правила посложнее:

  • Перед отключением проброшенного в ВМ USB-устройства рекомендуется отключать проброс контроллера в ВМ.
  • Перед использованием функций Hot Add (memory, CPU) нужно отключать USB-устройства от ВМ, поскольку при добавлении ресурсов Hot Add устройства USB отключаются, что может привести к потере данных
  • Виртуальная машина не может загружаться с проброшенного устройства USB
  • Ну и наверное догадываетесь, что нельзя пробрасывать флэшку с самим ESXi
  • Контроллер xHCI (для устройств USB 3.0) доступен пока только для Linux-систем (начиная с ядра 2.6.35), для Windows драйверов пока нет

Также отметим, что начиная с VMware vSphere 5.0, стала доступной возможность пробрасывать USB-устройства в ВМ от клиентов (Client-Connected USB Passthrough). Поскольку эта возможность реализована на уровне клиента vSphere Client, то, используя клиента пятой версии, можно пробрасывать USB-девайсы на ВМ, размещенные на ESX/ESXi 4.1.

Таким образом, получается следующая таблица поддержки интерфейсов USB и типов подключения устройств:

Версия и тип интерфейса Хосты ESX/ESXi 4.1 Хосты ESXi 5.0
USB 2.0/1.1 Host-Connected Да Да
USB 2.0/1.1 Client-Connected Да (только при использовании vCenter 5.0) Да
USB 3.0 Host-Connected Нет Нет
USB 3.0 Client-Connected Нет Да (с драйвером xHCI, которого еще нет)

USB-контроллер можно добавить к виртуальной машине как из Sphere Client:

так и из vSphere Web Client:

Вопреки расхожему мнению, поддержка USB-устройств в виртуальных машинах VMware vSphere весьма ограничена. Вот полный список поддерживаемых устройств из KB:

Device Model
Vendor ID:Product ID
Device Display Name
SafeNet Sentinel Software Protection Dongle (purple)
04B9:8000
Rainbow SafeNet Sentinel
SafeNet Sentinel Software Protection SuperPro Dongle (gray)
04B9:3000
Rainbow USB UltraPro
SecuTech Unikey Software Protection Dongle
0403:C580
Future Devices HID UNIKEY
MAI KEYLOK II Software Protection Dongle 
07F2:0001
Microcomputer Applications USB Device
MAI KEYLOK Fortress Software Protection Dongle (Designed to work only with Windows operating systems.)

Note: This dongle is not designed for Linux systems. If you connect it to a Linux system, the connection resets frequently and can cause unexpected behavior.
0471:485e Philips KEYLOK Device
Aladdin HASP HL Drive 0529:0001 (13fe:1a00 Hub, 13fe:1d00 Drive)
Aladdin Knowledge HASP HL 3.21, Kingston drive
Aladdin HASP HL Basic Software Protection Dongle 0529:0001 Aladdin Knowledge HASP HL 3.21
Aladdin HASP HL Pro Software Protection Dongle 0529:0001 Aladdin Knowledge HASP HL 3.21
Aladdin HASP HL Max Software Protection Dongle 0529:0001 Aladdin Knowledge HASP HL 3.21
Aladdin HASP HL Net Software Protection Dongle 0529:0001 Aladdin Knowledge HASP HL 3.21
Aladdin HASP HL NetTime Software Protection Dongle 0529:0001 Aladdin Knowledge HASP HL 3.21
Kingston DataTraveler 101 II 4GB 0930:6545 Toshiba DT 101 II
Lexar JD FireFly 2GB 05dc:a701 Lexar Media JD FireFly
Western Digital My Passport Essential 250GB 2.5 HDD 1058:0704 Western Digital External
Cables To Go USB 2.0 7-Port Hub Model# 29560
04cc:1521
Not applicable

То есть всего ничего - эти модели были протестированы чисто чтобы табличку заполнить. Все что за пределами этого списка следует тестировать самостоятельно, в этом случае вопросы в техподдержку VMware задавать не следует.


Таги: VMware, vSphere, USB, Обучение, ESXi, Hardware, VMachines

VMware vBenchmark - новая утилита VMware Labs для измерения производительности виртуальной инфраструктуры.


На сайте известного многим из вас проекта VMware Labs появилось очередное приложение. Бесплатное средство VMware vBenchmark, поставляемое в виде готового виртуального модуля (Virtual Appliance на базе SLES 11), позволяет измерять ключевые метрики производительности инфраструктуры VMware vSphere, анализировать времена типичных операций в виртуальной среде, а также определять показатели качества обслуживания для виртуальных сервисов (например, простой хост-серверов или сколько времени простоя помогают избежать функции высокой доступности).

То есть основная мысль vBenchmark - предоставить пользователю количественные показатели преимуществ, получаемых средствами инфраструктуры виртуализации VMware vSphere.

Основные возможности VMware vBenchmark:

  • Получение метрик с одного или нескольких серверов vCenter
  • Возможность включения или исключения хостов на уровне кластера из анализа
  • Возможность сохранять запросы к инфраструктуре и сравнивать их между собой в разные точки времени
  • Воможность сравнить ваше облако с аналогами по региону, отрасли и размеру организации, чтобы определить, насколько хорошо оно устроено

Последняя возможность предполагает загрузку результатов анализа в общий репозиторий, который представляет собой глобальную базу данных организаций.

Статистика инфраструктуры:

Метрики эффективности виртуальной среды:

Показатели типовых операций:

Все это и остальные вкладки утилиты вы можете увидеть в ролике, записанном Владаном Сегетом:

Скачать виртуальный модуль VMware vBenchmark можно по этой ссылке. Отметим, что он поставляется как в форматах OVF/OVA (vCenter+vCloud Director), так и в обычном VMX, что позволит развернуть продукт на VMware Workstation, Fusion и Player.


Таги: VMware, Labs, Бесплатно, vSphere, ESXi, Performance, vCenter, Enterprise

Миграция физических и виртуальных томов RDM виртуальных машин VMware vSphere 5.


Как вы знаете, в VMware vSphere 5 есть возможность динамической миграции хранилищ виртуальных машин - Storage vMotion. Эта возможность позволяет не только без простоя перенести виртуальные машины между хранилищами и их LUN, но и изменять формат результирующего виртуального диска (thin или thick).

В этой заметке мы рассмотрим один из интересных аспектов миграции Storage vMotion - перенесение томов RDM (Raw Device Mapping) виртуальных машин, работающих в режиме виртуальной и физической совместимости (physical and virtual RDMs).

Также перенос хранилища виртуальной машины мы можем сделать не только в "горячем" режиме, но и в "холодном" с помощью функции Cold Migration (для выключенной ВМ). В этом случае мы также можем выбрать формат виртуального диска результирующей ВМ. Давайте посмотрим как эти условия влияют на перенос RDM томов во всех случаях.

Перенос включенных ВМ с физическим RDM (pRDM) средствами Storage vMotion:

  • Если вы пытаетесь изменить формат результирующего диска - Storage vMotion будет сделать нельзя.
  • Если вы не пытаетесь изменить формат - будет перемещен маппинг-файл pRDM тома с исходного VMFS-хранилища на результирующее. Данные останутся на исходном LUN.

Перенос включенных ВМ с виртуальным RDM (vRDM) средствами Storage vMotion:

  • Если вы изменяете формат результирующего диска (в advanced view) - том vRDM будет сконвертирован в VMDK-диск на целевом томе VMFS.
  • Если вы не изменяете формат - будет перемещен маппинг-файл vRDM тома с исходного VMFS-хранилища на результирующее. Данные останутся на исходном LUN.

Перенос выключенных ВМ с физическим RDM (pRDM) средствами Cold Migration:

  • Если вы изменяете формат результирующего диска (в advanced view) - том pRDM будет сконвертирован в VMDK-диск на целевом томе VMFS.
  • Если вы не изменяете формат - будет перемещен маппинг-файл pRDM тома с исходного VMFS-хранилища на результирующее. Данные останутся на исходном LUN.

Перенос выключенных ВМ с виртуальным RDM (vRDM) средствами Cold Migration:

  • Если вы изменяете формат результирующего диска (в advanced view) - том vRDM будет сконвертирован в VMDK-диск на целевом томе VMFS.
  • Если вы не изменяете формат - будет перемещен маппинг-файл vRDM тома с исходного VMFS-хранилища на результирующее. Данные останутся на исходном LUN.

Таким образом, у нас получается 3 ситуации, когда исходный RDM-том конвертируется в VMDK-диск на целевом томе, при этом в мастере миграции вас никто об этом не предупреждает.

Также есть еще один аспект при миграции таких томов. Если исходный RDM-том находился в режиме Independent Persistent (а pRDM обязательно в этом режиме находится), то, как следует из свойств этого диска, он не участвует в создании снапшотов ВМ.

После миграции, если он будет сконвертирован в vmdk-файл, то он также останется в этом режиме:

А это значит софт для резервного копирования виртуальных машин не будет бэкапить такой диск, поскольку он не участвует в создании снапшота. Учитывайте этот момент.


Таги: VMware, vSphere, RDM, Storage, SVMotion, Cold Migration, ESXi, VMachines, VMDK, VMFS

Комплексная защита виртуализации VMware vSphere 5 средствами компании Код Безопасности.


Приведение информационных систем в соответствие с требованиями №152-ФЗ «О персональных данных» является одной из самых актуальных проблем для многих российских компаний. На сегодняшний день использование технологий виртуализации в информационных системах персональных данных класса К1 невозможно без применения сертифицированных наложенных средств обеспечения информационной безопасности. Помимо требований законодательства, существуют и другие специфичные аспекты защиты виртуальных инфраструктур.

Продукт vGate R2, разработки компании «Код Безопасности», является единственным на рынке сертифицированным средством защиты информации от несанкционированного доступа (НСД), позволяющим осуществлять контроль ИБ-политик для виртуальных инфраструктур на базе платформ VMware Infrastructure 3 и VMware vSphere 4.  Также уже выпущен технический релиз версии продукта для защиты виртуальных инфраструктур на базе платформы VMware vSphere 5 (финальная версия будет выпущена уже скоро).

Среди функций vGate R2 (подробнее):

  • разделение объектов инфраструктуры на логические группы и сферы администрирования через категоризацию
  • усиленная аутентификация, разделение ролей и делегирование полномочий
  • управление конфигурацией системы безопасности
  • защита от утечек через специфические каналы среды виртуализации
  • мониторинг событий ИБ и создание  структурированных отчетов

Кроме того, возможность применять современные технологии виртуализации также получают организации, работающие с государственной тайной, защиту которой обеспечивает отдельная редакция продукта vGate-S R2, сертифицированная ФСТЭК России  для защиты государственной тайны в автоматизированных системах до класса 1Б включительно и защиты информации в информационных системах персональных данных до 1 класса включительно.

Применение vGate R2 совместно с другими продуктами разработки «Кода Безопасности» позволяет построить комплексную  систему защиты государственной тайны, конфиденциальной информации и персональных данных при их обработке в виртуальной среде. Для обеспечения контроля целостности и доверенной загрузки серверов виртуализации, сервера управления и сервера авторизации vGate R2 рекомендуется устанавливать на каждый из этих серверов аппаратно-программный модуль доверенной загрузки ПАК «Соболь»:

Для обеспечения защиты сетевого доступа к виртуальным машинам и контроля трафика между виртуальными машинами на одном сервере виртуализации рекомендуется применять распределенный межсетевой экран высокого класса защиты TrustAccess.

Применение TrustAccess для сегментирования ИСПДн позволяет отнести отдельные сегменты к более низкому классу и добиться снижения затрат на защиту информации. У TrustAccess также есть все необходимые сертификаты ФСТЭК.

Для защиты каждой виртуальной машины от НСД рекомендуется использовать средство защиты информации Secret Net, которое обеспечивает разграничение доступа, доверенную информационную среду, а также защиту информации в процессе хранения.

Надежность продуктов разработки компании «Код Безопасности» подтверждают сертификаты ФСТЭК России, позволяющие применять эти решения для систем различных классов защищенности (ИСПДн – до класса К1, АС – до классов 1Г, 1В, 1Б). О том как защищать персональные данные средствами vGate R2 мы уже писали вот тут.

Таким образом, используя средства компании Код Безопасности, вы можете защищать не только средства виртуализации и виртуальные машины, но и другие аспекты ИТ-инфраструктуры, которые неразрывно связаны с виртуальной средой.

Чтобы дальше углубиться в аспекты комплексной защиты VMware vSphere 5 и виртуальных сервисов, приглашаю вас на вебинар "Построение комплексной системы обеспечения информационной безопасности в виртуальной среде" о продукте vGate R2", который пройдет 23 марта (бесплатная регистрация).


Таги: Security, vGate, Security Code, vSphere, VMware, ESXi, TrustAccess, Webinar

Файлы снапшотов (snapshots) виртуальных машин VMware vSphere 5 и поддерживаемые операции.


О снапшотах виртуальных машин VMware vSphere мы уже много писали (например, можно пискать по тэгу "Snapshot"). Постараемся в этой заметке просуммировать информацию о том, что из себя представляют файлы снапшотов виртуальных машин vSphere 5 и как они обрабатываются.

Для того, чтобы снять снапшот виртуальной машины (virtual machine snapshot), можно кликнуть на ней правой кнопкой в vSphere Client и выбрать соответствующий пункт "Take Snapshot" из контекстного меню:

Далее появится окно снятия снапшота ВМ:

Обратите внимание на опцию "Snapshot the virtual machine's memory". Если эту галку убрать, то снапшот не будет содержать состояние памяти виртуальной машины, т.е. при откате к нему ВМ будет в выключенном состоянии. Плюс такого снапшота - он создается намного быстрее, поскольку не надо сохранять память машины в отдельный файл.

Вторая опция - это возможность "заморозки" файловой системы виртуальной машины на время создания снапшота. Она доступна только при условии установленных в гостевой ОС VMware Tools, в составе которых идет Sync Driver. Эта функциональность нужна для создания консистентного состояния виртуальной машины для снапшота на уровне файловой системы, что особенно необходимо при создании резервных копий (используют все системы резервного копирования для виртуализации, например, Veeam Backup and Replication). Данная возможность (quiesce) поддерживается не всегда - об условиях ее применения можно прочитать тут.

После создания снапшота заглянем в Datastore Browser на хосте VMware ESXi через vSphere Client:

Выделенные зеленым объекты - это абстрации двух снапшотов виртуальных машин. Чтобы понять, что собой представляют эти абстрации, откроем каталог с виртуальной машины в консоли (Putty по SSH):

Здесь мы уже видим, что снапшот на самом деле - это набор из четырех файлов:

  • <имя ВМ>-[шесть цифр]-delta.vmdk - файл данных диска отличий от базового диска
  • <имя ВМ>-[шесть цифр].vmdk - заголовочный файл
  • <имя ВМ>.vmsd - текстовый файл с параметрами снапшота (связи в дереве, SCSI-нода, время создания и т.п.)
  • <имя ВМ>.vmsn - файл с сохраненной памятью виртуальной машины

Самый главный файл - это, конечно, <имя ВМ>-[шесть цифр]-delta.vmdk. Он содержит блоки данных хранимые в формате так называемых redo-логов (он же дочерний диск - child disk). Он же sparse-диск, то есть диск, который использует технологию Copy-On-Write (COW) при работе с данными. Идея технологии copy-on-write — при копировании областей данных создавать реальную копию только когда ОС обращается к этим данным с целью записи. Таким образом, этот виртуальный диск содержит только измененные от родительского диска области данных (delta).

По умолчанию размер COW-операции составляет 64 КБ, что эквивалентно 128 секторам (подробнее). Но сам снапшот растет блоками данных по 16 МБ. То есть запись 64 КБ данных исходного диска может породить прирост 16 МБ данных в диске снапшота.

Следующий интересный тип файла - <имя ВМ>.vmsd. Это обычный текстовый файл, который можно открыть в редакторе и увидеть все отношения между родительским и дочерними дисками, а также другую интересную информацию:

Ну и последнее - это память виртуальной машины, хранящаяся в файле <имя ВМ>.vmsn. Его, понятное дело, может не быть, если вы создавали снапшот выключенной ВМ или убрали галку, о которой написано в самом начале.

По умолчанию снапшоты складываются в папку на VMFS-томе, где лежит виртуальная машина. Но это размещение можно сменить, поменяв рабочую папку (Working Directory) в настройках виртуальной машины через vSphere Client или в vmx-файле, для чего нужно добавить или поменять строчку:

workingDir="/vmfs/volumes/SnapVolume/Snapshots/"

Кстати, эта же папка задает и размещение файла подкачки ВМ (*.vswp). Если вы его хотите оставить на прежнем месте, нужно добавить строчку:

sched.swap.dir = "/vmfs/volumes/VM-Volume1/MyVM/"

Ну и напоследок, какие операции поддерживаются для виртуальных машин со снапшотами:

Операция Требования и комментарии
Storage vMotion Для хостов ESX/ESXi 4.1 или более ранних - не поддерживатся. Для ESXi 5.0 или более поздних - поддерживается.
vMotion Поддерживается. Файлы снапшотов должны быть доступны на целевом хосте. Необходима версия hardware version 4 или более поздняя (ESX/ESXi 3.5 и выше).
Cold migration Поддерживается для хостов ESX/ESXi 3.5 или более поздних.
Fault Tolerance Не поддерживается. Для создания снапшота нужно отключить FT.
Hot clone Поддерживается, но снапшотов не должно быть больше 31 штуки.
Cold clone Поддерживается. Однако целевая ВМ будет без снапшотов.

Более подробную информацию о снапшотах можно найти в KB 1015180.

Ну и небольшая подборка ссылок по траблшутингу снапшотов в VMware vSphere:

И отдельно выделим вот эту потрясающую библию снапшотов: Troubleshooting Virtual Machine snapshot problems.


Таги: VMware, vSphere, Snapshot, Обучение, ESX, ESXi, VMachines, Troubleshooting

Где скачать ISO VMware ESXi 5.0, подготовленный для серверов HP.


VMware ESXi 5.0, кастомизированный под серверы HP BL, DL, ML и другие можно загрузить по этой ссылке:

http://vibsdepot.hp.com/

Сборка ESXi 5.0 под HP содержит следующий набор дополнительных драйверов и утилит:

  • HP Management Tools:
  • HP CIM Providers
  • HP NMI Driver
  • HP iLO Driver
  • HP CRU Driver
  • HPONCONFG Utility
  • HPBOOTCFG Utility
  • VMware IOVP Certified Device Drivers added to HP ESXi 5.0 installation images for HP device
    enablement.
  • VMware ESXi 5.0, Patch Release ESXi500-201109001

Таги: VMware, ESXi, HP, Blogs

Плагин к vSphere Client для VMware Auto Deploy (массовое развертывание ESXi).


На сайте проекта VMware Labs появилась весьма достойная внимания утилита - GUI-плагин к vSphere Client для VMware Auto Deploy. Как вы знаете, среди новых возможностей VMware vSphere 5 появились функции Auto Deploy (только для Enterprise Plus издания), которые позволяют развертывать хост-серверы VMware ESXi по сети через механизм PXE. Это позволяет использовать бездисковые серверы ESXi и проводить массовые развертывания хостов в больших виртуальных инфраструктурах.

Теперь плагин Auto Deploy GUI к vSphere Client позволит настраивать параметры такого развертывания без необходимости использования интерфейса командной строки PowerCLI/PowerShell:

Плагин Auto Deploy GUI весит всего 8 МБ и предоставляет следующие возможности:

  • Автоматическое развертывание хостов ESXi (stateless)
  • Создание и управление профилями образов ESXi (image profiles)
  • Правила (rules), отражающие мапинг хостов к профилям образов
  • Поддержка профилей хостов (Host Profiles) для правил, соответствующих профилям образов
  • Проверка соответствия хостов правилам и приведение в соответствие с ними
  • Просмотр параметров VIB
  • Возможность использования стандартных хранилищ образов ESXi и агентов (HA, vCloud), а также сторонних репозиториев
  • Возможность встраивания пакетов ПО и драйверов
  • Клонирование сконфигурированного образа

К Auto Deploy GUI идет хороший документ по настройке (без воды - Practical Guide), скачать его можно по этой ссылке. Сам же плагин Auto Deploy GUI можно скачать тут.


Таги: VMware, vSphere, Auto Deploy, Client, ESXi, PXE, Enterprise, Host Profiles

Установка Windows 8 в виртуальной машине VMware vSphere 5.


Если вам не терпится посмотреть на то, что из себя представляет новая версия настольной ОС Microsoft Windows 8, то есть способ это сделать, не мучая физический компьютер. Если раньше официальная статья KB 2006859 говорила о том, что в виртуальной машине Windows 8 поставить нельзя, то теперь вышел патч для vSphere 5, а William Lam описал способ развертывания гостевой ОС.

Способ очень прост:

1. Устанавливаем на хост VMware ESXi патч ESXi500-201112001 (patch02) из VMware patch repository.

2. Создаем виртуальную машину, указав в качестве гостевой ОС Windows 7 или Windows 2008 R2.

3. Заходим в настройки ВМ "Hardware->Video Card" и включаем "3D graphics support" (нужно для установки VMware Tools).

4. Привязываем к ВМ ISO-образ Windows 8 и запускаем установку.

В итоге Windows 8 в виртуальной машине vSphere 5 работает отлично:

Ну а Windows 8 Developer Preview можно скачать по этой ссылке. Как мы уже писали, бета-версию Windows 8 обещают к концу февраля, а окончательный релиз - к концу года.


Таги: VMware, Microsoft, Windows, VMachines, ESXi, vSphere, Blogs

vCheck 6 - утилита для отчетности о виртуальной инфраструктуре VMware vSphere перед началом рабочего дня.


Alan Renouf, автор множества полезных скриптов PowerCLI для администрирования инфраструктуры VMware vSphere, выпустил очередное обновление своей бесплатной утилиты vCheck 6.

vCheck 6 - это PowerCLI-скрипт, который готовит отчетность по объектам окружения VMware vSphere и отсылает результат на почту администратора, из которого можно узнать о текущем состоянии виртуальной инфраструктуры и определить потенциальные проблемы.

Пример получаемого отчета можно посмотреть тут (кликабельно):

Вот полный список того, что может выдавать скрипт vCheck 6:

  • General Details
    • Number of Hosts
    • Number of VMs
    • Number of Templates
    • Number of Clusters
    • Number of Datastores
    • Number of Active VMs
    • Number of Inactive VMs
    • Number of DRS Migrations for the last days
  • Snapshots over x Days old
  • Datastores with less than x% free space
  • VMs created over the last x days
  • VMs removed over the last x days
  • VMs with No Tools
  • VMs with CD-Roms connected
  • VMs with Floppy Drives Connected
  • VMs with CPU ready over x%
  • VMs with over x amount of vCPUs
  • List of DRS Migrations
  • Hosts in Maintenance Mode
  • Hosts in disconnected state
  • NTP Server check for a given NTP Name
  • NTP Service check
  • vmkernel warning messages ov the last x days
  • VC Error Events over the last x days
  • VC Windows Event Log Errors for the last x days with VMware in the details
  • VC VMware Service details
  • VMs stored on datastores attached to only one host
  • VM active alerts
  • Cluster Active Alerts
  • If HA Cluster is set to use host datastore for swapfile, check the host has a swapfile location set
  • Host active Alerts
  • Dead SCSI Luns
  • VMs with over x amount of vCPUs
  • vSphere check: Slot Sizes
  • vSphere check: Outdated VM Hardware (Less than V7)
  • VMs in Inconsistent folders (the name of the folder is not the same as the name)
  • VMs with high CPU usage
  • Guest disk size check
  • Host over committing memory check
  • VM Swap and Ballooning
  • ESXi hosts without Lockdown enabled
  • ESXi hosts with unsupported mode enabled
  • General Capacity information based on CPU/MEM usage of the VMs
  • vSwitch free ports
  • Disk over commit check
  • Host configuration issues
  • VCB Garbage (left snapshots)
  • HA VM restarts and resets
  • Inaccessible VMs

Плюс ко всему, скрипт имеет расширяемую структуру, то есть к нему можно добавлять свои модули для различных аспектов отчетности по конкретным приложениям. Список уже написанных Аланом плагинов можно найти на этой странице.

Скачать скрипт vCheck 6.0 можно по этой ссылке.


Таги: VMware, vSphere, Blogs, ESXi

DRS Host Affinity Rules - неочевидное поведение.


Вот эта заметка на блоге VMware напомнила об одной интересной особенности поведения правил совместного и несовместного размещения виртуальных машин на хосте ESX/ESXi (DRS Host Affinity Rules).

Напомним, что для виртуальных машин в класетере DRS можно задавать данные правила для ситуаций, когда требуется определенным образом распределять группы виртуальных машин по хостам или их группам. Требуется это обычно для соблюдения правил лицензирования (см., например, правила лицензирования для ВМ Oracle), когда виртуальные машины могут исполняться только на определенных физических серверах, либо для всяких экзотических ситуаций, когда, к примеру, основную и резервную системут нужно держать на разных хостах.

То есть, мы задаем группы виртуальных машин и хостов:

И указываем, что виртуальные машины DRS-группы могут работать только на данной DRS-группе хостов:

Правила эти бывают мягкими (preferential), когда DRS+HA будут стараться следовать им при штатном функционировании кластера, и жесткими (mandatory, "Must run") - в этом случае ни при каких условиях виртуальные машины не переедут на хосты не из группы. Этого не произойдет ни средствами vMotion/DRS/Maintenance Mode, ни средствами перезапуска HA в аварийных ситуациях.

Для жестких правил есть один интересный аспект: они сохраняются и продолжают действовать даже тогда, когда вы отключили кластер VMware DRS. То есть вы не сможете сделать ручной vMotion или Power On машин на хостах не из группы, а HA не будет их там перезапускать. При этом в настройках кластера с отключенным DRS уже не будет возможности редактирования этих правил (категория VMware DRS пропадет). Это сделано для того, чтобы во время временных сбоев (например, vCenter) лицензионные правила существования ВМ для приложений на хостах не нарушались в любом случае.

Поэтому, если нужно удалить правила, нужно снова включить DRS, удалить их и снова отключить DRS.


Таги: VMware, DRS, Обучение, vSphere, ESX, ESXi, vMotion, HA

Новые пакеты VMware vSphere Acceleration Kit with Management и бесплатное обучение VCP


Компания VMware объявила о начале поставок новых пакетов лицензий vSphere Acceleration Kit with Management. Это решение наращивает функциональность существующих пакетов VMware vSphere Acceleration Kits с добавлением функций по администрированию виртуальной инфраструктуры средствами новых продуктов. Еще один важный плюс для администраторов vSphere - эти пакеты позволяют бесплатно учиться на курсах VMware, в том числе VCP 5.


Таги: VMware, vSphere, Enteprise, VCP, ESXi, SMB, Бесплатно, Обучение, Promo

Бесплатный oneVirt Viewer - сбор информации с нескольких vCenter и учет лицензий.


На сайте onevirt.com появилась интересная и многим полезная бесплатная утилита oneVirt Viewer, позволяющая собрать информацию о хост-серверах ESX/ESXi, виртуальных машинах и хранилищах с нескольких серверов vCenter и использовать ее в целях учета объектов, в том числе используемых лицензий на VMware vSphere.

Обратите внимание на полезный блок Total/Used/Available:

Удобно то, что oneVirt Viewer - утилита кроссплатформенная, работающая на Windows, MacOSX и Linux.

Основные возможности продукта:

  • Поддержка хостов VMware vSphere 4 и 5 (ESX и ESXi) и их серверов vCenter Server
  • Возможность экспорта в csv всех таблиц на вкладках
  • Фильтры для разделов
  • Информация раздела Licenses: vCenter, vSphere Edition, License Key, Qty, Used, Available, Licensed By
  • Раздел Hosts: Name, Id, Build, Product, Version, vCenter, IP Address, Subnet Mask, Mac Address, MTU Setting, Maintenance Mode, Power State, CPU Mhz, Processor Qty, Core Qty, CPU Model, Memory, NIC Qty, HBA Qty, Hardware Model, Hardware Vendor.
  • Раздел VMs (на картинке): Name, vCPU Qty, vRAM(MB), vDisk Qty, vNIC Qty, IP Address, CPU Reservation, Memory Reservation, FT Status, VM Path, Power State, vCenter, Host, Guest OS, vHardware Version, VM Tools Status.
  • Раздел Templates: Name, vCPU Qty, vRAM(MB), vDisk Qty, vNIC Qty, IP Address, VM Path, Power State, vCenter, Host, Guest OS, vHardware Version, VM Tools Status.
  • Раздел Snapshots: Name,Created, Id, Quiesced, VM Guest и vCenter
  • Раздел Datastores: Name, Capacity(GB),Freespace(GB), Type, Maintenance Mode, Shared, vCenter
  • Панель Summary: Суммарный подсчет лицензий, хостов, ВМ, шаблонов, снапшотов и хранилищ

Скачать полезную штуку oneVirt Viewer можно по этой ссылке.


Таги: VMware, vCenter, Бесплатно, Monitoring, ESX, ESXi, Blogs

Вебинар на русском языке: Как упростить операции Резервного Копирования и Восстановления в вашей виртуальной инфраструктуре от StarWind.


Компания StarWind, выпускающая продукт номер 1 StarWind iSCSI Target для создания отказоустойчивой инфраструктуры хранилищ для виртуальных машин vSphere и Hyper-V, продолжает информировать вас о своем новом продукте для резервного копирования виртуальных машин StarWind Hyper-V backup Plug-in, который поставляется как плагин к основному решению.

На этот раз мы приглашаем вас на вебинар, проводимой компанией StarWind на русском языке, на тему "Как упростить операции Резервного Копирования и Восстановления в вашей виртуальной инфраструктуре". Проводит его Анатолий Вильчинский - веселый парень и грамотный специалист.

Напоминаю, что StarWind Hyper-V backup Plug-in это:

  • Безагентная Архитектура
  • Резервные копии, сохраняемые в «родном» для Hyper-V VHD-формате
  • Глобальная Дедупликация
  • Операция резервного копирования в один клик

Обращаю также внимание, что мероприятие пройдет 9 февраля в 17-00 по москве, то есть послезавтра - поэтому не задерживайтесь и приходите вовремя. Подробнее о плагине StarWind Hyper-V backup Plug-in для резервного копирования виртуальных машин Hyper-V и ESX/ESXi можно почитать в нашей заметке.


Таги: StarWind, Webinar, Backup, Hyper-V, VMware, Microsoft, ESXi, iSCSI, Storage, HA

Несколько новых полезных команд для VMware ESXi 5.0.


С выходом новой версии гипервизора VMware ESXi 5 некоторые старые команды и приемы работы с хост-сервером ушли в прошлое, однако появилось несколько новых трюков, которые мы приведем в этой заметке.

1. Простой способ собрать информацию для обращения в техподдержку VMware.

Теперь можно забрать дамп конфигурации ESXi 5.0 (diagnostic information) для техподдержки прямо из веб-браузера. Для этого в адресной строке просто наберите:

https://<username>:<password>@<ESXiHostnameOrIP>/cgi-bin/vm-support.cgi

2. Просмотр информации о настройках хоста ESXi 5.0.

Помните раньше была такая утилита esxcfg-info? Теперь ее больше нет, но можно, опять-таки, из веб-браузера ее загрузить:

https://<username>:<password>@<ESXiHostnameOrIP>/cgi-bin/esxcfg-info.cgi

3. Выключить все виртуальные машины хоста ESXi 5.0 одним махом можно командой:

/sbin/poweroffVms

4. Теперь, чтоб не мучиться, есть утилита traceroute (в ESX 4.1 не было). Также есть следующие утилиты: unzip, Sync, pkill, strace, dmesg, ntp-keygen, ntpdc, ntpq.

5. Вместо команды esxcfg-firewall теперь esxcli network firewal. Как пользоваться - написано тут.

Ну и, наконец, полный список команд консоли ESXi 5.0 и отличий от предыдущей версии ESX/ESXi 4.x вы найдете в документе "Command-Line Management in vSphere 5.0 for Service Console Users".


Таги: VMware, ESXi, CLI, ESX, vSphere

Приглашаем на вебинар: "Выполнение требований законодательства по защите персональных данных при обработке их в виртуальной среде".


Продолжаем настаивать на том, что безопасность виртуальных инфраструктур и выполнение при этом требований законодательства по защите персональных данных (ФЗ 152) - вещи архиважные и архинужные. Единственная сегодня возможность реализовать эти 2 вещи правильно - сертифицированный ФСТЭК продукт vGate R2 от компании "Код Безопасности", который автоматически настроит виртуальную инфраструктуру в соответствии с российскими и международными руководящими документами и стандартами (+vSphere 5).

Напомним некоторые особенности защиты персональных данных в виртуальных средах:

И приглашаем на вебинар "Выполнение требований законодательства по защите персональных данных при обработке их в виртуальной среде", который проведет наша знакомая Мария Сидорова. На вебинаре она уже будет рассказывать про vGate R2 с поддержкой ESXi 5.0, который скоро выйдет в финальной версии и также будет сертифицирован ФСТЭК.

Вебинар пройдет 10 февраля в 3 часа дня по московскому времени:

Зарегистрироваться на вебинар.

Напомним, что познакомиться с полезными презентациями по теме информационной безопасности виртуализированных инфраструктур теперь можно на специальном ресурсе http://www.slideshare.net/Virtualization_Security, где наиболее важной презентацией в контексте вебинара является оная с одноименным названием: "Выполнение требований законодательства по защите персональных данных при их обработке в виртуальной среде".


Таги: Security Code, vGate, Webinar, Security, vSphere, ESXi

Техническая поддержка и лицензирование Oracle на VMware vSphere.


В последнее время все больше пользователей виртуализуют критичные базы данных под управлением СУБД Oracle в виртуальных машинах VMware vSphere. При этом есть миф о том, что Oracle не поддерживает свои СУБД в виртуальных машинах, и, если что-то случится, то получить техническую поддержку будет невозможно. Это не так.

Техническая поддержка Oracle для ВМ на VMware vSphere

На самом деле у Oracle есть документ "MyOracleSupport Document ID #249212" в котором прописаны принципы работы с техподдержкой при работе СУБД в ВМ VMware vSphere:

Вкратце их можно изложить так:

1. Действительно, Oracle не сертифицирует работу своих СУБД в виртуальных машинах VMware.

2. Если у вас возникает проблема с БД Oracle в виртуальной машине VMware, то Oracle смотрит, есть ли подобная проблема для физической системы, либо вы можете продемонстрировать, что проблема повторяется на физической машине, а не только в ВМ. Если проблема относится именно к виртуальной машине и не проявляется на физической системе, либо решение от техподдержки Oracle работает только для физического сервера - вас направляют к техподдержке VMware. Однако отметим, что VMware заявляет, что подобных проблем в ее практике еще не было.

Теперь, что касается самой VMware - у них есть отдельная политика технической поддержки "Oracle Support Policy". В ней, в частности, написано, что VMware принимает запросы на техподдержку касательно ВМ Oracle, работающих на vSphere, после чего взаимодействует со службой техподдержки Oracle через TSANet для поиска причины проблемы и решения. Тут важно, что за такие кейсы отвечает сама VMware.

Лицензирование Oracle в ВМ на VMware vSphere

Oracle, как и положено мастодонту, не имеет каких-либо специфических правил лицензирования, разработанных специально для виртуальных сред. Основные моменты лицензирования Oracle в VMware vSphere изложены в документе "Understanding Oracle Certification, Support and Licensing for VMware Environments".

Тут также есть некоторая квинтэссенция:

1. Виртуальные машины с СУБД Oracle могут работать на хостах VMware ESX/ESXi, у которых либо все физические процессоры (ядра), либо их часть лицензированы под Oracle. Оптимально, конечно, лицензировать весь хост, однако если это дорого, можно лицензировать и несколько процессоров, после чего привязать конкретные виртуальные машины к физическим процессорам хоста, используя vSphere Client:

Либо используя vSphere Web Client:

Однако, как вы можете прочитать в документе от VMware (см. комментарии к заметке), компания Oracle не признает такого разделения лицензий по процессорам на хосте, хотя сама VMware этим очень недовольна. Поэтому вам придется лицензировать все процессоры хоста, при этом вы там сможете запустить столько экземпляров Oracle, сколько потребуется.

Возможно, эта ситуация в будущем изменится, и можно будет лицензировать отдельные процессоры хоста.

2. Если вы хотите, чтобы виртуальная машина с Oracle перемещалась на другой хост, то все процессоры исходного и целевого хостов должны быть лицензированы Oracle.

3. Что касается кластеров VMware HA/DRS, то тут нужно быть внимательным. Оптимальное решение - это создать отдельный кластер для ВМ с Oracle и лицензировать все процессоры всех хостов в нем, если у вас достаточно виртуальных машин, нагрузки и денег для такой задачи. Если недостаточно - можно лицензировать часть хостов (но, опять-таки, целиком), после чего выставить для них DRS Host Affinity Rules таким образом, чтобы виртуальные машины с Oracle всегда оставались на лицензированных хостах:

Для получения более полной информации о лицензировании Oracle в виртуальной среде VMware vSphere читайте приведенный выше документ.


Таги: VMware, Oracle, Support, Licensing, vSphere, ESX, ESXi, Whitepaper

Выпуск VMware vCenter Operations Management Suite 5.0 и VMware vCenter Infrastructure Navigator 1.0.


Как мы недавно писали, компания VMware сняла с производства продукт VMware vCenter Operations, а вместо него позавчера объявила о начале поставок продукта VMware vCenter Operations Management Suite.

Мы уже рассказывали про продукт vCenter Operations, который собирает данные о производительности каждого из объектов виртуальной инфраструктуры VMware vSphere (виртуальные машины, хранилища, кластеры, датацентр в целом), хранит их в централизованной базе данных, анализирует их и делает отчет в реальном времени о текущих и потенциальных проблемах производительности.

Теперь этот продукт был существенно доработан: он предоставляет не только средство анализа и решения проблем производительности в датацентре компании, но и средства прогнозирования нагрузки, а также механизмы "осведомленности о приложениях", которые позволяют строить карты зависимости на уровне компонентов приложений для сервисов виртуальной инфраструктуры. Последнее делается средствами специального модуля VMware vCenter Infrastructure Navigator 1.0 (поставляется как виртуальный модуль - Virtual Appliance), который также вышел вместе с vCenter Operations Management Suite.

Ключевые возможности vCenter Operations Management Suite 5.0:

  • Комбинирование ключевых метрик производительности в общее количество баллов для датацентра (CPU, memory, disk, contention performance).
  • Отображение основных метрик "самочувствия" виртуальной инфраструктуры и ее эффективности с точки зрения производительности.
  • vCenter Operations вычисляет диапазон значений, который находится в рамках допустимой производительности, и подсвечивает отклонения от этого диапазона. 
  • Графическое представление инфраструктуры в контексте производительности с возможностью "проваливания" до отдельных компонентов. 
  • Отображение информации об изменениях в иерархии виртуальной инфраструктуры, после чего vCenter Operations показывает, как эти изменения отразились на производительности различных объектов. Например, если виртуальная машина переместилась за счет vMotion между хостами VMware ESX/ESXi, vCenter Operations покажет нам как изменилась нагрузка на хост-серверы.
  • Обнаружение приложений, работающих в виртуальных машинах, и автоматическое распознавание их компонентов с использованием встроенной базы знаний (Application Component Knowledge Base).
  • Построение карты взаимосвязей сервисов виртуальной инфраструктуре на уровне корпоративных приложений, которая позволяет осуществлять мониторинг и решение проблем для основных логических компонентов систем, состоящих из нескольких виртуальных машин.
  • Упрощение создания многомашинных конфигураций vApp для различных подразделений компании + поддержка конфигураций VMware SRM для интегрированного контроля над планами аварийного восстановления.

Как понятно из описанных возможностей, продукт vCenter Operations Management Suite предназначен для крупных виртуальных инфраструктур, где требуется комплексное наблюдение за производительностью и приложениями виртуального датацентра.

Так выглядит Dashboard:

Помните был такой продукт VMware vCenter CapacityIQ? Теперь его больше нет, а его возможности интегрированы в vCenter Operations Suite. Его компоненты отвечают за анализ мощностей датацентра, определение эффективности их использования, а также планирование необходимых мощностей на будущее с учетом трендов загрузки:

Ну и отдельным модулем идет VMware vCenter Infrastructure Navigator 1.0, который отвечает за построение карт сервисов:

vCenter Infrastructure Navigator поставляется как виртуальный модуль в формате OVA и интегрируется в веб-клиент VMware vSphere 5 Web Client в виде плагина, что хорошо, так как не требуется отдельной консоли администрирования. Поддерживается ESX/ESXi 4.0, 4.1 и ESXi 5.0. Скачать vCenter Infrastructure Navigator можно по этой ссылке (для пользователей Operations).

Обзорное видео установки vCenter Infrastructure Navigator:

Использование vCenter Infrastructure Navigator:

Продукт vCenter Operations Management Suite поставляется в 4-х изданиях:

  • Standard Edition - это стандартное издание продукта, предоставляющее только средства отслеживания производительности и диагностики проблем для небольших окружений.
  • Advanced Edition - добавляет возможности, пришедшие от продукта CapacityIQ, т.е. аналитика и планирование мощностей инфраструктуры.
  • Enterprise Edition - добавляются возможности vCenter Infrastructure Navigator и vCenter Chargeback для контроля зависимостей приложений и расчета стоимости виртуальных ресурсов в частных облаках, где производится финансовая оценка стоимости 1 ГГц и 1 МБ выдаваемых пользователям ресурсов.
  • Enterprise Plus - те же возможности, что и в Enterprise, но добавляются адаптеры к сторонним продуктам мониторинга датацентров, которые могут быть использованы как для виртуальных, так и для физических серверов на различных платформах.

Скачать пробную версию можно по этой ссылке. Отдельно загрузить vCenter Infrastructure Navigator можно тут.


Таги: VMware, vCenter, Operations, Infrastructure Navigator, Enterprise, ESX, ESXi, vSphere, Monitoring

Исследование пользователей VM Guru о миграции на VMware vSphere 5.


Не так давно мы просили вас ответить на 4 небольших вопроса о миграции на VMware vSphere 5 и используемых хранилищах и гипервизорах. Рады представить вам результаты этого опроса.

1. Оказывается, что большинство из опрошенных уже использует VMware vSphere 5, хотя количество пользователей 4-й версии тоже не так уж и мало:

2. В течение 3-6 месяцев на vSphere 5 перейдет большинство пользователей:

3. В плане хранилищ вперед вырываются агрессивные хапэшники:

Отметим большой потенциал продаж хранилищ под виртуализацию .

4. Несмотря на то, что нас читают в основном пользователи VMware, платформу VMware vSphere используют чуть больше половины опрошенных:

Отметим, что Parallels и Red Hat - использует 3 человека из опрошенных. Подозреваю, что это одни и те же люди :) Шучу.


Таги: VMware, vSphere, Update, ESXi

Возможности технического релиза vGate R2 с поддержкой vSphere 5: соответствие стандартам и лучшим практикам средствами политик.


Напомним, что совсем недавно компания «Код Безопасности» выпустила технический релиз новой версии vGate R2 с поддержкой VMware 5. Сейчас она проходит инспекционный контроль во ФСТЭК для получения соответствующих сертфикатов, наличие которых позволит вашей организации пройти процедуру аттестации или проверки со стороны государственных органов. Сегодня мы более подробно расскажем о новых политиках настройки безопасной среды виртуализации.


Таги: Security, vGate, vSphere, VMware, ESX, ESXi, VMachines, Security Code

Управление VMware vSphere, Microsoft Hyper-V и Citrix XenServer из консоли vSphere Client.


Интересное решение попалось на глаза - HotLink SuperVISOR for VMware, продукт, позволяющий в консоли vSphere Client объединить управление платформами и виртуальными машинами VMware vSphere, Microsoft Hyper-V и Citrix XenServer (+KVM от Red Hat). Данное решение позиционируется как комбинированное средство управления гетерогенной инфраструктурой виртуализации:

Работает HotLink SuperVISOR как плагин к vSphere Client, где вы можете увидеть центры управления для гипервизоров гетерогенной среды:

Поскольку Microsoft Hyper-V сейчас набирает обороты, и его присутствие в виртуальной инфраструктуре многих компаний доходит до 25%, подобные решения становятся весьма востребованными, особенно на фоне того, что VMware напрочь отказывается от интеграции своего vCenter со сторонними гипервизорами по очевидным причинам.

Обещают, что продукт HotLink обладает следующими возможностями по гетерогенному управлению по сравнению с другими моделями администрирования:

Практическую демонстрацию продукта SuperVISOR можно увидеть на видео ниже:

Из сайта я не смог понять, когда будет доступно решение HotLink, но сама идея выглядит очень заманчиво и перспективно.

Кстати, помните мы проводили исследование по миграции на vSphere 5? Пройдите, пожалуйста, кто не прошел - очень интересны результаты (сейчас пока 124 человека). Там всего 4 небольших вопроса. Спасибо.


Таги: VMware, vSphere, Enterprise, ESXi, Microsoft, Hyper-V, Citrix, XenServer, Red Hat, KVM

Обновленное сравнение изданий StarWind iSCSI SAN Enterprise и StarWind Native SAN for Hyper-V.


Многие из вас уже читали о новой версии StarWind Enterprise 5.8 для организации отказоустойчивых ISCSI-хранилищ для виртуальных машин VMware vSphere и Microsoft Hyper-V. Одна из интересных фич новой версии - возможность резервного копирования хранилищ виртуальных машин, идущая как плагин к продукту (VM Backup). Бэкап работает как для vSphere, так и для Hyper-V (с поддержкой дедупликации).

В связи в этим обновилось сравнение изданий продукта для платформ VMware и Microsoft.

Издания StarWind iSCSI SAN (для серверов ESX / ESXi):

Возможности
StarWind
Enterprise CDP Edition
StarWind iSCSI SAN
1TB 2TB 4TB 8TB 16TB Unlimited
Support 1 year 1 year 1 year 1 year 1 year 1 year 1 year
# of Servers per license 1 2 2 2 2 4
(2 HA sets)
4
(2 HA sets)
Maximum Capacity Unlimited 1TB 2TB 4TB 8TB 16TB Unlimited
# of Concurrent iSCSI Connections Unlimited Unlimited Unlimited Unlimited Unlimited Unlimited Unlimited
Ethernet ports Unlimited Unlimited Unlimited Unlimited Unlimited Unlimited Unlimited
Served Disk Drives Unlimited Unlimited Unlimited Unlimited Unlimited Unlimited Unlimited
Synchronous Mirroring (Active-Active High Availability)
Remote Replication (Active-Passive)
Automatic Failover
Failback with Fast Synchronization
Disk Bridge
SPTI
Image File
IPSec, CHAP, ACL, iSNS
CDP / Snapshots
Thin Provisioning
High Speed Caching
Event Log
Event notifications
Deduplication
*VM Backup Option $399.00* $399.00* $399.00* $399.00* $399.00* $399.00* $399.00*

Издания StarWind Native SAN for Hyper-V:

Возможности StarWind Native SAN for Hyper-V
1TB 2TB 4TB 8TB 16TB Unlimited
Support 1 year 1 year 1 year 1 year 1 year 1 year
# of Servers per license 2 2 2 2 2 2
Maximum Capacity 1TB 2TB 4TB 8TB 16TB Unlimited
# of Concurrent iSCSI Connections Unlimited Unlimited Unlimited Unlimited Unlimited Unlimited
Ethernet ports Unlimited Unlimited Unlimited Unlimited Unlimited Unlimited
Served Disk Drives Unlimited Unlimited Unlimited Unlimited Unlimited Unlimited
Synchronous Mirroring (Active-Active High Availability)
Remote Replication (Active-Passive)
Automatic Failover
Failback with Fast Synchronization
Disk Bridge
SPTI
Image File
IPSec, CHAP, ACL, iSNS
CDP / Snapshots
Thin Provisioning
High Speed Caching
Event Log
Event notifications
Deduplication
*VM Backup Option $399.00* $399.00* $399.00* $399.00* $399.00* $399.00*

Стоимость VM Backup Option указана за физический сервер ESX или Hyper-V, виртуальные машины которого вы планируете бэкапить. При этом неважно количество процессоров и ВМ на данном сервере.


Таги: StarWind, Enterprise, Licensing, Storage, iSCSI, VMware, Microsoft, vSphere, ESX, ESXi, Hyper-V

Особенности работы миграции ВМ по нескольким сетевым адаптерам - VMware vSphere 5 Multi NIC vMotion.


Как знают многие пользователи VMware, в новой версии платформы VMware vSphere 5 появилась возможность производить "горячую" миграцию виртуальных машин между хостами ESXi сразу по нескольким физическим сетевым адаптерам (Multi NIC vMotion). Опишем кратко особенности использования данной технологии.

При миграции ВМ в vSphere 5 есть следующие особенности:

  • Поддержка до четырех одновременных миграций на адаптерах 1Gbps и до 8 одновременных миграций по 10Gbps сетевым адаптерам.
  • Поддержка на хосте ESXi до 4 адаптеров 10Gbps и до 16 адаптеров 1Gbps.
  • Миграция одной виртуальной машины vMotion может идти сразу по нескольким сетевым адаптерам (между ними просиходит балансировка нагрузки)
  • В целом, vMotion стала работать быстрее (в подавляющем большинстве случаев, время переключения - не более 1 секунды)
  • Логи ошибок vMotion стали богаче и информативнее

Миграция vMotion по нескольким сетевым адаптерам - это комплексный процесс, поскольку vSphere приходится обрабатывать различные комбинации из 1 GbE и 10 GbE адаптеров на хостах.

Перед началом vMotion сервер vCenter анализирует сетевые адаптеры на хостах VMware ESX / ESXi и определяет суммарную пропускную способность, которая доступна для миграции. Например, если у хоста 2 адаптера 1GbE и 1 адаптер 10GbE, тогда пул хоста считается равным 12 GbE. Емкость пула определяется как на исходном, так и на целевом хосте.

Далее есть несколько аспектов работы vMotion:

  • Если исходный и целевой хосты имеют адаптеры 1GbE NIC, то между ними настраивается одно соединение для vMotion.
  • Если исходный хост имеет 3 адаптера 1GbE NIC, а целевой хост имеет 1 адаптер 10GbE, то с исходного хоста к целевому, в его адаптер, открывается 3 параллельно работающих соединения (сокета vMotion).
  • Если исходный хост имеет 15 адаптеров 1GbE, а целевой - 1 адаптер 10GbE и 5 адаптеров 1GbE, то первые 10 адаптеров исходного хоста соединяются с одним 10GbE-адаптером целевого, а дальше 5 адаптеров 1GbE соединяются на исходном и целевом хостах между собой. Таким образом, для миграций (одной или нескольких) открыто суммарно 15 соединений.
  • Ну и, само собой, если на исходном хосте 2 адаптера 1GbE, а на целевом только один такой адаптер, то будет открыто только одно соединение 1GbE.

При всех этих моментах нужно помнить про ограничения из первого списка. Ну и напоследок видео про настройку vMotion по нескольким сетевым адаптерам:

И еще одно видео с комментариями EMC:


Таги: VMware, vSphere, vMotion, Video, ESXi, vNetwork, vMachines, Blogs

Выпуск полной версии VMware vSphere 5 Reference Card.


Наконец-то Forbes Guthrie выпустил самую известную "шпаргалку" по администрированию платформы VMware vSphere 5 - Reference Card. На этом плакате A4 из двух страниц собраны самые нужные команды и теоретическая информация для администраторов VMware, касающаяся хостов ESXi, сервера управления vCenter, виртуальных машин, хранилищ, сетей и т.п.:

Этот документ может оказаться очень полезным при подготовке к экзамену на сертификацию VMware Certified Professional 5 (VCP5). Кстати о VCP5 - для тех, кто имеет сертификат VCP4, осталось совсем немного времени для сдачи экзамена без прохождения курса VMware vSphere: What's New [V5.0] (за немалые деньги, кстати). А именно - сдать нужно до 29 февраля.


Таги: VMware, vSphere, Обучение, Certification, ESXi, Blogs

Самые новые Advanced Options для VMware HA в vSphere 5.0 и других версий.


В данной статье объединены все общедоступные на сегодняшний день расширенные настройки кластера VMware HA (с учетом нововведений механизма) для обеспечения высокой доступности сервисов в виртуальных машинах VMware vSphere 5.0 и более ранних версий. Отказоустойчивость достигается двумя способами: средствами VMware HA на уровне хостов ESXi (на случай отказов оборудования или гипервизора) и средствами VMware VM Monitoring (зависание гостевой операционной системы).

На каждом хосте службой VMware HA устанавливается агент Fault Domain Manager (FDM), который пришел на смену агентам Legato AAM (Automated Availability Manager). В процессе настройки кластера HA один из агентов выбирается как Master, все остальные выполняют роль Slaves (мастер координирует операции по восстановлению, а в случае его отказа выбирается новый мастер). Теперь больше нет primary/secondary узлов. Одно из существенных изменений VMware HA - это Datastore Heartbeating, механизм, позволяющий мастер-серверу определять состояния хост-серверов VMware ESXi, изолированных от сети, но продолжающих работу с хранилищами.

Задать Advanced Options для VMware HA (иногда их называют Advanced Settings) можно, нажав правой кнопкой на кластер в vSphere Client и далее выбрав пункт "Edit Settings", где уже нужно вводить их как указано на картинке:

Список Advanced Options для VMware HA, действующих только в vSphere 5.0:

  • das.ignoreinsufficienthbdatastore - определяет, будет ли игнорировано сообщение о количестве имеющихся Heartbeat-хранилищ, которое меньше сконфигурированного в настройке das.heartbeatdsperhost (по умолчанию - это 2 хранилища). То есть если Heartbeat-хранилище присутствует только одно - будет выведено следующее сообщение:

    Выставление значения этого параметра в true уберет это предупреждение из vSphere Client.
  • das.heartbeatdsperhost - определяет количество Heartbeat-хранилищ, которое можно регулировать данной настройкой (допустимые значения - от 2 до 5). По умолчанию, данное значение равно 2.
  • das.config.log.maxFileNum - определяет количество лог-файлов, в пределах которого будет происходить их ротация.
  • das.config.log.maxFileSize - максимальный размер лог-файла, задаваемый в байтах.
  • das.config.log.directory - путь для хранения лог-файлов VMware HA. При задании настроек логов следует руководствоваться следующей таблицей (подробнее читайте тут на последних страницах):
  • das.config.fdm.deadIcmpPingInterval - интервал между пингами по протоколу ICMP для определения доступности Slave-хоста ESXi в сети со стороны Master, в случае, если нет коммуникации с FDM-агентом Slave-хоста (используется, чтобы определить - сломался агент FDM или хост вышел из строя). По умолчанию задано значение 10 (секунд).
  • das.config.fdm.icmpPingTimeout - таймаут, который хост (мастер) ожидает перед получением ответа на пинг, при неполучении которого он считает один из хостов недоступным из сети (то есть время, которое он дает для ответа на пинг, после чего начинаются операции по восстановлению ВМ). По умолчанию задано значение 5 (секунд).
  • das.config.fdm.hostTimeout - таймаут, который мастер ожидает после события неполученного хартбита от FDM-агента хоста после чего он определяет является ли хост отказавшим (dead), изолированным (isolated) или в другом сегменте разделенной сети (partitioned). По умолчанию задано значение 10 (секунд). Сами же хартбиты между мастером и slave-хостами посылаются каждую секунду.
  • das.config.fdm.stateLogInterval - частота записи состояния кластера в лог-файл. По умолчанию выставлено в 600 (секунд).
  • das.config.fdm.ft.cleanupTimeout - когда сервер vCenter инициирует запуск Secondary-машины, защищенной с помощью Fault Tolerance, он информирует мастера HA о том, что он начал этот процесс. Далее мастер ждет время, выставленное в этой настройке, и определяет запустилась ли эта виртуальная машина. Если не запустилась - то он самостоятельно инициирует ее повторный запуск. Такая ситуация может произойти, когда во время настройки FT вдруг вышел из строя сервер vCenter. По умолчанию задано значение 900 (секунд).
  • das.config.fdm.storageVmotionCleanupTimeout - когда механизм Storage vMotion перемещает виртуальную машину с/на хосты ESX 4.1 или более ранней версии, может возникнуть конфликт, когда HA считает, что это не хранилище ВМ переместилось, а сама ВМ отказала. Поэтому данная настройка определяет, сколько времени мастеру нужно подождать, чтобы завершилась операция Storage vMotion, перед принятием решения о перезапуске ВМ. См. также нашу заметку тут. По умолчанию задано значение 900 (секунд).
  • das.config.fdm.policy.unknownStateMonitorPeriod - определяет сколько агент мастера ждет отклика от виртуальной машины, перед тем как посчитать ее отказавшей и инициировать процедуру ее перезапуска.
  • das.config.fdm.event.maxMasterEvents - определяет количество событий, которые хранит мастер операций HA.
  • das.config.fdm.event.maxSlaveEvents - определяет количество событий, которые хранят Slave-хосты HA.

Список Advanced Options для VMware HA в vSphere 5.0 и более ранних версиях:

  • das.defaultfailoverhost - сервер VMware ESXi (задается короткое имя), который будет использоваться в первую очередь для запуска виртуальных машин в случае сбоя других ESXi. Если его емкости недостаточно для запуска всех машин – VMware HA будет использовать другие хосты.
  • das.isolationaddress[n] - IP-адрес, который используется для определения события изоляции хостов. По умолчанию, это шлюз (Default Gateway) сервисной консоли. Этот хост должен быть постоянно доступен. Если указано значение n, например, das.isolationaddress2, то адрес также используется на проверку события изоляции. Можно указать до десяти таких адресов (диапазон n от 1 до 10).
  • das.failuredetectioninterval - значение в миллисекундах, которое отражает время, через которое хосты VMware ESX Server обмениваются хартбитами. По умолчанию равно 1000 (1 секунда).
  • das.usedefaultisolationaddress - значение-флаг (true или false, по умолчанию - true), которое говорит о том, использовать ли Default Gateway как isolation address (хост, по которому определяется событие изоляции). Параметр необходимо выставить в значение false, если вы планируете использовать несколько isolation-адресов от das.isolationaddress1 до das.isolationaddress10, чтобы исключить шлюз из хостов, по которым определяется событие изоляции.
  • das.powerOffonIsolation - значение флаг (true или false), используемое для перекрытия настройки isolation response. Если установлено как true, то действие «Power Off» - активно, если как false - активно действие «Leave powered On». Неизвестно, работает ли в vSphere 5.0, но в более ранних версиях работало.
  • das.vmMemoryMinMB - значение в мегабайтах, используемое для механизма admission control для определения размера слота. При увеличении данного значения VMware HA резервирует больше памяти на хостах ESX на случай сбоя. По умолчанию, значение равно 256 МБ.
  • das.vmCpuMinMHz - значение в мегагерцах, используемое для механизма admission control для определения размера слота. При увеличении данного значения VMware HA резервирует больше ресурсов процессора на хостах ESX на случай сбоя. По умолчанию, значение равно 256 МГц (vSphere 4.1) и 32 МГц (vSphere 5).
  • das.conservativeCpuSlot - значение-флаг (true или false), определяющее как VMware HA будет рассчитывать размер слота, влияющего на admission control. По умолчанию установлен параметр false, позволяющий менее жестко подходить к расчетам. Если установлено в значение true – механизм будет работать как в VirtualCenter 2.5.0 и VirtualCenter 2.5.0 Update 1. Неизвестно, осталась ли эта настройка актуальной для vSphere 5.0.
  • das.allowVmotionNetworks - значение-флаг, позволяющее или не позволяющее использовать физический адаптер, по которому идет трафик VMotion (VMkernel + VMotion Enabled), для прохождения хартбитов.Используется только для VMware ESXi. По умолчанию этот параметр равен false, и сети VMotion для хартбитов не используются. Если установлен в значение true – VMware HA использует группу портов VMkernel с включенной опцией VMotion.
  • das.allowNetwork[n] – имя интерфейса сервисной консоли (например, ServiceConsole2), который будет использоваться для обмена хартбитами. n – номер, который отражает в каком порядке это будет происходить. Важно! - не ошибитесь, НЕ пишите das.allowNetworkS.
  • das.isolationShutdownTimeout - значение в секундах, которое используется как таймаут перед срабатыванием насильственного выключения виртуальной машины (power off), если не сработало мягкое выключение из гостевой ОС (shutdown). В случае выставления isolation response как shutdown, VMware HA пытается выключить ее таким образом в течение 300 секунд (значение по умолчанию). Обратите внимание, что значение в секундах, а не в миллисекундах.
  • das.ignoreRedundantNetWarning - значение-флаг (true или false, по умолчанию false), который при установке в значение false отключает нотификацию об отсутствии избыточности в сети управления («Host xxx currently has no management network redundancy»). По умолчанию установлено в значение false.

Настройки VM Monitoring для VMware HA платформы vSphere 5.0 и более ранних версий:

  • das.vmFailoverEnabled - значение-флаг (true или false). Если установлен в значение true – механизм VMFM включен, если false – выключен. По умолчанию установлено значение false.
  • das.FailureInterval - значение в секундах, после которого виртуальная машина считается зависшей и перезагружается, если в течение этого времени не получено хартбитов. По умолчанию установлено значение 30.
  • das.minUptime - значение в секундах, отражающее время, которое дается на загрузку виртуальной машины и инициализацию VMware Tools для обмена хартбитами. По умолчанию установлено значение 120.
  • das.maxFailures - максимальное число автоматических перезагрузок из-за неполучения хартбитов, допустимое за время, указанное в параметре das.maxFailureWindow. Если значение das.maxFailureWindow равно «-1», то das.maxFailures означает абсолютное число отказов или зависаний ОС, после которого автоматические перезагрузки виртуальной машины прекращаются, и отключается VMFM. По умолчанию равно 3.
  • das.maxFailureWindow - значение, отражающее время в секундах, в течение которого рассматривается значение параметра das.maxFailures. По умолчанию равно «-1». Например, установив значение 86400, мы получим, что за сутки (86400 секунд) может произойти 3 перезапуска виртуальной машины по инициативе VMFM. Если перезагрузок будет больше, VMFM отключится. Значение параметра das.maxFailureWindow может быть также равно «-1». В этом случае время рассмотрения числа отказов для отключения VMFM – не ограничено.

Настройки, которые больше не действуют в vSphere 5.0:

  • das.failuredetectiontime

Работает только в vSphere 4.1 и более ранних версиях (см. ниже).

Раньше была настройка das.failuredetectiontime - это значение в миллисекундах, которое отражает время, через которое VMware HA признает хост изолированным, если он не получает хартбитов (heartbeats) от других хостов и isolation address недоступен. После этого срабатывает действие isolation response, которое выставляется в параметрах кластера в целом, либо для конкретной виртуальной машины. По умолчанию, значение равно 15000 (15 секунд). Рекомендуется увеличить это время до 60000 (60 секунд), если с настройками по умолчанию возникают проблемы в работе VMware HA. Если у вас 2 интерфейса обмена хартбитами - можно оставить 15 секунд.

В VMware vSphere 5, в связи с тем, что алгоритм HA был полностью переписан, настройка das.failuredetectiontime для кластера больше не акутальна.

Теперь все работает следующим образом (см. также новые das-параметры, которые были описаны выше).

Наступление изоляции хост-сервера ESXi, не являющегося Master (т.е. Slave):

  • Время T0 – обнаружение изоляции хоста (slave).
  • T0+10 сек – Slave переходит в состояние "election state" (выбирает "сам себя").
  • T0+25 сек – Slave сам себя назначает мастером.
  • T0+25 сек – Slave пингует адрес, указанный в "isolation addresses" (по умолчанию, это Default Gateway).
  • T0+30 сек – Slave объявляет себя изолированным и вызывает действие isolation response, указанное в настройках кластера.

Наступление изоляции хост-сервера ESXi, являющегося Master:

  • T0 – обнаружение изоляции хоста (master).
  • T0 – Master пингует адрес, указанный в "isolation addresses" (по умолчанию, это Default Gateway).
  • T0+5 сек – Master объявляет себя изолированным и вызывает действие isolation response, указанное в настройках кластера.

Как мы видим, алгоритм для мастера несколько другой, чтобы при его изоляции остальные хосты ESXi смогли быстрее начать выборы и выбрать нового мастера. После падения мастера, новый выбранный мастер управляет операциями по восстановлению ВМ изолированного хоста. Если упал Slave - то, понятное дело, восстановлением его ВМ управляет старый мастер. И да, помним, что машины будут восстанавливаться, только если в Isolation Responce стоит Shutdown или Power Off, чтобы хост мог их погасить.

  • das.bypassNetCompatCheck

Работает только в vSphere 4.1 и более ранних версиях (см. ниже).

Это значение-флаг (true или false, по умолчанию false), который будучи установлен в значение true позволяет обойти дополнительную проверку на совместимость с HA. В VirtualCenter Update 2 была введена проверка на совместимость подсетей, по которым ходят хартбиты. Возникала ошибка: «HA agent on in cluster in has an error Incompatible HA Network: Consider using the Advanced Cluster Settings das.allowNetwork to control network usage». Теперь, если сети считаются несовместимыми с точки зрения HA, однако маршрутизируемыми – новая опция поможет осуществить корректную настройку кластера.


Таги: VMware, HA, FDM, VMachines, ESXi, Обучение, vSphere

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Veeam Broadcom Offtopic Microsoft Cloud StarWind VMachines NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V NSX AI Chargeback Aria VCP Intel Community Ransomware Stretched Backup Private AI vDefend VCF Workstation Network vSAN Tanzu VMUG HCX VCPP Labs Explore Data Protection ONE Live Recovery V2V DPU Update EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint Orchestrator ML Director Memory SIOC Troubleshooting Bugs ESA Android Python Upgrade Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Ports Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2025, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge