Новости Статьи VMware Veeam StarWind vStack Microsoft Nakivo Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6340 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Как менялся размер гипервизора ESXi - от версии 3.5 до 6.0.


Florian Grehl в своем блоге провел интересное исследование размера гипервизора ESXi от версии 3.5, вышедшей 7 лет назад, до ESXi 6.0, вошедшей в состав VMware vSphere 6.0 совсем недавно.

Итак, размеры мажорных версий гипервизора ESXi:

  • ESXi 3.5 – 46,01 MB
  • ESXi 4.0 – 59,99 MB
  • ESXi 4.1 – 85,19 MB
  • ESXi 5.0 – 132,75 MB
  • ESXi 5.1 – 125,85 MB
  • ESXi 5.5 – 151,98 MB
  • ESXi 6.0 – 154,90 MB

Как мы видим, за 7 лет размер вырос не катастрофически - всего в три раза. Посмотрите на продукты других вендоров и поймете, что это не так уж и много.

На диаграмме:

Как автор вычислял размер гипервизора? Он сравнил размер следующих пакетов, содержащих в себе компоненты ESXi:

  • Пакет "image" в ESXi 3.5
  • Пакет "firmware" в ESXi 4.x
  • VIB-пакет "esx-base" в ESXi 5.x и 6.x

Табличка размеров гипервизора для всех версий (не только мажорных):

ESXi Size
4.0 57,80 MB
4.0 U1 58,82 MB
4.0 U2 59,11 MB
4.0 U3 59,72 MB
4.0 U4 59,97 MB
4.0 LATEST 59,99 MB
4.1 85,45 MB
4.1 U1 85,89 MB
4.1 U2 85,25 MB
4.1 U3 85,27 MB
4.1 LATEST 85,19 MB
5.0 133,64 MB
5.0 U1 132,32 MB
5.0 U2 132,27 MB
5.0 U3 132,56 MB
5.0 LATEST 132,75 MB
5.1 124,60 MB
5.1 U1 124,88 MB
5.1 U2 125,67 MB
5.1 U3 125,85 MB
5.1 LATEST 125,85 MB
5.5 151,52 MB
5.5 U1 152,24 MB
5.5 U2 151,71 MB
5.5 LATEST 151,98 MB
6.0 154,90 MB

Но почему ISO-образ ESXi 6.0 занимает 344 МБ, а не 155 МБ? Потому что есть еще пакет VMware Tools для различных гостевых ОС (а их поддерживается очень много) плюс драйверы устройств серверов.

Получается вот так:

Package Size
Hypervisor 155 MB (45%)
Drivers 11 MB (3%)
VMware Tools Images 179 MB (52%)

Или картинкой:


Таги: VMware, ESXi, Blogs, vSphere

Некоторые заблуждения относительно новой версии VMware vSphere 6.0.


В последнее время мы много пишем о новой версии платформы виртуализации VMware vSphere 6.0, о которой большинство блоггеров писало еще со времени выпуска бета-версии. Как раз по этой причине в сети размещено много статей, относящихся к бете и ее возможностям, что иногда не соответствует параметрам и функционалу релизной версии. Попробуем в этой статье внести определенность в некоторые из этих вещей.

Итак, что есть на самом деле в VMware vSphere 6:

  • Первая ошибка была в документе vSphere 6.0 What's New - там было указано, что в кластере может быть до 6000 виртуальных машин. На самом деле их может быть до 8000.
  • Если раньше толстым клиентом vSphere Client (C#) можно было соединяться только с хостами ESXi, то в релизной версии можно коннектиться и к vCenter Server. Однако помните, что функции, которые появились, начиная с версии vSphere 5.5, доступны только в тонком клиенте vSphere Web Client. Толстым клиентом можно редактировать функции доступные до Virtual Hardware 8 (например, добавить памяти или диск выключенному vCenrer), а вот Virtual Hardware 9, 10 и 11 - уже доступны только для чтения.
  • Fautl Tolerance с несколькими vCPU будет доступна для машин vCenter, но только для некоторых вариантов использования. Информация об этом появится несколько позже.
  • Поддерживаемые БД vCenter для Windows включают в себя Microsoft SQL Server 2008 R2, 2012 и 2014, Oracle 11g и 12c, а также встроенную БД vPostgres. БД vPostgres для Windows имеет ограничение 20 хостов и 200 виртуальных машин. При апгрейдах инфраструктур, где была БД SQL Express, будет установлен vPostgres. vCenter Server Appliance (vCSA) поддерживает встроенную БД vPostgres для 1000 хостов и 10,000 виртуальных машин (то есть, на полноценную конфигурацию). Также для vCSA поддерживаются Oracle 11g и 12c, но их поддержка в скором времени будет прекращена (только для vCSA, само собой).
  • По поводу кластеров vCenter средствами MSCS - да, Cluster Services поддерживаются для vCenter Server 5.5 U3 и 6.0, в дополнение к кластерам БД на бэкэнде.
  • Если для ранних билдов vSphere политику RPO для vSphere Replication можно было понизить до 5 минут, то в релизной версии минимум - 15 минут.
  • По поводу нового компонента Platform Services Controller (PSC), который включает в себя модули Single Sign-On (SSO), Licensing и VMware Certificate Authority (VMCA) - его надо выносить на отдельную машину тогда, когда у вас есть несколько решений, использующих SSO, например vSphere и vRealize Suite. В остальных случаях для малых и средних инфраструктур ставьте вместе с vCenter.
  • В версии vSphere 6.0 все компоненты vSphere Web Client, Inventory Service, Auto-Deploy, Syslog Collector, Network dump collector и некоторые другие ставятся только на один сервер с vCenter Server. Если вы обновляете инфраструктуру vSphere 5.x на 6.x, то конфигурация компонентов будет собрана со всех серверов, где они установлены, но сами компоненты будут поставлены на один сервер.

Таги: VMware, vSphere, vCenter, Обучение, ESXi, Beta, Upgrade, Update

Важная информация по обновлению инфраструктуры на VMware vSphere 6.


Многие из вас уже подумывают об обновлении своей виртуальной инфраструктуры на новую версию платформы VMware vSphere 6 (см. тут о том, стоит ли обновлять). Основное препятствие к обновлению на сегодняшний день - неподдержка средствами резервного копирования новой версии vSphere 6.0 и, в частности: технологии VVols.

Например, компания Veeam, выпускающая продукт номер 1 для резервного копирования виртуальных машин Veeam Backup and Replication, не рекомендует обновляться сейчас и просит подождать до конца апреля, когда будет выпущена версия Veeam Backup & Replication 8.0 Update 2:

Со своей же стороны компания VMware выпустила полезную KB, где перечислены основные моменты по апгрейду компонентов инфраструктуры vSphere 6.0. Поэтому если проблема резервного копирования в ESXi 6.0 вас не пугает - можно стартовать апгрейд, предварительно изучив материалы ниже.

Во-первых, полезная табличка по последовательности обновления компонентов и соответствующая KB:

Продукт Последовательность обновления
vCenter SSO External
1
vRA
2
VCM
2
ITBM
2
vRAS
3
vCD
3
VCNS
4
NSX Manager
4
NSX Controllers
5
View Composer 5
View Connection Server
6
vCenter Server
7
vRO
8
VR
8
VUM
8
vROPs / vCOPs
8
VDP
8
vCenter Hyperic
8
VIN
8
vCC
9
vRLI
9
BDE
9
SRM
9
ESXi
10
VMware
Tools
11
vShield/ NSX Edge
11
vShield App/ NSX LFw
12

vShield Endpoint/ NSX Guest IDS
12
View Agent / Client 12

Во-вторых, надо бы почитать три следующих полезных статьи, так как архитектура сервисов vCenter изменилась (особенно обратите внимание на первую статью):

  • List of recommended topologies for vSphere 6.0.x (2108548)
  • Unable to find the vCenter Server 6.0 Appliance OVA, OVF, ZIP, or VMDK files on the VMware download page (2110730)
  • Upgrading to vCenter Server 6.0 best practices (2109772)

В-третьих, нужно посмотреть статьи о миграции базы данных vCenter:

  • Migrating the vCenter Server database from SQL Express to full SQL Server (1028601)
  • Upgrading to vCenter Server 6.0 without migrating SQL database to vPostgres (2109321)

В-четвертых, необходимо изучить, как происходит работа с сертификатами в vSphere 6.0:

  • Implementing CA signed SSL certificates in vSphere 6.0 (2111219)

В-пятых, посмотрите рекомендации по отдельным продуктам, если они есть в вашей виртуальной инфраструктуре, например:

vCenter Server (Windows):

  • Upgrading to Windows vCenter Server 6.0 causes python.exe to fail (2110912)
  • Installing or Upgrading to vCenter Server 6.0 fails with the error: Incompatible MSSQL version with vCenter Server 6.0 (2111541)

vCenter Server Appliance:

  • Upgrading the vCenter Server Appliance to vSphere 6.0 with embedded Postgres hangs on Starting VMware vCenter Server (2110080)
  • Installing or upgrading vCenter Server Appliance to vSphere 6.0 fails with the error: Error while configuring vSphere Auto Deploy Waiter firstboot. (2110025)

vRealize Automation:

  • Unable to edit a tenant created in vRealize Automation with the vCenter 5.5 SSO after upgrading from vCenter SSO 5.5 to PSC (Platform Services Controller) 6.0 (Windows-based SSO only) (2109719)
  • Reinstalling the VMware vRealize Automation Identity Appliance or vCenter Server SSO makes tenants inaccessible (2081462)

vRealize Operations Manager and vCenter Operations Manager:

  • The vSphere Web Client 6.0 displays an internal error after upgrading to vSphere 6.0 in a pre-5.8.5 vRealize Operations Manager environment (2111224)

В-шестых, открываете VMware vSphere 6.0 Upgrade Guide - и начинайте, чего тянуть. Вся официальная документация по VMware vSphere 6 размещена тут.

Ну и помните, что если у вас небольшая инфраструктура, и вам не жалко потерять исторические данные (производительность, логи, скрипты), то лучше переустановить VMware vSphere и сопутствующие продукты заново. Это позволит избежать ошибок, связанных именно с апгрейдом (такое часто встречалось в прошлых версиях).


Таги: VMware, vSphere, Upgrade, ESXi, vCenter, Обучение, VMachines

Вышло обновление утилиты RVTools 3.7 - новые возможности.


Мы не раз писали об утилите RVTools, которая помогает в вопросах администрирования виртуальной инфраструктуры VMware vSphere (конфигурации и аудит). На днях вышло обновление этого средства - RVTools 3.7.

Автор утверждает, что скачано уже более 400 тысяч копий утилиты. Давайте посмотрим, что там появилось нового:

  • VI SDK поменяно с версии 5.0 на 5.5.
  • Увеличен таймаут при операции получения данных с 10 до 20 минут для окружений с большим числом хостов.
  • Новое поле VM Folder на вкладках vCPU, vMemory, vDisk, vPartition, vNetwork, vFloppy, vCD, vSnapshot и vTools.
  • На вкладке vDisk появилась информация Storage IO Allocation.
  • На вкладке vHost новые поля: service tag (serial #) и строка OEM-производителя.
  • На вкладке vNic новое поле: имя (distributed) virtual switch.
  • На вкладке vMultipath добавлена информация о доступе по нескольким путям.
  • На вкладке vHealth новая проверка: Multipath operational state (состояние доступа по нескольким путям).
  • Еще одна новая проверка vHealth: Virtual machine consolidation needed (машины, для которых нужно консолидировать снапшоты).
  • На вкладке vInfo новые поля: boot options, firmware и Scheduled Hardware Upgrade.
  • На статус-баре появилась дата и время последнего обновления данных.
  • На вкладке vHealth ошибки поиска датасторов видны как предупреждения.
  • Можно экспортировать csv-файлы через интефейс командной строки (как и xls).
  • Можно установить интервал автообновления данных.
  • Все время и дата отформатированы в формате yyyy/mm/dd hh:mm:ss.
  • Папки со временем и датой также создаются в формате yyyy-mm-dd_hh:mm:ss.
  • Bug fix: на вкладке dvPort теперь отображаются все сети.

Скачать RVTools 3.7 можно по этой ссылке. Документация доступна тут. Молодец автор - столько лет прошло, а утилита продолжает обновляться.


Таги: RVTools, Update, VMware, vSphere, VMachines, ESXi

Платформа VMware vSphere 6 доступна для скачивания.


Компания VMware сделала доступной для скачивания новую версию платформы виртуализации VMware vSphere 6.0. Да, продукты ESXi 6.0 и vCenter 6.0 можно устанавливать прямо сейчас:

Новых возможностей VMware vSphere 6.0 так много, что все они не уместятся в одной статье, поэтому приведем тут ссылки на наши заметки с описанием нового функционала платформы:

Вся документация по VMware vSphere 6 доступна по этой ссылке: https://www.vmware.com/support/pubs/vsphere-esxi-vcenter-server-6-pubs.html.

Ссылки на скачивание отдельных продуктов:

В ближайшее время напишем еще что-нибудь интересное про vSphere 6 - stay tuned.


Таги: VMware, vSphere, Update, ESXi, vCenter, vRealize

Поддержка режима vGPU для карт NVIDIA в VMware vSphere 6.


Продолжаем рассказывать о новых возможностях платформы виртуализации VMware vSphere 6, выход которой ожидается в самое ближайшее время. Сегодня мы расскажем о поддержке режима vGPU, который позволяет предоставить ресурсы видеокарты (GPU) напрямую сразу нескольким виртуальным машинам (режим vGPU). Напомним, что эта технология уже довольно давно поддерживается в продуктах Citrix (а также в решении RemoteFX от Microsoft), а ее поддержка в платформах VMware была анонсирована в прошлом году на VMworld 2014.

Технология vGPU от NVIDIA при использовании с продуктами VMware подразумевает использование в качестве платформы VMware vSphere 6, а в качестве средства управления виртуальными ПК - VMware Horizon 6 (для этого выйдет специальное обновление с версией 6.1).

vGPU поддерживается для графических адаптеров NVIDIA GRID K1 и K2, для каждой из которых определены 4 профиля для виртуальных ПК, которые используют ресурсы видеокарты. Вот таблица этих профилей:

Всего есть три типа пользователей:

  • Designer - человек, который использует очень требовательные к графическим ресурсам приложения (не только дизайнеры, но и пользователи CAD-приложений).
  • Power User - человек, использующий подобные приложения время от времени.
  • Knowledge Worker - пользователь со сравнительно небольшой нагрузкой на ресурсы видеокарты.

Важно, что в рамках одного физического GPU видеокарты можно использовать только профили одного типа. Взгляните на картинку - как можно, а как нельзя:

Опишем здесь вкратце процедуру настройки использования vGPU с VMware vSphere 6, которая приведена в vGPU Deployment Guide (документ еще не вышел).

Для настройки vGPU необходимы следующие компоненты:

  • VMware vCenter 6.0
  • VMware ESXi 6.0
  • VMware Horizon View 6.1
  • NVIDIA GRID vGPU Manager

Потребуются также настройки BIOS на серверах (для каждого вендора свои). Вот, например, конфигурация Cisco:

  • CPU Performance: выставить в Enterprise или High Throughput.
  • Energy Performance: выставить в Performance.
  • PCI Configuration: выставить MMCFG BASE в 2 GB и Memory Mapped I/O above 4GB: Disabled.
  • VGA Priority: выставить в Onboard VGA Primary.

Далее нужно развернуть на хостах компонент NVIDIA vGPU Manager, который создает связь между GPU видеокарты и виртуальной машиной. Устанавливается он как обычный VIB-пакет:

[root@ESX60-01:~] esxcli software vib install --no-sig-check -v /vmfs/volumes/ISO/vib/NVIDIA-vgx-VMware-346.27-1OEM.600.0.0.2159203.x86_64.vib
Installation Result:
Message: Operation finished successfully.
Reboot Required: false
VIBs Installed: NVIDIA_bootbank_NVIDIA-vgx-VMware_vSphere_6_Host_Driver_346.27-1OEM.600.0.0.2159203
VIBs Removed:
VIBs Skipped:
[root@IUESX60-01:~] esxcli software vib list | grep -i nvidia
NVIDIA-vgx-VMware_ESXi_6.0_Host_Driver 346.27-1OEM.600.0.0.2159203 NVIDIA VMwareAccepted 2015-02-06

После того, как NVIDIA vGPU Manager настроен на хост-серверах ESXi, нужно подготовить виртуальные машины. Делается это через vSphere Web Client. Выберем аппаратные характеристики ВМ в зависимости от типа рабочей нагрузки:

  • Entry Level Engineer / Design Reviewer: 4GB RAM, 2 vCPU
  • Mid Level Engineer: 8 GB RAM, 2-4 vCPU
  • Advanced Engineer: 16 GB RAM, 4-8 vCPU

Затем в настройках ВМ нужно добавить Shared PCI Device:

Выбираем тип NVIDIA GRID vGPU и профиль в соответствии с таблицей, приведенной в начале статьи:

Обратите внимание, что нужно зарезервировать память для виртуальных машин, иначе их просто нельзя будет запустить. То есть, кнопку "Reserve all memory" нужно нажать обязательно. Кроме того, для машин, использующих vGPU, не поддерживаются такие технологии как vMotion, HA, снапшоты - то есть, машина полностью привязана к хосту ESXi.

После этого в виртуальном ПК можно устанавливать гостевую ОС (поддерживается Windows 7 и более поздние версии). Затем нужно установить NVIDIA GRID driver (после этого неплохо бы сделать из такой машины шаблон для дальнейшего ускоренного развертывания новых десктопов):

Кстати, в диспетчере устройств в гостевой ОС виртуального ПК можно посмотреть на драйвер графического адаптера:

Затем нужно соответствующим образом настроить пул виртуальных ПК в VMware Horizon View. Просто указываем протокол PCoIP и тип 3D-рендера NVIDIA GRID VGPU:

Вот, в принципе, и все. После этого виртуальные машины готовы к работе с vGPU в рамках пула виртуальных ПК.


Таги: VMware, vGPU, vSphere, NVIDIA, ESXi, VMachines, Hardware, VDI

Сжатие данных при передаче (compression) в VMware vSphere Replication 6.0.


Продолжаем рассказывать о новых функциях платформы виртуализации vSphere 6.0 (для этого у нас есть специальная страница). Сегодня у нас на очереди функции сжатия данных в VMware vSphere Replication 6.0. Функция репликации включена во все издания VMware vSphere, начиная с Essentials Plus (то есть, за бортом только Essentials). Кстати, родственная репликации функция резервного копирования VMware Data Protection 6.0 также есть во всех изданиях, начиная с Essentials Plus.

Начнем с того, что vSphere Replication 6.0 полностью совместима с продуктами VMware Virtual SAN 6.0 и vCenter Site Recovery Manager (SRM). Также в vSphere 6.0 появилась функция сжатия данных сетевого трафика при передаче:

Это снижает требования к ширине канала репликации, что особенно актуально при использовании продукта VMware SRM для обеспечения отказоустойчивости на уровне помещений или датацентров. Делается сжатие средствами библиотеки FastLZ, однако сжатие выключено по умолчанию.

При передаче данных репликации пакеты остаются сжатыми до того момента, пока они не отправляются на запись на диск. Но в некоторых случаях, в зависимости от версий ПО и особенностей архитектуры, сжатие может быть не на всем участке пути данных, или его может не быть вовсе. Пример: репликация vSphere 6.0 при соединении с виртуальным модулем vSphere Replication 5.8 - сжатия не будет. Если же, например, данные хоста ESXi 6.0 идут на виртуальный модуль vSphere Replication 6.0, а дальше на хранилище хоста vSphere 5.5, то данные будут разжаты на виртуальном модуле репликации, а дальше пойдут в обычном виде. Отсюда мораль - старайтесь поддерживать актуальные версии своего ПО на всех компонентах инфраструктуры.

В большинстве случаев достигается коэффициент сжатия данных в диапазоне от 1.6 к 1 до 1.8 к 1. Это приводит к уменьшению времени синхронизации и возможности настройки более строгой политики RPO.

Примеры:

1. ВМ с гостевой ОС Windows и диском в 37.5 ГБ при первой репликации без компрессии синхронизируется за 52 минуты. Когда включили компрессию, 20.2 ГБ данных отреплицировалось за 29 минут. Таким образом, эффективное использование канала выросло с 98 Mbps до 177 Mbps.

2. ВМ с гостевой ОС Linux и 4.7 ГБ данных при первичной репликации синхронизировались за 13 минут. После включения компрессии 2,8 ГБ ушли за 8 минут. Эффективное уменьшение ширины канала - с 49 Mbps до 80 Mbps.

Из минусов - компрессия создает нагрузку на процессор, поэтому нужно ее использовать аккуратно, и потому она отключена по умолчанию. Больше информации о технологии репликации от VMware можно найти в документе "VMware vSphere Replication 6.0 Technical Overview".


Таги: VMware, vSphere, Replication, Update, DR, ESXi

Transparent Page Sharing в VMware vSphere 6.0: разламывание больших страниц памяти.


Мы уже немало писали про технологию Transparent Page Sharing (TPS) в VMware vSphere, которая позволяет дедуплицировать страницы оперативной памяти на хост-сервере ESXi при недостатке физической памяти для виртуальных машин. Как мы уже писали тут и тут, в VMware vSphere 5.5 Update 3 и более поздних версиях технология TPS отключена (при дедупликации страниц между машинами), чтобы не нагружать хост понапрасну, поскольку в современных ОС используются большие страницы памяти (Large Memory Pages), вероятность дедупликации которых мала. В то же время, технологию TPS никто из vSphere не убирал, и ее можно в любой момент включить.

Как пишет знаменитый Дункан, В VMware vSphere 5.x есть 4 состояния памяти для хост-сервера относительно параметра minFree:

  • High (100% от minFree)
  • Soft (64% от minFree)
  • Hard (32% от minFree)
  • Low (16% от minFree)

Эти состояния определяют срабатывание определенных триггеров (об этом ниже). Например, если minFree для вашей конфигурации сервера равно 10 ГБ, то при переходе в состояние, когда занято 6,4 ГБ (Soft), произойдет определенное действие с точки зрения техник оптимизации памяти.

В то же время, триггеры не срабатывают жестко по этим пороговым значениям, а плавно включаются перед ними и плавно выключаются за ними, чтобы не вызвать резких изменений.

Например, при переходе из состояния High в Soft, большие страницы памяти "разламываются" на обычные, чтобы TPS мог их тут же дедуплицировать. Однако, это может сказаться не лучшим образом на производительности - у хоста и так возникает недостаток памяти, а тут еще его нагружают дедупликацией.

Поэтому в VMware vSphere 6.0 ввели новое состояние Clear (100% от minFree), а состояние High переопределили до значения 400% от minFree. Для чего это сделано? А вот для чего.

При недостатке памяти, хостом ESXi используется техника разламывания больших страниц памяти на обычные страницы, которые затем могут быть дедуплицированы с помощью TPS. Это делается затем, чтобы предотвратить свопирование страниц на диск, что является самым тормозным способом освобождения ресурсов. Так вот эта штука начинает активно работать при наличии свободной памяти в промежутке от High (400%) до Clear (100%), чтобы начать работать на еще не испытывающем острого недостатка ресурсов хосте. Но при этом TPS сразу не запускается.

Давайте посмотрим на таблицу:

Состояние памяти (State) Пороговое значение (% от minFree) Эффект при переходе в диапазон
High 400% Большие страницы разламываются на обычные, но TPS не запускается и ждет следующего цикла прохода дедупликации (по умолчанию 60 минут, минимально настраиваемое в расширенном параметре Mem.ShareScanTime время равно 10 минут)
Clear 100% Разламывание больших страниц и мгновенный запуск TPS
Soft 64% Включение TPS и техники Memory Ballooning
Hard 32% Включение TPS, Memory Compression и свопирования на диск
Low 16% Memory Compression + свопирование на диск + блокировка использования памяти

Это красивое решение - начать разламывать страницы заранее и не нагружать теряющий свободную память хост.

Но все что касается TPS, актуально только тогда, когда TPS включено. По умолчанию же эта техника выключена, а о том, как включить ее, написано вот тут.


Таги: VMware, vSphere, Memory, Performance, Обучение, ESXi

Возможность пощелкать компоненты VMware vSphere 6 уже сейчас - новые Feature Walkthroughs.


Как все из вас знают, скоро выходит обновленная платформа виртуализации VMware vSphere 6, в которой появилась уйма новых возможностей. О многих из них мы уже писали (см, например, нашу последнюю заметку тут). На днях компания VMware сделала еще одну полезную вещь - выложила пошаговые гайды по некоторым компонентам vSphere 6 на сайте VMware Feature Walkthroughs.

Напомним, что про эти гайды мы уже писали тут и тут. Эти штуки позволяют в интерактивном режиме пройти по шагам конфигурации различных продуктов в интерфейсе соответствующего решения. То есть, все так же, как вы будете нажимать в vSphere Web Client:

Какие гайды доступны уже сейчас:

  • vCenter Server Install - установка компонентов vCenter 6.0. Напомним, что о новых функциях в vCenter мы писали вот тут.
  • vCenter Server Upgrades - процесс обновления со старых версий vCenter Server, включая 5.x, до версии vCenter 6.0.
  • vSphere Data Protection – набор пошаговых гайдов, позволяющих пройти весь процесс резервного копирования виртуальных машин. О новых возможностях VDP 6.0 мы также писали вот тут.
  • vSphere Replication – эти гайды позволят вам самостоятельно настроить репликацию и попробовать повосстанавливать виртуальные машины из реплик.

В ближайшее время ожидаются новые Feature Walkthrough - следите за обновлениями!


Таги: VMware, vSphere, Update, Обучение, ESXi, vCenter, VDP

VMware vSphere Virtual Volumes (vVOLs) - что это такое и чем отличается от VAAI.


Продолжаем рассказывать о возможностях новой версии серверной платформы виртуализации VMware vSphere 6, выход которой ожидается в ближайшее время. Напомним наши последние посты на эту тему:

Сегодня у нас на очереди одна из самых интересных тем в vSphere 6 - технология организации хранилищ VMware vSphere Virtual Volumes (VVOls). Напомним, что ранее мы подробно писали о ней тут. С тех пор появилось некоторое количество новой информации, которую мы постараемся актуализировать и дополнить в этом посте.

Начнем с того, что vVOL - это низкоуровневое хранилище для виртуальных машин, с которым позволены операции на уровне массива по аналогии с теми, которые сегодня доступны для традиционных LUN - например, снапшоты дискового уровня, репликация и прочее. vVOLs - это новый способ организации хранилищ в виде удобном для массива, когда используется не традиционная файловая система VMFS, а массив сам определяет, каким образом решать задачи доступа и организации работы с данными для виртуальных машин.

Тома vVOLs создаются на дисковом массиве при обращении платформы к новой виртуальной машине (создание, клонирование или снапшот). Для каждой виртуальной машины и ее файлов, которые вы сейчас видите в папке с ВМ, создается отдельный vVOL. В итоге же, создаются следующие тома на хранилище:

  • 1 config vVOL создается для метаданных ВМ, он включает в себя конфигурационный файл .vmx, дескрипторные vmdk для виртуальных дисков, лог-файлы и прочие вспомогательные файлы.
  • 1 vVOL создается для каждого виртуального диска .VMDK.
  • 1 vVOL создается для файла подкачки, если это требуется.
  • 1 vVOL создается для каждого снапшота и для каждого снимка оперативной памяти.

Дополнительные тома vVOL могут быть созданы для клонов или реплик виртуальной машины.

Давайте посмотрим на архитектуру VVols:

Здесь мы видим следующие компоненты:

Storage Provider (SP)

Технология vVOLs при взаимодействии с аппаратным хранилищем реализуется компонентом Storage Provider (SP), который также называется VASA Provider (подробнее об интерфейсе VASA - тут). Storage provider - это предоставляемый вендором аппаратного обеспечения слой ПО, который обеспечивает взаимодействие платформы vSphere и, собственно, хранилища с организованными на нем томами vVOLs в виде контейнеров (storage containers). vVOLs используют механизм VASA 2.0, который позволяет управлять объектами виртуальных машин (дискми) прямо на хранилище.  

Protocol EndPoint (PE)

Если раньше каждый хост налаживал в случае необходимости соединение с каждым из vmdk-дисков виртуальных машин и получалось куча связей, то теперь у хранилища есть логическое I/O-устройство, через которое происходит общение с томами vVOL. PE можно считать сущностью, пришедшей на замену LUN, этих PE может быть создано сколько угодно (кстати, длина очереди у PE - 128 по умолчанию, вместо 32 у LUN).

То есть, через PE хост ESXi получает доступ к данным конкретной виртуальной машины. PE совместимы с существующими протоколами  FC, iSCSI и NFS и позволяют использовать уже имеющееся ПО для управления путями в SAN. К отдельному PE через vCenter можно привязать или отвязать тома vVOL отдельных виртуальных машин. Для хранилища не нужно много PE, одно это логическое устройство может обслуживать сотни и тысячи виртуальных томов vVOL.

Storage Container (SC)

Это логическая сущность, которая нужна для объединения томов vVOL по типам в целях выполнения административных задач. Storage Container создается и управляется на стороне дискового массива и предназначен для логической группировки и изоляции виртуальных машин (например, виртуальные машины отдельного клиента в публичном облаке vCloud).

vVOL Datastore

Это хранилище, которое непосредственно создается из vSphere Client. По-сути, это представление Storage Container (SC) для платформы VMware vSphere. Этот тип датастора можно, например, выбрать при создании виртуальной машины:

С точки зрения администрирования, эти датасторы аналогичны VMFS-томам - вы так же можете просматривать их содержимое и размещать там виртуальные машины. Но для них недоступны операции расширения или апгрейда - они полностью контролируются со стороны дискового массива.

Policy Based Management

Это механизм, который позволяет назначать виртуальным машинам политики, которые определяют ее размещение, а как следствие, и производительность с точки зрения подсистемы ввода-вывода (например, можно задавать необходимые трешхолды по ReadOPs, WriteOPs, ReadLatency и WriteLatency.).

Дисковый массив на базе этих политик позволяет разместить виртуальную машину на нужном хранилище и обеспечить необходимые операции по обеспечению нужного уровня производительности.

По прочтении этого материала возникает вопрос - а чем vVOLs лучше механизма VAAI, который уже давно существует для VMware vSphere? Ответ прост - это замена VAAI, которая позволяет еще больше функций по работе с виртуальными машинами и организации хранилищ переложить на сторону аппаратного обеспечения. В случае невозможности операций с vVOLs будет произведено переключение на использование примитивов VAAI:

Об этом более подробнее вы можете прочитать в статье "vSphere Virtual Volumes Interoperability: VAAI APIs vs VVOLs".

Ну и отметим, что ведущие вендоры аппаратного обеспечения уже приступили к реализации vVOL в своем оборудовании. Например, это уже начинает делать HP:

Этим же занимается и Dell. В ближайшее время мы будем рассказывать о практических аспектах использования vVOLs подробнее.


Таги: VMware, vSphere, vVOL, Update, ESXi, Storage

Как работает SSD кеширование средствами гипервизора в облаке VMware.


Компания VMware еще с выходом VMware vSphere 5.1 объявила о нескольких новых начинаниях в сфере хранения данных виртуальных машин, включая возможность использования распределенного кеш на SSD-накопителях локальных дисков серверов ESXi. Данная технология имела рабочее название vFlash и находилась в стадии Tech Preview, превратившись позднее в полноценную функцию vSphere Flash Read Cache (vFRC) платформы VMware vSphere 5.5. И это вполне рабочий инструмент, который можно использовать в задачах различного уровня.


Таги: IT-Grad, VMware, SSD, Performance, vSphere, ESXi

Новое в VMware vSphere Data Protection 6.0 - теперь почти для всех пользователей vSphere.


Все из вас знают, что недавно компания VMware анонсировала обновленную версию платформы VMware vSphere 6. Ввиду того, что новых функций уж очень много, мы решили разбить описание новых возможностей продуктов серверной линейки на несколько постов. Напомним последние из них:

Сегодня мы поговорим об анонсированной новой версии VMware vSphere Data Protection 6.0 (VDP) - продукте для резервного копирования виртуальных машин на серверах ESXi. Если ранее пользователям предлагалось одно из двух изданий - встроенное в платформу и vSphere Data Protection Advanced (с расширенными функциями), то теперь осталось только одно. Теперь VDP включено во все издания VMware vSphere, кроме самого базового (Essentials). То есть, пользователи vSphere 6.0 Essentials Plus и более старших изданий получат VDP в комплекте. Кстати, продукт vSphere Data Protection Advanced будет недоступен для заказа с 1 марта.

Напомним, что VDP построен на базе решения для резервного копирования и дедупликации EMC Avamar, которое развертывается как готовый виртуальный модуль (Virtual Appliance). ПО работает без агентов, использует функциональность Changed Block Tracking и может восстанавливать не только машины целиком, но и отдельные файлы из бэкапов через браузер. Шестая версия VDP поддерживает до 8 ТБ дедуплицированных данных бэкапов.

Итак, что нового появилось в VDP:

1. Агенты для Microsoft SQL Server, Exchange и SharePoint.

Напомним, что это намного раньше появилось в Veeam Backup and Replication, а теперь VMware "заимствует" функциональность у Veeam. Эти агенты позволяют создавать консистентные копии виртуальных машин с данными приложениями, а также восстанавливать отдельные объекты приложений из бэкапов (например, базу данных или электронное письмо). Агенты поддерживают такие функции, как SQL Server Failover, кластеры AlwaysOn и Exchange Database Availability Groups.

2. В VDP появилась интеграция с хранилищем EMC Data Domain с использованием ПО Data Domain Boost.

Теперь за обработку бэкапов может отвечать Data Domain, а модуль VDP просто отвечать за передачу данных. Данная функция также есть у Veeam.

3. Возможность репликации данных между модулями VDP.

Данные, передаваемые между модулями VDP дедуплицируются, поэтому в канал передаются только уникальные блоки данных. Это может оказаться необходимым при отбрасывании резервных копий на резервные хранилища через WAN. При этом поддерживаются различные топологии репликации данных виртуальных модулей - 1:1, N:1 и 1:N.

4. Сжатие данных для vSphere Replication.

Теперь если вы используете VMware SRM для репликации данных между площадками и восстановления машин после сбоев, то при передаче данных включается технология сжатия данных при передаче (end-to-end network compression).

Типичный коэффициент сжатия данных - от 1.6:1 до 1.8:1. Например, если раньше машина размером 37.5 ГБ передавалась за 52 минуты, то теперь она ужимается до 20.2 ГБ и передается за 29 минут.

5. Улучшенная репликация.

Теперь неаллоцированные регионы данных не гоняются по каналу репликации, что увеличивает ее скорость. Поддерживаются тонкие диски и устройства Virtual SAN.

6. Верификация резервных копий.

Теперь резервные копии VDP можно восстановить на временное хранилище и запустить машины отключенными от сети, чтобы убедиться, что ОС запускается и приложения работают.

7. Поддержка "подмораживания" файловых систем Linux.

Для Windows-систем уже давно есть quiescence-скрипты, которые подмораживают операции с данными ВМ, для которой происходит резервное копирование. Для Linux это появилось в версии VDP 6.0 (функция отключена по умолчанию).

8. Поддержка Storage vMotion и Storage DRS в целевом хранилище.

Ранее при перемещении реплики средствами Storage vMotion требовалась полная ресинхронизация ВМ, а в версии VDP 6.0 перемещение машин между серверами и хранилищами отслеживается, и процесс полной синхронизации не запускается.

Больше подробностей о возможностях vSphere Data Protection 6.0 можно узнать из вот этого документа.


Таги: VMware, VDP, Update, ESXi, vSphere, Backup

Вышли фиксы багов с некорректной обработкой Changed Block Tracking (невосстановимые копии бэкапов) для VMware vSphere 5.x.


Некоторое время назад мы писали про серьезный баг в механизме Changed Block Tracking (CBT), который используют практически все средства для резервного копирования виртуальных машин на уровне хоста ESXi, например, Veeam Backup and Replication.

Суть бага заключалась в том, что при увеличении виртуальных дисков машин с включенной технологией Changed Block Tracking (CBT), если их результирующий размер перешагивает 128 ГБ (а также 256, 512, 1024 и т.д.) - их резервные копии оказываются невалидными и не подлежащими восстановлению.

Проблема была обнаружена в начале ноября прошлого года, но только сейчас компания VMware пофиксила этот баг. Описание проблемы и решений можно найти в KB 2090639.

Патчи можно скачать по следующим ссылкам:

Zip-файлы патчей можно импортировать через VMware Update Manager:

/p>

Напомним, что для решения проблемы без патчей, надо "перещелкнуть" Changed Block Tracking на хосте ESXi (как это сделать - тут и в KB). Старые бэкапы, понятное дело, останутся невалидными. Следующий бэкап после повторного включения CBT всегда будет полным.

Интересно, что для VMware vSphere 4.x никаких патчей на эту тему выпущено не было (Currently, there is no resolution for ESXi 4.x.).

Отметим также, что компания Veeam уже давно выпустила решение этой проблемы. Пользователям Veeam Backup and Replication 8 вообще ничего делать не нужно - там эта проблема уже решена.


Таги: VMware, vSphere, Bug, Bugs, ESXi, Backup, Veeam

vMaxGuide - информация о максимальных конфигурациях VMware vSphere в приложении для Android.


На многим из вас известном сайте VMware Labs появилось интересное мобильное приложение для смартфонов на базе Android - vMaxGuide. Оно позволяет посмотреть информацию о максимальных конфигурациях различных компонентов виртуальной инфраструктуры VMware vSphere.

На данный момент vMaxGuide предоставляет информацию о максимумах для следующих платформ:

  • VMware vSphere 5.5
  • VMware vSphere 5.1
  • VMware vSphere 5.0

Также в сравнениях участвуют различные версии виртуального аппаратного обеспечения (Virtual Hardware). Там где максимумы могут быть достигнуты только при определенных условиях, соответствующие пункты помечены символом "*".

Инсталляция и использование vMaxGuide:

Кстати, эта штучка может быть хорошей шпаргалкой на экзамене по VMware VCP!)


Таги: VMware, vSphere, Labs, ESXi, VMachines

Отключенный Transparent Page Sharing на хосте VMware ESXi - сколько можно сэкономить, если включить его?


Осенью мы писали о том, что компания VMware планирует отключить технологию Transparent Page Sharing (TPS) в новых релизах платформы виртуализации VMware vSphere. Напомним, что TPS - это механизм поиска и удаления дубликатов страниц памяти в целях экономии физического пространства RAM (вместо самой дублирующейся страницы хранится только ссылка на нее).

Технологию TPS было решено прекратить использовать по двум причинам:

  • Использование в современных ОС больших страниц памяти (large memory pages) размером в 2 МБ делает намного менее вероятным появление дубликатов.
  • Использование одной копии страницы памяти несколькими ВМ создает потенциальные проблемы безопасности.

На данный момент статус отключенности TPS по умолчанию на хостах VMware ESXi таков:

  • В ESXi 5.5 U2d, запланированном на первый квартал 2015 года, TPS будет отключен.
  • В ESXi 5.1 U3, выпущенном 4 декабря 2014 года, TPS уже отключен.
  • В ESXi 5.0 U3d, запланированном на первый квартал 2015 года, TPS будет отключен.

Однако не стоит сбрасывать TPS со счетов - возможно, если вы используете старые ОС (Windows 2003) и инфраструктуру VDI на базе старых клиентских ОС, TPS сможет сэкономить вам какое-то количество памяти (если безопасность TPS вас не особенно заботит). Ну и напомним, что TPS отключена только для межмашинного взаимодействия и продолжает работать для внутримашинного.

Для этого в VMware сделали скрипт Host Memory Assessment Tool.ps1, который показывает количество памяти на хостах, которую можно сэкономить с помощью TPS.

Вот что он делает:

  • Соединяется с vCenter и определяет хосты ESXi
  • Позволяет включить SSH на хостах
  • Генерирует отчет об обследовании на экономию по TPS
  • Можно экспортировать результаты в CSV
  • Можно снова включить SSH, если нужно

Пока скрипт позволяет указать только одну пару логин-пароль на хостах ESXi, но надеемся это будет исправлено в следующих версиях.

Здесь вот какие значения в колонках:

  • Total Host Memory – объем физической памяти хоста (доступной vmkernel).
  • Host Mem Saved via TPS – объем памяти, которая сэкономлена TPS.
  • Host Mem Saved via TPS Zero Pages – объем памяти, которая экономится на нулевых страницах. Фактически такая экономия не актуальна для большинства случаев, так как сэкономленные нули означают, что недостатка ресурсов не наблюдается.
  • Potential Host Mem Savings Lost – а вот эта экономия уже на реально используемых страницах. Объем, указанный тут, показывает сколько можно потерять, отключив TPS на хосте.
  • Host Free Mem – объем свободной оперативной памяти (по данным vmkernel). Если свободной памяти меньше, чем значение в предыдущей колонке, то при отключении TPS будет своппинг.

Вот такая штука, можно проводить эксперименты (особенно полезно это будет для крупной инфраструктуры). Скрипт безопасен для памяти хостов, так как использует режим доступа к памяти только для чтения.

После запуска скрипта вам может потребоваться отключить или включить Transparent Page Sharing на хосте ESXi. В этом случае вам пригодится KB 2097593.


Таги: VMware, TPS, Memory, ESXi, vSphere

Как создать задачу крон (планировщика) в VMware vSphere Management Assistant (vMA).


Как знают многие администраторы VMware vSphere, есть такое удобное средство vSphere Management Assistant (vMA), которое представляет собой виртуальный модуль (готовую виртуальную машину), средствами которой очень удобно управлять скриптами, исполняемыми на нескольких хостах VMware ESXi через интерфейс ESXCLI или Perl.

При выполнении различных сценариев на Linux-машине vMA иногда требуется создать задачу планировщика (крон-таску), чтобы запустить скрипт в назначенное время. Ниже мы опишем, как это нужно делать.

1. Чтобы запускать скрипты без аутентификации, нужно добавить хосты ESXi в vi-fastpass. Вы можете добавить только хосты ESXi, либо хост vCenter Server (или всех их). Используйте команду vifp addserver в интерактивном режиме (конфигурация сохраняется при перезагрузках):

vi-admin@vma:~> vifp addserver esx1.virten.local --username root --password 'vmware'
vi-admin@vma:~> vifp addserver esx2.virten.local --username root --password 'vmware'
vi-admin@vma:~> vifp addserver esx3.virten.local --username root --password 'vmware'
vi-admin@vma:~> vifp addserver vcsa.virten.local --username root --password 'vmware'

Используйте команду vifp listservers для того, чтобы посмотреть список сконфигурированных хостов для быстрого доступа:

vi-admin@vma:~> vifp listservers
esx1.virten.local ESXi
esx2.virten.local ESXi
esx3.virten.local ESXi
vcsa.virten.local vCenter

2. Используйте механизм vi-fastpass внутри скрипта. Это делается вот так (сценарий размещайте, где написано #do something):

#!/usr/bin/perl -w

use VMware::VIRuntime;
use VMware::VmaTargetLib;

my $service_content;
my @targets = VmaTargetLib::enumerate_targets();
foreach my $target(@targets) {
$target->login();
$service_content = Vim::get_service_content();
#do something
$target->logout();
}

Также примеры скриптов можно найти в папке /opt/vmware/vma/samples/perl:

vi-admin@vma:~> ls -l /opt/vmware/vma/samples/perl
total 24
-r--r--r-- 1 root root 2660 Jul 15 2013 README
-r-xr-xr-x 1 root root 9023 Jul 15 2013 bulkAddServers.pl
-r-xr-xr-x 1 root root 1282 Jul 15 2013 listTargets.pl
-r-xr-xr-x 1 root root 2452 Jul 15 2013 mcli.pl

Для примера также посмотрите скрипты отсюда (можете на них и поэкспериментировать, например, с esxcfg-perf.pl).

3. Создаем таску в кроне (cron job).

Синтаксис команды прост:

* * * * * command
| | | | |
| | | | ----- Day of week (0 - 7) (Sunday=0 or 7)
| | | ------- Month (1 - 12)
| | --------- Day of month (1 - 31)
| ----------- Hour (0 - 23)
------------- Minute (0 - 59)

Открываем крон в режиме редактирования:

vi-admin@vma:~> crontab -e

Нажмите <i>, чтобы перейти в режим вставки в crontab, после чего добавьте нужный путь к библиотеке и команду:

LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/vmware/vma/lib64:/opt/vmware/vma/lib
*/5 * * * * /home/vi-admin/scripts/esxi-perf.pl

Затем выходим из режима редактирования, нажав <ESC> : w q <ENTER>

Если при выполнении команды вы получаете вот такую ошибку:

vi-admin@vma:~> crontab -e
-bash: /usr/bin/crontab: Permission denied

То вам нужно предварительно выполнить sudo (юзер vi-admin в vMA 5.5 не имеет пермиссий на crontab):

vi-admin@vma:~> ll /usr/bin/crontab
-rwsr-x--- 1 root trusted 40432 Apr 2 2013 /usr/bin/crontab
vi-admin@vma:~> sudo chmod +rx /usr/bin/crontab
vi-admin@vma:~> ll /usr/bin/crontab
-rwsr-xr-x 1 root trusted 40432 Apr 2 2013 /usr/bin/crontab

4. Если крон-таска упадет, то вывод ошибок будет направляться сюда:

/var/mail/vi-admin

Вывод ошибки может быть таким:

Can’t load ‘/usr/lib/perl5/site_perl/5.10.0/libvmatargetlib_perl.so’ for module vmatargetlib_perl: libtypes.so: cannot open shared object file: No such file or directory at /usr/lib/perl5/5.10.0/x86_64-linux-thread-multi/DynaLoader.pm line 203.
at /usr/lib/perl5/site_perl/5.10.0/VMware/VmaTargetLib.pm line 10
Compilation failed in require at /usr/lib/perl5/site_perl/5.10.0/VMware/VIFPLib.pm line 9.
BEGIN failed–compilation aborted at /usr/lib/perl5/site_perl/5.10.0/VMware/VIFPLib.pm line 9.
Compilation failed in require at /home/vi-admin/graphite/esxi-perf-graphite.pl line 5.
BEGIN failed–compilation aborted at /home/vi-admin/graphite/esxi-perf-graphite.pl line 5.

Это значит вы некорректно добавили путь к библиотеке (/opt/vmware/vma/lib64:/opt/vmware/vma/lib).

Если же вы получаете вот такую ошибку:

“Server version unavailable at ‘https://[host]:443/sdk/vimService.wsdl’ at /usr/lib/perl5/5.10.0/VMware/VICommon.pm line 545.”

Это из-за непрошедшей SSL-аутентификации. Если у вас нет валидных SSL-сертификатов, отключите авторизацию через SSL в вашем скрипте:

# Disable SSL Verification
export PERL_LWP_SSL_VERIFY_HOSTNAME=0


Таги: VMware, vMA, vSphere, Management, VMachines, ESXi

VIBSearch - полезная утилита для поиска VIB-пакетов (и их версий) на VMware ESXi.


Многие администраторы VMware vSphere знают про файлы vSphere Installation Bundle (VIB), которые позволяют распространять программные компоненты для серверов ESXi. Например, с помощью VIB-файлов устанавливаются кастомные драйвера (и куча своих VIB есть для каждого кастомизированного образа, например, HP).

На днях была выпущена утилита VIBSearch, которая может оказаться полезной многим администраторам в вопросах поиска и сравнения версий VIB-пакетов на разных хостах ESXi.

Утилита представляет собой скрипт на PowerShell c GUI, в котором можно ввести параметры доступа vCenter и поискать на серверах ESXi конкретный VIB-пакет (по вхождению строчки в его название).

С чем тестировался скрипт:

  • PowerShell 4.0
  • PowerCLI 5.8 Release 1
  • Для командлета Out-GridView нужен компонент PowerShell ISE. Для его установки нужно использовать следующие команды PowerShell:

Import-Module ServerManager
Add-WindowsFeature PowerShell-ISE

Как запустить VIBSearch:

  • Скачиваем VIBSearch.txt по этой ссылке
  • Переименовываем файл *.txt в *.ps1
  • Открываем PowerShell и выполняем:

Set-ExecutionPolicy unrestricted
./vibsearch.ps1

После запуска скрипта появится вот такое окошко:

Вводим имя vCenter, после чего вводим логин и пароль администратора:

Видим, что успешно соединились:

Если соединимся неуспешно, то будет вот так:

Теперь можно искать пакеты VIB по ключевому слову и смотреть, одна ли версия на разных хостах. Вот, например, пакеты HP-AMS:

А вот сетевая карта Intel (net-igb):

Или вот драйверы NVIDIA:

В общем, кому-то VIBSearch может оказаться полезным. Да и просто интересно, что там на хостах понаставлено.


Таги: VMware, ESXi, vCenter, PowerCLI, PowerShell

Как клонировать виртуальную машину на бесплатном VMware ESXi (vSphere Hypervisor).


Многие пользователи, которые начинают пользоваться средствами виртуализации от VMware, рано или поздно задаются вопросом - как создать копию виртуальной машины (клонировать её) в бесплатной версии VMware ESXi. Если у вас есть коммерческое издание VMware vSphere и сервер управления vCenter, то клонировать ВМ можно просто из контекстного меню машины:

Однако все несколько сложнее, если у вас бесплатная версия VMware ESXi Free (он же vSphere Hypervisor). Тут можно пойти вот какими путями:

1. Использование VMware Converter.

Это средство позволяет вам создать виртуальную машину на целевом хосте (а именно на нашем бесплатном ESXi), установив сам Converter внутрь машины, и создать ее клон как физической системы. При этом в процессе клонирования ("миграции") сохраняется обе системы, а различные настройки, такие как размеры виртуального диска, имя системы и прочее, можно кастомизировать.

2. Использовать софт для резервного копирования и восстановления.

К сожалению, для бесплатного ESXi использовать отличный продукт Veeam Backup and Replication не получится, но есть некоторые продукты, которыми это можно сделать. Например, Trilead VM Explorer и Unitrends.

Сначала создаем резервную копию машины, а потом восстанавливаем ее параллельно с уже существующей ВМ.

3. Можно просто скопировать виртуальную машину и ее диск.

Первый вариант данного способа прост - копируете папку с ВМ (для доступа к файловой системе ESXi можно использовать WinSCP или FastSCP). Далее добавьте ВМ в окружение ESXi файл *.vmx через контекстное меню и пункт "Add to inventory":

Второй вариант - это использование утилиты vmkfstools. Она позволяет клонировать диски виртуальных машин, задавая различные параметры целевого диска. Например, вот эта команда создает клон виртуального диска, но целевой диск будет в thin-формате (то есть растущим по мере наполнения данными):

vmkfstools -i /vmfs/volumes/storage/server1/server1.vmdk /vmfs/volumes/storage/server1_clone/server1_clone.vmdk -d thin

С помощью этой утилиты можно много чего делать, более подробно о ней написано в KB 1028042. Далее создаем новую ВМ и подцепляем к ней полученный виртуальный диск. Не забудьте поменять имя машины и сетевую идентификацию!

Есть еще способ сделать клон ВМ с помощью VMware vSphere Management Assistant (vMA) и vSphere CLI (vCLI) как написано в KB 1027872, но он требует развертывания vMA и не стоит заморочек ради клонирования одной ВМ. Но для регулярного клонирования машин - обязательно изучите эту KB.


Таги: VMware, ESXi, Бесплатно, Обучение, Storage, VMachines

Вышла VMware vSphere 5.1 Update 3 + кастомизированный образ HP.


Для тех из вас, кто по каким-либо причинам еще не обновился на vSphere 5.5, полезная новость - вышло обновление VMware vSphere 5.1 Update 3 (ESXi и vCenter), которое уже доступно для загрузки. Новых возможностей не появилось, зато была добавлена поддержка новых гостевых ОС и исправлены некоторые значимые баги.

Итак, что нового в ESXi и vCenter 5.1 U3:

  • Поддержка новых БД vCenter Server - теперь можно использовать Oracle 12c и Microsoft SQL Server 2014
  • Поддержка новых браузеров для Web Client 5.1 Update 3. Теперь поддерживаются:
    • Internet Explorer 8 / 9 / 10/ 11
    • Firefox 31 / 32 / 33
    • Google Chrome 36 / 37
  • Поддержка новых гостевых ОС. Полный список поддерживаемых ОС можно посмотреть тут.
  • Множественные исправления ошибок. Полный список тут. Самое главное - пофикшен баг с некорректным бэкапом после увеличения дисков.

Ссылки на загрузку :

Кроме того, был также обновлен и кастомизированный образ для серверов HP. Его можно скачать по этой ссылке - ESXi 5.1 Update 3 HP Customized.

Новые возможности кастомизированного образа:

  • Поддержка серверов Gen9 HP ProLiant
  • Утилита HP CONREP Utility, которая позволяет сохранить аппаратную конфигурацию сервера и распространить ее на другие системы
  • Поддержка Smart Array HBA mode
  • Поддержка новых контроллеров HP Smart Array
  • Поддержка новых HP Smart HBA
  • Поддержка памяти DDR4
  • Поддержка технологии SR-IOV (вот тут список поддерживаемых адаптеров и драйверов)

Для VMware vSphere 5.5 тоже на днях вышел небольшой багофикс.


Таги: VMware, vSphere, Update, ESXi, vCenter, HP

Еще одна причина не создавать снапшоты на VMware vSphere - число одновременно запущенных виртуальных машин.


Некоторое время назад мы писали заметку о том, "Почему снапшоты виртуальных машин в VMware vSphere - это плохо", да и вообще часто затрагиваем эту тему.

Ниже мы приведем еще один аргумент в пользу того, чтобы не создавать снапшоты виртуальных машин на постоянной основе (во временном их использовании нет ничего плохого).

Итак, в одной из статей мы писали про расширенную настройку VMFS Heap Size (размер кучи), которая косвенно определяет максимально доступный объем хранилищ на хосте.

Также мы писали о том, что параметр VMFS3.MaxHeapSizeMB еще в VMware vSphere 5.1 был увеличен до 640 МБ.

Однако есть и куча для механизма "Copy-on-Write" (COW), которая определяется расширенной настройкой COW.COWMaxHeapSizeMB - она ограничивает число одновременно запущенных на хосте виртуальных машин. Механизм COW работает на хосте, когда у машины есть снапшоты (дельта-диски).

По умолчанию это значение равно 192 МБ, но может быть увеличено до 256 МБ:

Также этот параметр можно узнать из командной строки:

~ # esxcfg-advcfg -g /COW/COWMaxHeapSizeMB
Value of COWMaxHeapSizeMB is 192

И установить его в максимальное значение:

~ # esxcfg-advcfg -s 256 /COW/COWMaxHeapSizeMB
Value of COWMaxHeapSizeMB is 256MB

Давайте посмотрим, как расходуется пространство этой кучи на хосте, в зависимости от параметров виртуальных машин на нем. Вот тут есть такая интересная формула:

X = (75 / 100 * COW_HEAP_SIZE) / ((B / (2 * 1048576) * 4 * S) * Y)

где:

X - это максимальное число запущенных виртуальных машин на хосте,
COW_HEAP_SIZE - размер кучи в байтах,
B - размер виртуального диска в байтах,
2 * 1048576 - это GDE Coverage (хз, что такое),
4 - это число байт на Root Entry,
S - число снапшотов каждого из виртуальных дисков,
Y - число дисков у машин.

Возьмем для примера машину с 5 дисками размером в 80 ГБ по 6 снапшотов у каждого при максимальном размере кучи в 256 МБ. Получим, что таких машин может быть запущено на хосте:

= (75 / 100 * 268435456) / ((85899345920 / (2 * 1048576) * 4 * 6) * 5)

Это примерно около 40 машин (всего лишь) - при максимально доступном размере кучи на VMware ESXi. Понятно дело, что мало где можно найти машины с 5 дисками, у каждого из которых по 6 снапшотов, но я видел подобные конфигурации пару раз.

Нетрудно понять, как в этой формуле влияют снапшоты на максимальное число запущенных виртуальных машин. Поэтому повторим еще раз: постоянные снапшоты - зло.


Таги: VMware, ESXi, Snapshots, vSphere, Memory

Как получить бесплатную лицензию VMware ESXi 5.5 Free и лицензировать хост.


Как многие из вас знают, у компании VMware есть бесплатный продукт VMware vSphere Hypervisor, который в народе называется VMware ESXi Free. Многие начинающие администраторы, услышав, что ESXi бесплатен, устанавливают его, но забывают накатить лицензию, которую надо скачивать с портала My VMware. Без этого бесплатный VMware ESXi будет работать в режиме пробной версии 60 дней...


Таги: VMware, ESXi, Бесплатно, Обучение, Free, vSphere

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.


Многие администраторы устанавливают VMware Tools с помощью vSphere Client, который предоставляет идущую в дистрибутиве версию этого пакета. Однако не все знают, что VMware Tools можно скачать по прямой ссылке из репозитория VMware, затем положить exe-файл на файловый сервер (если у вас гостевая ОС Windows) и запускать на всех виртуальных машинах.

Последняя версия тулзов всегда находится по этой ссылке:

http://packages.vmware.com/tools/esx/latest/index.html

Для Windows-машин она, соответственно, находится вот тут:

http://packages.vmware.com/tools/esx/latest/windows/index.html

Но эти пакеты доступны только для следующих версий гостевых ОС:

  • Community ENTerprise Operating System (CentOS) - версии с 4.0 по 6.x
  • Red Hat Enterprise Linux версии с 3.0 по 6.x
  • SUSE Linux Enterprise Server версии 9 по 11
  • SUSE Linux Enterprise Desktop версии 10 по 11
  • Ubuntu Linux версии с 8.04 по 12.04

Надо отметить, что доступные в репозитории пакеты содержат компоненты VMware Tools, начиная еще с версий ESX 3.5. Но с версии vSphere 4.1 все они стали обратно совместимы - вы можете скачать последнее обновление VMware Tools и накатить его на любую версию vSphere 4.x или 5.x.

Это подтверждает и матрица совместимости продуктов VMware:

Кроме того, если в списке остутствуют необходимые ОС Linux, то можно воспользоваться пакетом Open VM Tools, которые являются открытой версией VMware Tools и рекомендованы к распространению вендорами платформ. Например, вот тут указано, как нужно ставить Open VM Tools в гостевых ОС RHEL 7.

Сами же репозитории находятся по этой ссылке:

http://packages.vmware.com/packages/index.html


Таги: VMware, Tools, VMachines, Blogs, vSphere, ESXi

Как установить IP-параметры HP iLO через консоль сервера VMware ESXi.


Как установить IP-параметры HP iLO через консоль сервера VMware ESXi.

При развертывании инфраструктуры VMware vSphere на базе серверов HP всегда требуется задать параметры IP-идентификации для интерфейса удаленной консоли iLO. Обычно это делается в настройках сервера, но удобнее сделать это из консоли ESXi, если вы используете кастомизированную сборку ESXi под HP (а ее надо использовать, так как некоторые девайсы могут просто не работать, поскольку в стандартной сборке под них нет драйверов).

Для начала откроем на хосте ESXi доступ по SSH в разделе Security Profile, стартовав соответствующий сервис:

Заходим на хост по SSH и переходим в папку с утилитами HP:

cd /opt/hp/tools

Копируем настройки HP iLO в файл XML:

./hponcfg -w ilo.xml

Далее этот файл нам нужно отредактировать, для этого можно использовать WinSCP или Veeam FastSCP.

Копируем iLO.xml к себе локально:

Открываем его в текстовом редакторе и правим секции, помеченные красным:

<!-- HPONCFG VERSION = "4.0-13.0" -->
<!-- Generated 11/11/2014 23:37:47 -->
<RIBCL VERSION="2.1">
<LOGIN USER_LOGIN="Administrator" PASSWORD="password">
<DIR_INFO MODE="write">
<MOD_DIR_CONFIG>
<DIR_AUTHENTICATION_ENABLED VALUE = "N"/>
<DIR_LOCAL_USER_ACCT VALUE = "Y"/>
<DIR_SERVER_ADDRESS VALUE = ""/>
<DIR_SERVER_PORT VALUE = "636"/>
<DIR_OBJECT_DN VALUE = ""/>
<DIR_OBJECT_PASSWORD VALUE = ""/>
<DIR_USER_CONTEXT_1 VALUE = ""/>
<DIR_USER_CONTEXT_2 VALUE = ""/>
<DIR_USER_CONTEXT_3 VALUE = ""/>
</MOD_DIR_CONFIG>
</DIR_INFO>
<RIB_INFO MODE="write">
<MOD_NETWORK_SETTINGS>
<SPEED_AUTOSELECT VALUE = "Y"/>
<NIC_SPEED VALUE = "100"/>
<FULL_DUPLEX VALUE = "N"/>
<IP_ADDRESS VALUE = "192.168.16.33"/>
<SUBNET_MASK VALUE = "255.255.255.0"/>
<GATEWAY_IP_ADDRESS VALUE = "192.168.16.254"/>
<DNS_NAME VALUE = "ESX01-iLO"/>
<PRIM_DNS_SERVER value = "192.168.16.1"/>
<DHCP_ENABLE VALUE = "N"/>
<DOMAIN_NAME VALUE = "educ.local"/>

<DHCP_GATEWAY VALUE = "Y"/>
<DHCP_DNS_SERVER VALUE = "Y"/>
<DHCP_STATIC_ROUTE VALUE = "Y"/>
<DHCP_WINS_SERVER VALUE = "Y"/>
<REG_WINS_SERVER VALUE = "Y"/>
<PRIM_WINS_SERVER value = "0.0.0.0"/>
<STATIC_ROUTE_1 DEST = "0.0.0.0" GATEWAY = "0.0.0.0"/>
<STATIC_ROUTE_2 DEST = "0.0.0.0" GATEWAY = "0.0.0.0"/>
<STATIC_ROUTE_3 DEST = "0.0.0.0" GATEWAY = "0.0.0.0"/>
</MOD_NETWORK_SETTINGS>
</RIB_INFO>
<USER_INFO MODE="write">
</USER_INFO>
</LOGIN>
</RIBCL>

Копируем измененный файл обратно на хост ESXi (предыдущий сохраните - просто переименуйте) и выполняем команду заливки конфигурации:

./hponcfg -f ILO.xml

Дождитесь успешного выполнения команды - и можно коннектиться к iLO через веб-браузер по новому адресу. Этот способ удобен тем, что можно не перезагружать сервер.


Таги: VMware, ESXi, HP, vSphere, Обучение, Network

Почему резервное копирование одной виртуальной машины VMware vSphere на хранилище Virtual SAN делается медленно?


Многие пользователи VMware Virtual SAN (VSAN), когда проводят тест бэкапа одной виртуальной машины, замечают, что время резервного копирования этой ВМ существенно больше, чем таковое для машины, размещенной на дисковом массиве.

Дункан в своем блоге подробно разбирает эту проблему. Тут дело вот в чем - когда вы используете дисковый массив, то виртуальная машина "размазывается" по дискам RAID-группы, что позволяет читать одновременно с нескольких дисков. Это дает хорошую производительность операции резервного копирования для одной машины.

Кластер же VSAN работает немного по-другому. Это объектное хранилище, в котором виртуальный диск ВМ хранится на одном хосте и его реплика существует на втором. Кроме этого, есть кэш на SSD-диске (но его еще нужно "прогреть"). То есть выглядит все это следующим образом:

Соответственно, при бэкапе одной виртуальной машины данные читаются только с двух HDD-дисков, а не с нескольких как в традиционной архитектуре дисковых массивов, при этом сам кластер VSAN может состоять из нескольких хостов (до 32 узлов). То есть, это архитектурное ограничение.

Однако если мы будем делать одновременный бэкап нескольких виртуальных машин с хранилища Virtual SAN время этой операции уже будет сравнимо с дисковым массивом, поскольку будет задействовано сразу несколько дисков на каждом из хостов, плюс хорошо прогреется кэш. Поэтому проведение такого теста (ведь он ближе к реальным условиям) и было бы более показательным при сравнении Virtual SAN и традиционных хранилищ.

То же самое относится и к VDI-инфраструктуре на базе VSAN - многие пользователи отмечают, что первая фаза операции Recompose (когда создается реплика - полный клон ВМ) отрабатывает весьма медленно. Однако если вы делаете много таких операций - кэш прогревается, и одновременное создание нескольких клонов начинает работать заметно быстрее в расчете на одну машину.


Таги: VMware, Virtual SAN, Backup, VSAN, Performance, Storage, vSphere, ESXi

Как отключить USB-порты на VMware ESXi? Никак. Зато можно проанализировать логи.


Многие пользователи в целях безопасности хотят отключить использование USB-портов на хостах VMware ESXi - а то кто-нибудь зайдет в серверную комнату и утащит данные на диске.

К сожалению, на текущих версиях платформы VMware vSphere сделать этого нельзя. Можно, конечно, отключить USB Arbitrator service следующей командой (как написано вот тут):

/etc/init.d/usbarbitrator stop

Но это лишь отключит проброс USB-устройств в виртуальные машины, при этом само устройство (например,  /dev/usb0101) отключено не будет. Поэтому, тут остается два решения:

  • Отключить USB-устройства в BIOS - но это поддерживают не все производители железа.
  • Мониторить использование локальных USB-устройств и слать алерты менеджеру по ИБ.

Второй вариант можно реализовать с помощью продукта VMware vRealize Log Insight, который позволяет мониторить логи хостов ESXi и слать по ним алерты при их появлении и повторении. Вот, например, в выводе этого лога мы видим, что кто-то подключал USB-девайс к хосту:

Сопоставив время этих событий и время посещения конкретными людьми датацентра, мы поймем, кто пытался или сделал что-то нехорошее. Решение, конечно, не ахти, но какое уж есть.


Таги: VMware, USB, Security, ESXi, vSphere

Как перезапустить виртуальную машину на VMware vSphere, имея только доступ по SSH.


Бывают такие ситуации, когда у вас в руках только мобильный телефон, с которого возникает необходимость перезагрузить виртуальную машину на хосте VMware ESXi. Например, у вас в инфраструктуре что-то случилось, но вы имеете доступ к ней через VPN со своего айфона.

Если у вас есть доступ по SSH, то проблему решить весьма просто, как это описано вот тут (а также в KB 1014165). Скачиваем бесплатное приложение Server Auditor по этой ссылке (если у вас андроид - то по этой).

Далее заходим на свой хост ESXi по SSH и выполняем команду:

esxcli vm process list

Будет выведен список всех процессов виртуальных машин, где нам нужно найти World ID нужной машины. Записываем или запоминаем его.

Далее убиваем виртуальную машину командой (вместо параметра force можно использовать hard и soft для выключения ВМ):

esxcli vm process kill -t force -w WorldID

Выглядит это примерно вот так:

Далее снова выполняем команду esxcli vm process list, чтобы убедиться, что виртуальная машина теперь выключена.

Теперь запоминаем VMID нашей виртуальной машины, который можно получить с помощью команды:

vim-cmd vmsvc/getallvms

Если помните часть имени ВМ, можно искать с помощью grep:

vim-cmd vmsvc/getallvms |grep <текст в имени ВМ>

Найдя VMID, проверяем дополнительно, что она выключена:

vim-cmd vmsvc/power.getstate <vmid>

Теперь включаем виртуальную машину:

vim-cmd vmsvc/power.on <vmid>

Вот и все, потом обязательно нужно проверить, что машина включилась, естественно - сначала в списке процессов, а потом пингом.


Таги: VMware, ESXi, Обучение, vSphere, VMachines, Blogs

Где находятся логи VMware vSphere и других продуктов VMware [ССЫЛКИ].


Ниже приведем ссылки на статьи VMware Knowledge Base (взято отсюда), где можно узнать о расположении и назначении файлов журнала (логов) для различных продуктов, включая компоненты решения VMware vSphere.

vSphere Suite

vCenter Server:

ESX(i):

vSphere Data Recovery:

vSphere Storage Appliance:

Site Recovery Manager

vCloud Suite

vCloud Director:

vShield/vCloud Networking and Security (vCNS):

VMware vCloud Automation Center 6.x:

vCenter Orchestrator:

Desktop Computing

View and Horizon View:

Horizon Mirage (formerly Mirage):

VMware Workstation:


Таги: VMware, Logs, Troubleshooting, vSphere, ESXi, Director

Информация о номерах билдов и датах релиза продуктов VMware.


Часто пользователям требуется информация о том, какому номеру билда соответствует версия продукта от VMware (такое бывает нужно, например, для VMware vSphere / ESXi, vCenter, vCenter Server Appliance). К тому же, иногда бывает полезно узнать, когда вышла та или иная версия продукта.

Поэтому мы взяли из этого поста информацию о продуках, датах релиза и номерах версий, чтобы можно было всегда обращаться к этому посту у нас.

Converter Standalone / Enterprise

Version Release Date Build Number Installer Build Number
Converter Standalone 5.5.2 2014-07-24 1890136 N/A
Converter Standalone 5.5 2013-10.22 1362012 N/A
Converter Standalone 5.1 2013-04-24 1087880 N/A
Converter Standalone 5.0.1 2012-10-25 875114 N/A
Converter Standalone 5.0 2011-08-31 470252 N/A
Converter Standalone 4.3 2010-08-30 292238 N/A
Converter Enterprise 4.2.0 (VC 4.1) 2010-07-13 254483 N/A
Converter Enterprise 4.1.1 (VC 4.0) 2009-05-21 206170 N/A
Converter Standalone 4.0.1 2009-05-21 161434 N/A
Converter Standalone 4.0 2009-02-12 146302 N/A
Converter Standalone 3.0 2008-01-12 89816 N/A

Нажимайте читать далее.


Таги: VMware, vSphere, ESXi, vCenter, Converter, Enterprise

Вышло обновление VMware vSphere 5.5 Update 2, включая ESXi 5.5 Update 2 и vCenter Server 5.5 Update 2.


Вчера компания VMware выпустила обновление для платформы виртуализации VMware vSphere 5.5 Update 2, которое включает в себя апдейты составляющих компонентов - ESXi 5.5 Update 2 и vCenter Server 5.5 Update 2.

Основные новые возможности обновления:

  • Поддержка хостов ESXi с объемом памяти до 6 ТБ.
  • Агентское ПО VMware vShield Endpoint Thin Agent для поддержки взаимодействия с решениями vShield, которое устанавливается в гостевых ОС вместе с VMware Tools, теперь называется VMware Tools Guest Introspection plugin.
  • vCenter Server 5.5 U2 теперь поддерживает следующие внешние СУБД: Oracle 12c, Microsoft SQL Server 2012 Service Pack 1 и Microsoft SQL Server 2014.
  • Поддержка vCloud Hybrid Service (vCHS, переименован в vCloud Air) - теперь в vSphere Web Client на стартовой странице появился новый контейнер Hybrid Cloud Service, который содержит установщики vCHS и vCloud Connector.
  • Появились технические средства программы Customer Experience Improvement Program - теперь данные о конфигурации вашей виртуальной инфраструктуры на еженедельной основе могут передаваться на сторону VMware, чтобы она могла шпионить анализировать их и улучшать продукт.
  • Множественные исправления ошибок, о которых можно почитать в Release Notes.

При этом у данного релиза есть следующие особенности:

  • Начиная с vSphere 5.5 Update 2, операционные системы Windows XP и Windows Vista не поддерживаются для vSphere Web Client. Полный список поддерживаемых систем находится в VMware Compatibility Guide.
  • Так как Linux-платформы больше не поддерживаются механизмом Adobe Flash, то Web Client не поддерживается в ОС Linux. Но не поддерживается - не значит, что это прекратило работать.
  • VMware vCenter Server Appliance в vSphere 5.5 поддерживает гайдлайны по обеспечению ИБ DISA Security Technical Information Guidelines (STIG), поэтому перед использованием этого решения надо бы почитать VMware Hardened Virtual Appliance Operations Guide для того, чтобы узнать о новых стандартах безопасности и о том, как нужно работать, чтобы security-примочки не мешали.
  • В VMware vSphere 5.5 U2 больше не поддерживается СУБД IBM DB2 как база данных для vCenter.
  • Вся информация касательно установки VMware Tools в гостевых ОС теперь представлена в общей документации по VMware vSphere (начиная с версии 5.5).
  • vSphere Data Protection 5.1 не совместима с vSphere 5.5 по причине изменения рабочих процессов в vSphere Web Client. То есть, вместе с vSphere надо обновлять и VDP.
  • При обновлении компонентов виртуальной инфраструктуры посмотрите также Interoperability Matrix.

Скачать VMware vSphere 5.5 Update 2 можно по этой ссылке. Документация доступна тут.


Таги: VMware, vSphere, Update, ESXi, vCenter, vCSA

Новые возможности VMware vSphere 6 - новости с VMworld 2014.


Не так давно мы писали о публичной бета-версии VMware vSphere 6, где каждый желающий мог скачать ее, посмотреть на список новых функций, но написать об этом не мог. На конференции VMware VMworld 2014 мораторий, по-сути, был снят - и теперь можно писать и рассказывать о новых возможностях платформы сколь угодно подробно.

Итак, что нового мы увидим в первой половине 2015 года (а именно тогда выйдет VMware vSphere 6):

1. Поддержка технологией Fault Tolerance до четырех виртуальных процессоров машины (4 vCPU).

Теперь технология непрерывной доступности VMware Fault Tolerance будет поддерживать виртуальные машины с 4 vCPU и объемом памяти до 64 ГБ.

Ранее для работы FT использовался механизм "Record-Replay" средствами технологии vLockstep, который воспроизводил инструкции основной машины на резервной. Теперь же используется техника Fast Checkpointing, которая позволяет организовать исполнение потока инструкций одновременно на обеих машинах. Если по какой-либо причине сетевое соединение между машинами замедляется, основная машина тоже начинает работать медленнее.

При этом теперь VMware Fault Tolerance можно будет конфигурировать для включенной виртуальной машины. Однако, по-прежнему, остаются следующие ограничения:

  • На хост ESXi можно иметь до 4 машин, защищенных технологией FT, при этом всего суммарно может быть защищено до 8 vCPU. Обратите внимание, что эти максимумы применяются суммарно к Primary и Secondary виртуальным машинам, расположенным на этом хосте.
  • Обязательно потребуется адаптер 10 Gb. Можно будет его разделять между различными типами трафика средствами NetIOC.
  • Нельзя использовать горячее добавление CPU или памяти для таких машин (Hot Add).
  • Если несколько vCPU затронуто технологией FT, то для таких машин не поддерживается Storage vMotion.
  • Кроме того, технику SMP-FT не поддерживают такие вещи, как vCloud Director, vSphere Replication, VSAN/vVols и vFlash.

При этом для таких машин полностью поддерживается VMware vMotion, а также они (как и раньше) защищаются кластером VMware HA - если с одной из машин что-то случается, то на другом хосте перезапускается реплика, которая уже становится Secondary VM.

Помимо этого, надо понимать, что SMP-FT вызовет падение производительности гостевой ОС, по оценкам VMware - это около 10-30% в зависимости от нагрузки.

Приятная новость - многопроцессорная FT будет поддерживать снапшоты виртуальных машин, а значит вы сможете делать их резервные копии средствами Veeam Backup and Replication или любым другим средством, поддерживающим vStorage APIs for Data Protection.

2. Улучшения горячей миграции виртуальных машин на большие расстояния (long distance vMotion).

О long distance vMotion мы уже писали вот тут, а впервые - вообще пять лет назад. И только сейчас обещания станут реальностью.

Теперь работающую виртуальную машину можно перемещать на расстояния, где RTT (Round Trip Time) в канале достигает 100 мс (неофициально поддерживается значение 150 мс). Это в 10 раз больше, чем было раньше.

И это - расстояние до 3000 километров (!). Теперь менеджерам датацентров открываются очень интересные стратегии по таким вариантам использования, как Follow the sun (машины работают там, где работают люди) и Follow the moon (машины работают ночью, когда электричество дешевле).

Кроме того, появились следующие улучшения технологии vMotion.

  • vMotion между разными серверами vCenter (нужна сеть на скорости 250 Mbps). Это происходит средствами протокола VMware Network File Copy (NFC).
  • Маршрутизируемый трафик vMotion (наконец-то).
  • vMotion между виртуальными коммутаторами vSwitch, а также Virtual Distributed Switch (VDS), поддерживаются режимы VSS to VSS, VSS to VDS, VDS to VDS (а вот VDS to VSS - нельзя).
  • средствами VMware NSX сетевые настройки машин могут быть перемещены в горячем режиме даже, если используется long distance vMotion.

3. Улучшенная производительность и новые возможности vSphere Web Client.

Здесь пока не сильно много деталей: появятся библиотеки контента (версии машин, темплейтов) и функции publish и subscribe для них. Также существенно будет улучшена производительность и уменьшен отклик при различных операциях.

4. Технология Virtual Volumes.

О ней мы уже писали вот тут и тут.

Все это приходит в рамках концепции создания конвергентной инфраструктуры и развития парадигмы Software-Defined-Datacenter.

Здесь используются три основных элемента:

  • Vendor Provider (VP) – это плагин от производителя системы хранения данных, поддерживающий VVols через VASA API версии 2.0.
  • Storage Containers (SC) – это контейнеры на дисковом массиве, в которые упаковываются VMDK-диски каждой из машин. Это операбельная единица со стороны и системы хранения, и платформы VMware vSphere.
  • Protocol Endpoints (PE) – это средства управления томами на базе политик, предоставляемые администраторам. В них уже не будет понятий LUN и точек монтирования. Будет просто VVol, который можно привязывать и отвязывать от серверов ESXi/vCenter.

Все хранилища будут управляться на базе политик (сейчас это реализовано в VSAN):

5. Технология Virtual Datacenters.

Концепция виртуальных датацентров объединяет в себе пул вычислительных кластеров, кластеров хранилищ и политики их покрывающие. То есть это такой большой ресурсный контейнер, в котором есть зачатки интеллекта: он решает в какой из кластеров поместить виртуальную машину и на каком хранилище размещать виртуальные диски, чтобы это соответствовало определенным политикам.

 

По сути, это еще один уровень абстракции для крупных инфраструктур, в которых можно оперировать вот такими большими объектами из нескольких кластеров серверов и хранилищ.

6. Новые максимумы для хостов ESXi.

Нам обещают следующие параметры:

  • 320+ pCPU
  • 4+ TB Mem
  • 4096+ vCPUs
  • 32+ Nodes/Cluster
  • 62TB+ VMDKs

Также с большой долей вероятности в VMware vSphere 6.0 мы увидим следующие возможности, о которых говорили на VMworld 2014:

  • Полная поддержка NVIDIA GRID vGPU - больше информации доступно тут.
  • Технология vSphere APIs for IO Filtering (VAIO) - о ней рассказано здесь.

  • Технология VMFork - метод по мгновенному клонированию запущенных виртуальных машин.

Больше подробностей о VMware vSphere 6 можно прочитать вот тут.


Таги: VMware, vSphere, Update, ESXi, vCenter, FT, vMotion

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Veeam Broadcom Offtopic Microsoft Cloud StarWind VMachines NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V AI VCP Intel Community Ransomware Stretched Backup Private AI vDefend VCF Workstation Network vSAN Tanzu VMUG HCX VCPP Labs Explore Data Protection ONE Live Recovery V2V Aria NSX DPU Update EUC Avi Skyline Host Client GenAI Chargeback Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint ML Director Memory SIOC Troubleshooting Bugs ESA Android Python Upgrade Hub Guardrails CLI Driver Foundation HPC Orchestrator Optimization SVMotion Diagram Ports Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2025, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge