Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6370 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Поддержка режима vGPU для карт NVIDIA в VMware vSphere 6.


Продолжаем рассказывать о новых возможностях платформы виртуализации VMware vSphere 6, выход которой ожидается в самое ближайшее время. Сегодня мы расскажем о поддержке режима vGPU, который позволяет предоставить ресурсы видеокарты (GPU) напрямую сразу нескольким виртуальным машинам (режим vGPU). Напомним, что эта технология уже довольно давно поддерживается в продуктах Citrix (а также в решении RemoteFX от Microsoft), а ее поддержка в платформах VMware была анонсирована в прошлом году на VMworld 2014.

Технология vGPU от NVIDIA при использовании с продуктами VMware подразумевает использование в качестве платформы VMware vSphere 6, а в качестве средства управления виртуальными ПК - VMware Horizon 6 (для этого выйдет специальное обновление с версией 6.1).

vGPU поддерживается для графических адаптеров NVIDIA GRID K1 и K2, для каждой из которых определены 4 профиля для виртуальных ПК, которые используют ресурсы видеокарты. Вот таблица этих профилей:

Всего есть три типа пользователей:

  • Designer - человек, который использует очень требовательные к графическим ресурсам приложения (не только дизайнеры, но и пользователи CAD-приложений).
  • Power User - человек, использующий подобные приложения время от времени.
  • Knowledge Worker - пользователь со сравнительно небольшой нагрузкой на ресурсы видеокарты.

Важно, что в рамках одного физического GPU видеокарты можно использовать только профили одного типа. Взгляните на картинку - как можно, а как нельзя:

Опишем здесь вкратце процедуру настройки использования vGPU с VMware vSphere 6, которая приведена в vGPU Deployment Guide (документ еще не вышел).

Для настройки vGPU необходимы следующие компоненты:

  • VMware vCenter 6.0
  • VMware ESXi 6.0
  • VMware Horizon View 6.1
  • NVIDIA GRID vGPU Manager

Потребуются также настройки BIOS на серверах (для каждого вендора свои). Вот, например, конфигурация Cisco:

  • CPU Performance: выставить в Enterprise или High Throughput.
  • Energy Performance: выставить в Performance.
  • PCI Configuration: выставить MMCFG BASE в 2 GB и Memory Mapped I/O above 4GB: Disabled.
  • VGA Priority: выставить в Onboard VGA Primary.

Далее нужно развернуть на хостах компонент NVIDIA vGPU Manager, который создает связь между GPU видеокарты и виртуальной машиной. Устанавливается он как обычный VIB-пакет:

[root@ESX60-01:~] esxcli software vib install --no-sig-check -v /vmfs/volumes/ISO/vib/NVIDIA-vgx-VMware-346.27-1OEM.600.0.0.2159203.x86_64.vib
Installation Result:
Message: Operation finished successfully.
Reboot Required: false
VIBs Installed: NVIDIA_bootbank_NVIDIA-vgx-VMware_vSphere_6_Host_Driver_346.27-1OEM.600.0.0.2159203
VIBs Removed:
VIBs Skipped:
[root@IUESX60-01:~] esxcli software vib list | grep -i nvidia
NVIDIA-vgx-VMware_ESXi_6.0_Host_Driver 346.27-1OEM.600.0.0.2159203 NVIDIA VMwareAccepted 2015-02-06

После того, как NVIDIA vGPU Manager настроен на хост-серверах ESXi, нужно подготовить виртуальные машины. Делается это через vSphere Web Client. Выберем аппаратные характеристики ВМ в зависимости от типа рабочей нагрузки:

  • Entry Level Engineer / Design Reviewer: 4GB RAM, 2 vCPU
  • Mid Level Engineer: 8 GB RAM, 2-4 vCPU
  • Advanced Engineer: 16 GB RAM, 4-8 vCPU

Затем в настройках ВМ нужно добавить Shared PCI Device:

Выбираем тип NVIDIA GRID vGPU и профиль в соответствии с таблицей, приведенной в начале статьи:

Обратите внимание, что нужно зарезервировать память для виртуальных машин, иначе их просто нельзя будет запустить. То есть, кнопку "Reserve all memory" нужно нажать обязательно. Кроме того, для машин, использующих vGPU, не поддерживаются такие технологии как vMotion, HA, снапшоты - то есть, машина полностью привязана к хосту ESXi.

После этого в виртуальном ПК можно устанавливать гостевую ОС (поддерживается Windows 7 и более поздние версии). Затем нужно установить NVIDIA GRID driver (после этого неплохо бы сделать из такой машины шаблон для дальнейшего ускоренного развертывания новых десктопов):

Кстати, в диспетчере устройств в гостевой ОС виртуального ПК можно посмотреть на драйвер графического адаптера:

Затем нужно соответствующим образом настроить пул виртуальных ПК в VMware Horizon View. Просто указываем протокол PCoIP и тип 3D-рендера NVIDIA GRID VGPU:

Вот, в принципе, и все. После этого виртуальные машины готовы к работе с vGPU в рамках пула виртуальных ПК.


Таги: VMware, vGPU, vSphere, NVIDIA, ESXi, VMachines, Hardware, VDI

Сжатие данных при передаче (compression) в VMware vSphere Replication 6.0.


Продолжаем рассказывать о новых функциях платформы виртуализации vSphere 6.0 (для этого у нас есть специальная страница). Сегодня у нас на очереди функции сжатия данных в VMware vSphere Replication 6.0. Функция репликации включена во все издания VMware vSphere, начиная с Essentials Plus (то есть, за бортом только Essentials). Кстати, родственная репликации функция резервного копирования VMware Data Protection 6.0 также есть во всех изданиях, начиная с Essentials Plus.

Начнем с того, что vSphere Replication 6.0 полностью совместима с продуктами VMware Virtual SAN 6.0 и vCenter Site Recovery Manager (SRM). Также в vSphere 6.0 появилась функция сжатия данных сетевого трафика при передаче:

Это снижает требования к ширине канала репликации, что особенно актуально при использовании продукта VMware SRM для обеспечения отказоустойчивости на уровне помещений или датацентров. Делается сжатие средствами библиотеки FastLZ, однако сжатие выключено по умолчанию.

При передаче данных репликации пакеты остаются сжатыми до того момента, пока они не отправляются на запись на диск. Но в некоторых случаях, в зависимости от версий ПО и особенностей архитектуры, сжатие может быть не на всем участке пути данных, или его может не быть вовсе. Пример: репликация vSphere 6.0 при соединении с виртуальным модулем vSphere Replication 5.8 - сжатия не будет. Если же, например, данные хоста ESXi 6.0 идут на виртуальный модуль vSphere Replication 6.0, а дальше на хранилище хоста vSphere 5.5, то данные будут разжаты на виртуальном модуле репликации, а дальше пойдут в обычном виде. Отсюда мораль - старайтесь поддерживать актуальные версии своего ПО на всех компонентах инфраструктуры.

В большинстве случаев достигается коэффициент сжатия данных в диапазоне от 1.6 к 1 до 1.8 к 1. Это приводит к уменьшению времени синхронизации и возможности настройки более строгой политики RPO.

Примеры:

1. ВМ с гостевой ОС Windows и диском в 37.5 ГБ при первой репликации без компрессии синхронизируется за 52 минуты. Когда включили компрессию, 20.2 ГБ данных отреплицировалось за 29 минут. Таким образом, эффективное использование канала выросло с 98 Mbps до 177 Mbps.

2. ВМ с гостевой ОС Linux и 4.7 ГБ данных при первичной репликации синхронизировались за 13 минут. После включения компрессии 2,8 ГБ ушли за 8 минут. Эффективное уменьшение ширины канала - с 49 Mbps до 80 Mbps.

Из минусов - компрессия создает нагрузку на процессор, поэтому нужно ее использовать аккуратно, и потому она отключена по умолчанию. Больше информации о технологии репликации от VMware можно найти в документе "VMware vSphere Replication 6.0 Technical Overview".


Таги: VMware, vSphere, Replication, Update, DR, ESXi

Новый документ: vCenter Server 6.0 Deployment Guide.


В преддверии выпуска обновленной платформы виртуализации VMware vSphere 6.0 (напомним, что наши статьи о ней - здесь) компания VMware рассказывает подробно о различных компонентах решения.

Ранее мы писали о новой архитектуре сервисов управления VMware vCenter в VMware vSphere 6, а на днях VMware выпустила объемный документ "vCenter Server 6.0 Deployment Guide", рассказывающий на 100 страницах о том, как нужно развертывать vCenter в различных конфигурациях (embedded и external), включая обновление с различных версий.

Из интересного можно отметить руководство по использованию утилиты sso-ha, которая появилась в vCenter 6.0, и средств по обеспечению отказоустойчивости компонентов Platform Services Controller.

Содержание документа:

  • Introduction
  • VMware vCenter Server 6.0 Services
  • Requirements
  • Reference Architectures
  • Deploying vCenter Server 6.0
  • Postdeployment Steps
  • Certificate Management

Таги: VMware, vCenter, Whitepaper

Утилита для миграции сервера VMware vCenter в виртуальный модуль: VCS to VCVA Converter.


Интересная штука появилась на сайте проекта VMware Labs - средство миграции VCS to VCVA Converter. Эта штука позволяет преобразовать имеющийся у вас сервер VMware vCenter под управлением ОС Windows с внешней БД Microsoft SQL Server в виртуальный модуль (VIrtual Appliance) vCetner Server Appliance на базе Linux со встроенной базой данных vPostgres, который также должен быть у вас в наличии при миграции.

С помощью утилиты (которая также представляет собой виртуальный модуль) можно перенести саму БД, а также роли, пермиссии, привилегии, сертификаты и службу Inventory Service. Результирующий виртуальный модуль vCSA должен иметь тот же IP-адрес, что исходный сервер VMware vCenter, но не должен быть включен при миграции.

Системные требования VCS to VCVA Converter:

  • vCenter Server под Windows - для vSphere 5.5 или более поздней версии.
  • Windows vCenter Server и vCenter Server Appliance должны быть одной версии (например, vCenter Server Windows 5.5 u1 -> VCSA 5.5 u1).
  • vCenter Server Appliance должен иметь как минимум столько же vCPU и памяти, сколько и исходный хост vCenter Server.
  • Компоненты vCenter Components (Inventory Service, vSphere Web Client и VMware Single Sign On) должны быть на том же хосте, что и vCenter Server.
  • Должен быть внешний Microsoft SQL Server 2008 R2 (или более поздний) с vCenter Database (VCDB).
  • vSphere Web Client Plugins должны быть зарегистрированы под пользователем Active Directory.
  • Службы VMware Single Sign On (пользователи и группы) на данный момент не переносятся (нужно заводить заново).
  • Утилита (Migration Appliance) должна иметь возможность взаимодействия с vCenter, его БД и виртуальным модулем vCSA. Следующие порты должны быть открыты на vCenter Server и на VCSA:
    • 22 (ssh)
    • 443 (https)
    • 445 (SMB)

Ограничения утилиты:

  • Microsoft SQL Server и vCenter Server должны быть на разных хостах (встроенная БД не пойдет).
  • Microsoft SQL Express Database не поддерживается версией 0.9 утилиты.
  • Windows Local Users и Groups не мигрируются версией 0.9 утилиты.
  • vCenter Alarm action scripts также не переносятся в версии 0.9.
  • Миграция потребует некоторого прерывания в работе vCenter Server.
  • Конфигурация Linked Mode не мигрируется (надо делать все в ручную).
  • Сторонние плагины для Web Client (например, VMware Update Manager или NSX) также не будут перенесены.

Загрузить виртуальный модуль VCS to VCVA Converter можно по этой ссылке.


Таги: VMware, vCenter, Converter, V2V, vSphere, vCSA

Доступна запись вебинара "Новинки vSphere 6" на русском языке.


Мы много пишем про новые возможности платформы виртуализации VMware vSphere 6, релиз которой должен состояться уже в ближайшее время. Напомним наши последние посты:

Но и компания VMware тоже старается от нас не отставать. Например, недавно она объявила о доступности вебинара "Новинки vSphere 6" на русском языке, который можно в любое время посмотреть по запросу.

Многовато болтовни в начале, но для тех, кто готов слушать о VMware от VMware - почему бы и нет.


Таги: VMware, vSphere, Webinar, Update

Transparent Page Sharing в VMware vSphere 6.0: разламывание больших страниц памяти.


Мы уже немало писали про технологию Transparent Page Sharing (TPS) в VMware vSphere, которая позволяет дедуплицировать страницы оперативной памяти на хост-сервере ESXi при недостатке физической памяти для виртуальных машин. Как мы уже писали тут и тут, в VMware vSphere 5.5 Update 3 и более поздних версиях технология TPS отключена (при дедупликации страниц между машинами), чтобы не нагружать хост понапрасну, поскольку в современных ОС используются большие страницы памяти (Large Memory Pages), вероятность дедупликации которых мала. В то же время, технологию TPS никто из vSphere не убирал, и ее можно в любой момент включить.

Как пишет знаменитый Дункан, В VMware vSphere 5.x есть 4 состояния памяти для хост-сервера относительно параметра minFree:

  • High (100% от minFree)
  • Soft (64% от minFree)
  • Hard (32% от minFree)
  • Low (16% от minFree)

Эти состояния определяют срабатывание определенных триггеров (об этом ниже). Например, если minFree для вашей конфигурации сервера равно 10 ГБ, то при переходе в состояние, когда занято 6,4 ГБ (Soft), произойдет определенное действие с точки зрения техник оптимизации памяти.

В то же время, триггеры не срабатывают жестко по этим пороговым значениям, а плавно включаются перед ними и плавно выключаются за ними, чтобы не вызвать резких изменений.

Например, при переходе из состояния High в Soft, большие страницы памяти "разламываются" на обычные, чтобы TPS мог их тут же дедуплицировать. Однако, это может сказаться не лучшим образом на производительности - у хоста и так возникает недостаток памяти, а тут еще его нагружают дедупликацией.

Поэтому в VMware vSphere 6.0 ввели новое состояние Clear (100% от minFree), а состояние High переопределили до значения 400% от minFree. Для чего это сделано? А вот для чего.

При недостатке памяти, хостом ESXi используется техника разламывания больших страниц памяти на обычные страницы, которые затем могут быть дедуплицированы с помощью TPS. Это делается затем, чтобы предотвратить свопирование страниц на диск, что является самым тормозным способом освобождения ресурсов. Так вот эта штука начинает активно работать при наличии свободной памяти в промежутке от High (400%) до Clear (100%), чтобы начать работать на еще не испытывающем острого недостатка ресурсов хосте. Но при этом TPS сразу не запускается.

Давайте посмотрим на таблицу:

Состояние памяти (State) Пороговое значение (% от minFree) Эффект при переходе в диапазон
High 400% Большие страницы разламываются на обычные, но TPS не запускается и ждет следующего цикла прохода дедупликации (по умолчанию 60 минут, минимально настраиваемое в расширенном параметре Mem.ShareScanTime время равно 10 минут)
Clear 100% Разламывание больших страниц и мгновенный запуск TPS
Soft 64% Включение TPS и техники Memory Ballooning
Hard 32% Включение TPS, Memory Compression и свопирования на диск
Low 16% Memory Compression + свопирование на диск + блокировка использования памяти

Это красивое решение - начать разламывать страницы заранее и не нагружать теряющий свободную память хост.

Но все что касается TPS, актуально только тогда, когда TPS включено. По умолчанию же эта техника выключена, а о том, как включить ее, написано вот тут.


Таги: VMware, vSphere, Memory, Performance, Обучение, ESXi

Насколько хорошо работает конфигурация All-Flash кластера VMware Virtual SAN - пример с Bootstorm.


Неадвно мы писали о новых возможностях средства для создания отказоустойчивых кластеров хранилищ VMware Virtual SAN 6.0, где одной из таких возможностей стала возможность конфигурации All-Flash кластера VSAN (то есть, когда и для кэша, и для данных используются SSD-диски):

Естественно, эта штука работает намного быстрее, чем раньше, поскольку прежде данные можно было размещать только на HDD-дисках. Но насколько это стало быстрее?

Чтобы показать некоторые цифры на практике, компания VMware провела тест на bootstorm - ситуацию, когда множество десктопов загружаются одновременно (например, в начале рабочего дня). Для этого была использована следующая конфигурация:

  • 64 высокопроизводительных узла кластера Virtual SAN исключительно на SSD-дисках (All-Flash).
  • 6401 виртуальных ПК (то есть по 100 каждом хосте), которые включаются одновременно.

Результаты теста оказались весьма позитивными:

  • За 24 минуты все виртуальные ПК загрузились.
  • Еще за 16 минут все десктопы получили IP-адреса и были готовы к работе.

В итоге все заняло 40 минут. Для почти шести с половиной тысяч машин это весьма и весьма неплохой результат. Кроме того, отмечается, что команда VMware не использовала никаких специальных настроек или модификаций ПО - тест работал, что называется, "из коробки".


Таги: VMware, Virtual SAN, Performance, VDI

Возможность пощелкать компоненты VMware vSphere 6 уже сейчас - новые Feature Walkthroughs.


Как все из вас знают, скоро выходит обновленная платформа виртуализации VMware vSphere 6, в которой появилась уйма новых возможностей. О многих из них мы уже писали (см, например, нашу последнюю заметку тут). На днях компания VMware сделала еще одну полезную вещь - выложила пошаговые гайды по некоторым компонентам vSphere 6 на сайте VMware Feature Walkthroughs.

Напомним, что про эти гайды мы уже писали тут и тут. Эти штуки позволяют в интерактивном режиме пройти по шагам конфигурации различных продуктов в интерфейсе соответствующего решения. То есть, все так же, как вы будете нажимать в vSphere Web Client:

Какие гайды доступны уже сейчас:

  • vCenter Server Install - установка компонентов vCenter 6.0. Напомним, что о новых функциях в vCenter мы писали вот тут.
  • vCenter Server Upgrades - процесс обновления со старых версий vCenter Server, включая 5.x, до версии vCenter 6.0.
  • vSphere Data Protection – набор пошаговых гайдов, позволяющих пройти весь процесс резервного копирования виртуальных машин. О новых возможностях VDP 6.0 мы также писали вот тут.
  • vSphere Replication – эти гайды позволят вам самостоятельно настроить репликацию и попробовать повосстанавливать виртуальные машины из реплик.

В ближайшее время ожидаются новые Feature Walkthrough - следите за обновлениями!


Таги: VMware, vSphere, Update, Обучение, ESXi, vCenter, VDP

VMware vSphere Virtual Volumes (vVOLs) - что это такое и чем отличается от VAAI.


Продолжаем рассказывать о возможностях новой версии серверной платформы виртуализации VMware vSphere 6, выход которой ожидается в ближайшее время. Напомним наши последние посты на эту тему:

Сегодня у нас на очереди одна из самых интересных тем в vSphere 6 - технология организации хранилищ VMware vSphere Virtual Volumes (VVOls). Напомним, что ранее мы подробно писали о ней тут. С тех пор появилось некоторое количество новой информации, которую мы постараемся актуализировать и дополнить в этом посте.

Начнем с того, что vVOL - это низкоуровневое хранилище для виртуальных машин, с которым позволены операции на уровне массива по аналогии с теми, которые сегодня доступны для традиционных LUN - например, снапшоты дискового уровня, репликация и прочее. vVOLs - это новый способ организации хранилищ в виде удобном для массива, когда используется не традиционная файловая система VMFS, а массив сам определяет, каким образом решать задачи доступа и организации работы с данными для виртуальных машин.

Тома vVOLs создаются на дисковом массиве при обращении платформы к новой виртуальной машине (создание, клонирование или снапшот). Для каждой виртуальной машины и ее файлов, которые вы сейчас видите в папке с ВМ, создается отдельный vVOL. В итоге же, создаются следующие тома на хранилище:

  • 1 config vVOL создается для метаданных ВМ, он включает в себя конфигурационный файл .vmx, дескрипторные vmdk для виртуальных дисков, лог-файлы и прочие вспомогательные файлы.
  • 1 vVOL создается для каждого виртуального диска .VMDK.
  • 1 vVOL создается для файла подкачки, если это требуется.
  • 1 vVOL создается для каждого снапшота и для каждого снимка оперативной памяти.

Дополнительные тома vVOL могут быть созданы для клонов или реплик виртуальной машины.

Давайте посмотрим на архитектуру VVols:

Здесь мы видим следующие компоненты:

Storage Provider (SP)

Технология vVOLs при взаимодействии с аппаратным хранилищем реализуется компонентом Storage Provider (SP), который также называется VASA Provider (подробнее об интерфейсе VASA - тут). Storage provider - это предоставляемый вендором аппаратного обеспечения слой ПО, который обеспечивает взаимодействие платформы vSphere и, собственно, хранилища с организованными на нем томами vVOLs в виде контейнеров (storage containers). vVOLs используют механизм VASA 2.0, который позволяет управлять объектами виртуальных машин (дискми) прямо на хранилище.  

Protocol EndPoint (PE)

Если раньше каждый хост налаживал в случае необходимости соединение с каждым из vmdk-дисков виртуальных машин и получалось куча связей, то теперь у хранилища есть логическое I/O-устройство, через которое происходит общение с томами vVOL. PE можно считать сущностью, пришедшей на замену LUN, этих PE может быть создано сколько угодно (кстати, длина очереди у PE - 128 по умолчанию, вместо 32 у LUN).

То есть, через PE хост ESXi получает доступ к данным конкретной виртуальной машины. PE совместимы с существующими протоколами  FC, iSCSI и NFS и позволяют использовать уже имеющееся ПО для управления путями в SAN. К отдельному PE через vCenter можно привязать или отвязать тома vVOL отдельных виртуальных машин. Для хранилища не нужно много PE, одно это логическое устройство может обслуживать сотни и тысячи виртуальных томов vVOL.

Storage Container (SC)

Это логическая сущность, которая нужна для объединения томов vVOL по типам в целях выполнения административных задач. Storage Container создается и управляется на стороне дискового массива и предназначен для логической группировки и изоляции виртуальных машин (например, виртуальные машины отдельного клиента в публичном облаке vCloud).

vVOL Datastore

Это хранилище, которое непосредственно создается из vSphere Client. По-сути, это представление Storage Container (SC) для платформы VMware vSphere. Этот тип датастора можно, например, выбрать при создании виртуальной машины:

С точки зрения администрирования, эти датасторы аналогичны VMFS-томам - вы так же можете просматривать их содержимое и размещать там виртуальные машины. Но для них недоступны операции расширения или апгрейда - они полностью контролируются со стороны дискового массива.

Policy Based Management

Это механизм, который позволяет назначать виртуальным машинам политики, которые определяют ее размещение, а как следствие, и производительность с точки зрения подсистемы ввода-вывода (например, можно задавать необходимые трешхолды по ReadOPs, WriteOPs, ReadLatency и WriteLatency.).

Дисковый массив на базе этих политик позволяет разместить виртуальную машину на нужном хранилище и обеспечить необходимые операции по обеспечению нужного уровня производительности.

По прочтении этого материала возникает вопрос - а чем vVOLs лучше механизма VAAI, который уже давно существует для VMware vSphere? Ответ прост - это замена VAAI, которая позволяет еще больше функций по работе с виртуальными машинами и организации хранилищ переложить на сторону аппаратного обеспечения. В случае невозможности операций с vVOLs будет произведено переключение на использование примитивов VAAI:

Об этом более подробнее вы можете прочитать в статье "vSphere Virtual Volumes Interoperability: VAAI APIs vs VVOLs".

Ну и отметим, что ведущие вендоры аппаратного обеспечения уже приступили к реализации vVOL в своем оборудовании. Например, это уже начинает делать HP:

Этим же занимается и Dell. В ближайшее время мы будем рассказывать о практических аспектах использования vVOLs подробнее.


Таги: VMware, vSphere, vVOL, Update, ESXi, Storage

Как работает SSD кеширование средствами гипервизора в облаке VMware.


Компания VMware еще с выходом VMware vSphere 5.1 объявила о нескольких новых начинаниях в сфере хранения данных виртуальных машин, включая возможность использования распределенного кеш на SSD-накопителях локальных дисков серверов ESXi. Данная технология имела рабочее название vFlash и находилась в стадии Tech Preview, превратившись позднее в полноценную функцию vSphere Flash Read Cache (vFRC) платформы VMware vSphere 5.5. И это вполне рабочий инструмент, который можно использовать в задачах различного уровня.


Таги: IT-Grad, VMware, SSD, Performance, vSphere, ESXi

Полезная утилита - VMware VSAN All-Flash Configuration Utility.


Не так давно мы писали о новых возможностях решения для отказоустойчивости хранилищ VMware Virtual SAN 6.0, которое выйдет вместе с новой версией платформы виртуализации VMware vSphere 6. Одной из таких новых возможностей стал режим All-Flash Configuration, когда хост-сервер ESXi использует только SSD-накопители. При этом быстрые и надежные накопители используются для целей кэширования (cache tier), а устройства попроще - для хранения данных (capacity tier).

Чтобы использовать конфигурацию All-Flash нужно специальным образом пометить диски хост-серверов ESXi для яруса Capacity Tier. Сделать это можно через консоль RVC, либо через интерфейс ESXCLI на каждом из хостов.

Так, например, это делается через RVC:

А вот последовательность команд ESXCLI:

Получается, что на каждом из хостов кластера Virtual SAN администратор должен с помощью CLI-интерфейса обозначать диски, которые будут использоваться для создания яруса хранения виртуальных машин. Жутко неудобно.

Кстати, узнать о том, входит ли конкретный диск в Capacity Tier можно с помощью команды VSAN Disk Query (vdq):

# vdq -q

Так вот, коллеги с punchingclouds.com делают утилиту с GUI, которая позволит назначать дисковым устройствам на хостах ESXi это свойство быстро и удобно, экономя часы времени (представьте, что у вас 64 узла в кластере, на каждом из которых по 10 SSD-дисков, то есть надо назначить 640 дисков!).

Утилита, позволяющая назначать свойство Capacity Tier в пакетном режиме на нескольких хостах, называется VMware VSAN All-Flash Configuration Utility.

Для начала работы надо ввести данные учетной записи VMware vCenter, а также пользователя на хостах VMware ESXi. Минус тут в том, что пароль на всех хостах должен быть одинаковый (но это обещают исправить в следующей версии, сделав загрузку csv-файла с паролями).

Перед тем, как приступить к операциям с дисками, нужно включить SSH на хостах ESXi (настройка на хостах происходит через ESXCLI), делается это кнопкой "Enable SSH". Далее можно сгруппировать похожие устройства по хостам или кластеру, после чего отметить нужные устройства в списке дисков.

Ну и далее нажимаем кнопку "Set Capacity Flash", чтобы назначить диски для хранения виртуальных машин, или "Remove Capacity Flash", чтобы отвязать их от этой роли.

Утилита VMware VSAN All-Flash Configuration Utility скоро будет доступна, следите за обновлениями здесь.


Таги: VMware, Virtual SAN, Utility, Blogs

Что нового в VMware vSphere 6 с точки зрения серверов ESXi и виртуальных машин.


Мы уже весьма немало писали про возможности обновленной версии платформы виртуализации VMware vSphere 6, в которой будет настолько много новых фичей, что мы не можем перечислить их все в одной статье. Поэтому мы делаем это по частям:

В этой части мы расскажем о новых возможностях платформы vSphere с точки зрения улучшений, сделанных непосредственно в плане хостов ESXi и виртуальных машин.

Итак, начнем по порядку:

1. Новые возможности хост-сервера и кластера.

Если еще с давних времен кластеры VMware HA/DRS объединяли 32 хоста, то в версии vSphere 6 кластер, наконец-то, может объединять до 64 хостов включительно. Помимо этого, на хосте может быть запущено до 1000 виртуальных машин (и до 8000 в кластере), а сам ESXi поддерживает сервер с числом процессоров до 480 CPU и памятью до 12 ТБ.

Сравним с предыдущей версией:

2. Новые возможности виртуальных машин.

Виртуальные машины, как и хосты ESXi, также стали поддерживать еще большие максимальные конфигурации - теперь можно создать машину со 128 vCPU и до 12 ТБ оперативной памяти:

Интересны также и другие возможности. Горячее добавление памяти теперь правильно работает с vNUMA, что положительно сказывается на производительности. Появилась поддержка ускорения для объектов GDI в пакете драйверов WDDM 1.1, также контроллер xHCI 1.0 теперь работает с драйвером этого контроллера под Мак, начиная с OS X 10.8.

3. vMotion теперь работает между разными vCenter и на большие расстояния.

В VMware vSphere 6 технология горячей миграции виртуальных машин vMotion была значительно улучшена. Во-первых, виртуальные машины могут теперь перемещаться между виртуальными коммутаторами Standard vSwitch и Distributed vSwitch в любой их комбинации, при этом при уходе с vDS настройки машины на его портах сохраняются и уезжают вместе с ней.

Во-вторых, теперь виртуальные машины могут перемещаться между датацентрами с разными серверами vCenter (требуется лишь соединение на уровне L2). При переезде адрес виртуальной машины сохраняется и нарушения функционирования сети не происходит. Настройки машины также уезжают вместе с ней:

MAC-адреса всегда будут уникальными даже на разных vCenter, а когда машина приедет обратно - ее адрес не будет занят.

При этом для миграции не требуется ни общего хранилища, ни той же самой сети или того же vCenter - можно все это в рамках одной операции vMotion поменять:

Кроме того, если раньше vMotion "держала" задержку в канале (RTT) до 10 мс (и до 50 мс в Enterprise Plus издании), то теперь это значение увеличено до 100 мс. То есть, стратегия Follow the sun для перераспределения нагрузки - теперь реальность, так как такое RTT позволяет уже "трансконтинентальные" миграции vMotion:

Интересно, что с помощью такого vMotion можно, например, увести машины из датацентра в местности, где начинается ураган, который все обесточит - и при этом все это будет незаметно для пользователей (почти).

4. Полезные мелочи.

Во-первых, появилась настройка политики сложности пароля в Host Advanced System Settings. Раньше для этого нужно было мудохаться с pam.d модулем.

Во-вторых, в логах хостов ESXi действия, произведенные через vCenter, включают в себя пользователя, которых их выполнял. Если раньше в логе было так: [user=vpxuser], то теперь вот так: [user=vpxuser:DOMAIN\User]. Весьма удобно.

В-третьих, появилась поддержка новых гостевых ОС:

  • Oracle Unbreakable Enterprise Kernel Release 3 Quarterly Update 3
  • Asianux 4 SP4
  • Solaris 11.2
  • Ubuntu 12.04.5
  • Ubuntu 14.04.1
  • Oracle Linux 7
  • FreeBSD 9.3
  • Mac OS X 10.10

5. Улучшения vSphere Network I/O Control.

Улучшенный механизм vSphere Network I/O Control версии 3 позволяет гарантировать уровень обслуживания на уровне vNIC виртуальной машины. Применять NetIOC можно также и к Distributed Port Group:

На этом вкратце все. Ну и так для общей информации - улучшения режима Linked Mode для серверов vCenter:


Таги: VMware, vSphere, Update, vMotion, vCenter

Улучшения VMware vSphere 6 Web Client - "lipstick on a pig".


Продолжаем знакомить наших читателей с новыми возможностями платформы виртуализации VMware vSphere 6, релиз которой должен состояться уже совсем скоро. Напомним наши предыдущие посты на эту тему:

Сегодня у нас на очереди VMware vSphere 6 Web Client. Главная новость как раз об отсутствии нового - веб-клиент, по-прежнему, работает на Flash, никакого HTML5 - и это досадно. Поэтому в комментариях и пишут, что новый клиент - это "lipstick on a pig", то есть косметические улучшения без переработки по существу.

Но есть и хорошая новость - VMware уверяет, что новый клиент работает в пять раз быстрее прошлого:

Посмотрим на тесты:

Действительно, в каких-то отдельных случаях работает в 5 и более раз быстрее. Ну ок, давайте пройдемся по новым фичам:

1. Контроль производительности раздела "All Users’ Tasks".

Если раньше эта штука в панели Recent Tasks грузилась очень долго, особенно в инфраструктурах, где сервер vCenter обслуживал много хостов ESXi и пользователей, то теперь она отключена по умолчанию, чтобы не создавать нагрузки. Включить ее можно вручную, в следующем файле на сервере vCenter:

C:\ProgramData\VMware\vCenterServer\cfg\vsphere-client\webclient.properties

Для vCenter Server Appliance используйте этот конфиг-файл:

/etc/vmware/vsphere-client/webclient.properties

Меняем строчку show.allusers.tasks=false на show.allusers.tasks=true (перезагрузка не требуется).

Теперь все таски пользователей будут показываться в разделе All Users’ Tasks.

2. Множество улучшений производительности.

Производительность была целью номер один в новой версии vSphere 6 Web Client. Были переработаны следующие разделы:

  • Страницы Login (в 13 раз быстрее!) и Home
  • Страницы Summary
  • Страницы Networking
  • Списки Related Objects
  • Общая навигация по разделам
  • Графики производительности (Performance Charts - в 2 раза быстрее)
  • Контекстные меню действий по правой кнопке (Action Menu - в 4 раза быстрее!)

3. Таски и гибкое размещение панелей.

Теперь список задач удобно размещен внизу:

Сами панельки можно отлеплять и ресайзить:

4. Реорганизованные Action Menu.

Теперь в меню, вызываемых по правой кнопке, все действия размещены на нужных и интуитивно понятных местах, а сами действия не тянут при прорисовке лишних данных, что увеличивает производительность клиента:

5. Новое меню по кнопке Home.

Теперь из него можно попасть в наиболее часто используемые разделы:

6. Возможность убрать предупреждение о включенном SSH прямо из GUI.

Появилась так давно нужная ссылка Suppress Warning:

7. Возможность поместить алармы и таски на правую панель.

Очень удобно:

8. Ну и гора всяких мелочей.

Типа совместимости с прошлой и новой версией Fault Tolerance:

Самое обидное, что Web Client, по-прежнему, несовместим с VMware Update Manager - можно просматривать его задачи, но запускать Remediate нельзя.

Ну и напоследок полезная ссылка про трюки в vSphere Web Client, вам может оказаться очень полезной - http://tiny.cc/webclientwiki.


Таги: VMware, vSphere, Web Client, Client, Update

Новое в VMware vSphere Data Protection 6.0 - теперь почти для всех пользователей vSphere.


Все из вас знают, что недавно компания VMware анонсировала обновленную версию платформы VMware vSphere 6. Ввиду того, что новых функций уж очень много, мы решили разбить описание новых возможностей продуктов серверной линейки на несколько постов. Напомним последние из них:

Сегодня мы поговорим об анонсированной новой версии VMware vSphere Data Protection 6.0 (VDP) - продукте для резервного копирования виртуальных машин на серверах ESXi. Если ранее пользователям предлагалось одно из двух изданий - встроенное в платформу и vSphere Data Protection Advanced (с расширенными функциями), то теперь осталось только одно. Теперь VDP включено во все издания VMware vSphere, кроме самого базового (Essentials). То есть, пользователи vSphere 6.0 Essentials Plus и более старших изданий получат VDP в комплекте. Кстати, продукт vSphere Data Protection Advanced будет недоступен для заказа с 1 марта.

Напомним, что VDP построен на базе решения для резервного копирования и дедупликации EMC Avamar, которое развертывается как готовый виртуальный модуль (Virtual Appliance). ПО работает без агентов, использует функциональность Changed Block Tracking и может восстанавливать не только машины целиком, но и отдельные файлы из бэкапов через браузер. Шестая версия VDP поддерживает до 8 ТБ дедуплицированных данных бэкапов.

Итак, что нового появилось в VDP:

1. Агенты для Microsoft SQL Server, Exchange и SharePoint.

Напомним, что это намного раньше появилось в Veeam Backup and Replication, а теперь VMware "заимствует" функциональность у Veeam. Эти агенты позволяют создавать консистентные копии виртуальных машин с данными приложениями, а также восстанавливать отдельные объекты приложений из бэкапов (например, базу данных или электронное письмо). Агенты поддерживают такие функции, как SQL Server Failover, кластеры AlwaysOn и Exchange Database Availability Groups.

2. В VDP появилась интеграция с хранилищем EMC Data Domain с использованием ПО Data Domain Boost.

Теперь за обработку бэкапов может отвечать Data Domain, а модуль VDP просто отвечать за передачу данных. Данная функция также есть у Veeam.

3. Возможность репликации данных между модулями VDP.

Данные, передаваемые между модулями VDP дедуплицируются, поэтому в канал передаются только уникальные блоки данных. Это может оказаться необходимым при отбрасывании резервных копий на резервные хранилища через WAN. При этом поддерживаются различные топологии репликации данных виртуальных модулей - 1:1, N:1 и 1:N.

4. Сжатие данных для vSphere Replication.

Теперь если вы используете VMware SRM для репликации данных между площадками и восстановления машин после сбоев, то при передаче данных включается технология сжатия данных при передаче (end-to-end network compression).

Типичный коэффициент сжатия данных - от 1.6:1 до 1.8:1. Например, если раньше машина размером 37.5 ГБ передавалась за 52 минуты, то теперь она ужимается до 20.2 ГБ и передается за 29 минут.

5. Улучшенная репликация.

Теперь неаллоцированные регионы данных не гоняются по каналу репликации, что увеличивает ее скорость. Поддерживаются тонкие диски и устройства Virtual SAN.

6. Верификация резервных копий.

Теперь резервные копии VDP можно восстановить на временное хранилище и запустить машины отключенными от сети, чтобы убедиться, что ОС запускается и приложения работают.

7. Поддержка "подмораживания" файловых систем Linux.

Для Windows-систем уже давно есть quiescence-скрипты, которые подмораживают операции с данными ВМ, для которой происходит резервное копирование. Для Linux это появилось в версии VDP 6.0 (функция отключена по умолчанию).

8. Поддержка Storage vMotion и Storage DRS в целевом хранилище.

Ранее при перемещении реплики средствами Storage vMotion требовалась полная ресинхронизация ВМ, а в версии VDP 6.0 перемещение машин между серверами и хранилищами отслеживается, и процесс полной синхронизации не запускается.

Больше подробностей о возможностях vSphere Data Protection 6.0 можно узнать из вот этого документа.


Таги: VMware, VDP, Update, ESXi, vSphere, Backup

Полезная утилита для анализа сценариев "что если" при отказах - VM Resource and Availability Service.


На сайте проекта VMware Labs, про который мы регулярно пишем, появилась очень полезная утилита VM Resource and Availability Service (vRAS). Она позволяет провести анализ "что если" (what-if analysis) в плане последствий для инфраструктуры при различных отказах.

Вы можете симулировать отказ одного или нескольких хостов VMware ESXi в кластере, чтобы узнать:

  • сколько виртуальных машин будут гарантированно перезапущены на хостах кластера HA
  • сколько машин не смогут запуститься, так как не хватит емкости выживших хостов
  • сколько машин будут испытывать нехватку вычислительных мощностей и будут работать не в полную силу после рестарта на других хостах

Последний пункт особенно важен для тех инфраструктур, где у машин не установлен параметр Reservation, то есть администраторы знают, что машины перезапустятся в случае сбоя все, но не знают, сколько из них будут испытывать проблемы с производительностью.

Очевидно, что данная информация позволит вам сделать выводы о текущей надежности виртуальной инфраструктуры и принять решение о вводе в строй дополнительных мощностей.

Кстати, VM Resource and Availability Service - это не отдельная утилита, а сервис на стороне VMware. Чтобы начать его использовать, нужно:

1. Перейти по адресу hasimulator.vmware.com.

2. Нажать "Simulate Now", чтобы принять EULA и загрузить дамп DRM, после чего начать процесс симуляции.

3. Нажмите иконку помощи в правом верхнем углу для детальной информации об использовании сервиса.

Где взать DRM-дамп:

  • vCenter server appliance: /var/log/vmware/vpx/drmdump/clusterX/
  • vCenter server Windows 2003: %ALLUSERSPROFILE%\Application Data\VMware\VMware VirtualCenter\Logs\drmdump\clusterX\
  • vCenter server Windows 2008: %ALLUSERSPROFILE%\VMware\VMware VirtualCenter\Logs\drmdump\clusterX\

Для больших инфраструктур vRAS - штука полезная и незаменимая.


Таги: VMware, Labs, HA, SaaS

Новые лабораторные работы по VMware vSphere 6 - попробуйте новую версию платформы без установки.


Новые лабораторные работы по VMware vSphere 6 - попробуйте новую версию платформы без установки.

Как почти все из вас знают, компания VMware совсем недавно анонсировала новую версию платформы виртуализации VMware vSphere 6 и другие продукты серверной линейки (наша последняя статья об этом тут). Пока сам продукт недоступен для загрузки в релизной версии, но компания VMware на днях предоставила возможность попробовать его вживую в виде лабораторных работ - VMware Hands-On Labs (HoL).

В рамках лабы вам развертывают виртуальную машину, с которой вы работаете прямо в браузере:

На данный момент доступно 4 новых лабораторных работы:

1. HOL-SDC-1408 - What’s New with Virtual SAN 6.

Эта лаба вводит начинающих в суть темы отказоустойчивых кластеров Virtual SAN и позволяет понять основные преимущества технологии на практике, никакого булшита. Модули лабы:

  • Virtual SAN Setup and Enable
  • Virtual SAN with vMotion, Storage vMotion and HA Interoperability
  • Virtual SAN Storage Level Agility
  • Useful CLI Commands
  • Virtual SAN Monitoring
  • Virtual SAN Troubleshooting

Время на прохождение: 4-5 часов.

2. HOL-SDC-1410 - What's New with vSphere 6.

Данная лабораторная работа расскажет о новых возможностях платформы VMware vSphere 6 в плане сервисов управления и мониторинга. Доступно три модуля:

  • Introduction to Management with vCenter Server
  • Introduction to vSOM Networking And Security
  • Introduction to vSOM Storage

Время на прохождение: 3 часа.

3. HOL-SDC-1428 - VMware EVO:RAIL Introduction.

В этой небольшой лабораторной работе вам расскажут про технологию EVO:RAIL, которая представляет собой стандартизованный строительный блок виртуальной инфраструктуры для небольших компаний. С технической точки зрения EVO:RAIL - это двухюнитовый блок, представляющий собой 4-узловую структуру на базе архитектуры "microserver", которая сочетает в себе 4 полноценных микросервера в 2-юнитовой корзине.

Эта лаба состоит из двух модулей:

  • Exploring EVO:RAIL Configuration
  • Exploring EVO:RAIL Management

Время на прохождение: 1 час.

4. HOL-MBL-1452 - Horizon 6 with View Use Cases.

Эта лабораторная работа, посвященная возможным вариантам применения VMware Horizon 6, была доступна и ранее. Но теперь в нее добавили модуль о технологии AppVolumes, про которую мы писали вот тут (ранее это называлось CloudVolumes).

Модули лабораторной работы:

  • Build and Operate the Mobile Secure Workplace
  • Build and Operate the Call Center Desktop
  • Build and Operate the Branch Office Desktop
  • Take a Guided Tour of vCOPS for View
  • Understanding use cases for Application Remoting
  • Understanding use cases for Cloud Pod Architecture
  • Mirage-Controlled View Static Desktops
  • Guided Tour of AppVolumes

Время на прохождение: 5-8 часов (то есть на всю лабу лучше выделить целый день).

В течение пары недель компания VMware обещает выложить еще несколько лабораторных работ, посвященных VMware vSphere 6 и другим продуктам и технологиям обновленной серверной линейки, о которых мы вам обязательно расскажем. Можно также следить за обновлениями в твиттер-аккаунте VMware HoL.


Таги: VMware, Labs, Обучение, vSphere, VSAN

Новые возможности виртуального модуля VMware vCenter Server Appliance (vCSA) 6.0 в VMware vSphere 6.0.


Совсем недавно компания VMware анонсировала новую версию платформы виртуализации VMware vSphere 6.0, а также обновленные версии продуктов своей серверной линейки. Напомним наши статьи об этом:

Вместе с vSphere 6.0 было также объявлено и об обновлении до версии 6.0 виртуального модуля VMware vCenter Server Appliance (vCSA), построенного на базе ОС Suse Linux (SLES 11 SP3), в котором соответствующим образом настроены параметры безопасности и необходимые сервисы vCenter.

Кстати, напомним наши статьи о vCenter Server Appliance:

Ну а ниже мы расскажем, что нового появилось в vCSA 6.0.

1. Новая установка.

Теперь для развертывания vCSA понадобится ISO-образ, который можно загрузить прямо из веб-клиента vSphere:

Сам виртуальный модуль развертывается из OVF-пакета, также потребуется установить Client Integration Plug-in.

2. Типы развертывания.

С точки зрения самого vCenter появляется новый сервис Platform Services Controller (PSC), который заменяет существующие сервисы Single Sign-On (напомним, что они уже были переписаны в версии SSO 5.5). Если ранее SSO был частью vSphere и обновлялся только вместе с платформой, то теперь PSC может быть обновлен отдельно (например, если появились новые источники аутентификации или были исправлены ошибки), что очень удобно.

На картинке ниже Platform Services Controller может быть выделен для каждого сервиса vCenter, но также и несколько сервисов vCenter могут использовать один выделенный PSC (этот режим называется External PSC).

Более подробно мы писали об этом тут.

3. Скриптовая установка.

Помимо обычной установки из GUI с помощью мастера, vCSA можно развернуть в режиме скриптовой установки. Для этого в папке vCSA-CLI-Installer есть пять различных файлов сценариев, которые подходят под различные варианты развертывания.

4. "Размер" модуля.

При развертывании теперь просят указать "размер" виртуального модуля (один из четырех видов), от которого зависит его конфигурация и максимальное число хостов и ВМ:

5. Поддержка большинства функций vCenter для Windows.

Теперь vCSA больше похож на обычный vCenter Server для Windows. Действительно, посмотрите на таблицу:

Также vCSA поддерживает следующие возможности:

  • Полная поддержка Hardware version 11.
  • Встроенная и настроенная СУБД vPostgres (в качестве внешней базы также поддерживается Oracle).
  • Нативная репликация вместо Microsoft ADAM.
  • Репликация политик и тэгов в Linked Mode.
  • Возможность накатывания обновлений (Product & Security) через Patch Portal.

Что не поддерживается:

  • Не реализована поддержка VMware Update Manager (по прежнему, надо ставить на винду).
  • Нет поддержки Microsoft SQL Server.
  • Нет средств миграции SQL Server на vPostgres.

6. Три способа доступа к консоли виртуального модуля.

Теперь получить доступ к vCSA можно тремя способами:

  • Обычный, через vSphere Web Client.
  • Доступ через Appliance Shell - в этом режиме мы переходим в консоль по SSH или через интерфейс DCUI при нажатии Alt+F1.
  • Через DCUI - в DCUI можно получить доступ прямо из Web Client на вкладке Summary (тадо нажать на само изображение консоли).

Прямой доступ по порту через веб-браузер больше не поддерживается.

Вот тут можно посмотреть на весь процесс установки vCSA. Кстати, говорят загружается виртуальный модуль со всеми поднятыми сервисами достаточно долго - около 8 минут.


Таги: VMware, vCSA, vCenter, Update, vSphere

Что нового в VMware Virtual SAN 6.0 из состава vSphere 6.0.


Как вы знаете, недавно компания VMware сняла эмбарго на освещение новых возможностей платформы виртуализации VMware vSphere 6.0, о которых мы писали вот туттут). На блогах, посвященных технологиям виртуализации, появилось много разных статей о новых возможностях продукта, и мы уже писали о технологии непрерывной доступности VMware Fault Tolerance 6.0.

Сегодня мы хотим рассказать об отказоустойчивых кластерах VMware Virtual SAN 6.0, для которых версия программного обеспечения продвинулась с 1.0 сразу до 6.0 (поэтому пользователи, все же, не должны заблуждаться насчет зрелости продукта - это его вторая версия).

Итак, что нового появилось в VMware Virtual SAN 6.0:

1. Поддержка архитектуры All Flash для создания кластера хранилищ.

Теперь доступны два варианта развертывания VSAN:

  • Hybrid – Virtual SAN, как и раньше, использует SSD-диски для кэширования, а для хранения ВМ используются обычные HDD-диски. Максимально возможные конфигурации этой архитектуры стали выше (например, стало 64 хоста в кластере).
  • All Flash – Virtual SAN использует имеющиеся Flash-накопители как для кэширования, так для хранения ВМ.

Отличия между данными архитектурами:

В конфигурации All Flash девайсы, ответственные за кэширование, будут производить только кэширование записи и не будут делать кэширование на чтение (это очевидно почему). В гибридной конфигурации, как и раньше, 30% емкости SSD-кэшей используется для Write Buffer, а 70% - для кэша на чтение.

В целом, утверждается, что решение Virtual SAN теперь готово к полноценной промышленной эксплуатации.

2. Возможность High Density Direct Attached Storage (HDDAS).

Теперь кластеры Virtual SAN удобно использовать в окружениях с блейд-системами. Для них поддерживаются как SDD, так и HDD-устройства, включая flash-хранилища блейд-серверов.

Если раньше блейд-системы не очень подходили для организации кластеров ввиду физических ограничений по локальным хранилищам, то теперь это вполне подходящий вариант использования для корпоративной инфраструктуры. Поддержка устройств будет строго контролироваться и постоянно обновляться в VMware HCL.

3. Новая файловая система и формат On-Disk.

Virtual SAN в VMware vSphere 5.5 использовал модифицированный формат файловой системы VMFS с измененным механизмом блокировок, которая называлась VMFS-L. Теперь же в VSAN 6.0 используется файловая система VSAN FS, специально предназначенная для кластеров хранилищ.

Старый формат VMFS-L поддерживается и в новой версии, но VMware предлагает провести миграцию хранилищ, тем более что это делается без простоя сервисов.

4. Функции Proactive Rebalance.

В Virtual SAN 6.0 появилась возможность ребаланса объектов по виртуальным дискам в случае, если подключается новый узел vSphere или если диски заполнены на 80% и более. Делается это через Ruby Console.

5. VSAN Fault Domains (группы отказа).

Теперь в VSAN можно определять домены отказа, то есть группы хостов у которых может произойти одновременный сбой (например, отказ питания на стойке), чтобы все их объекты были задублированы в других доменах:

 

Теперь реплики объектов происходят не на уровне хостов, а на уровне Fault Domains (в данном случае инфраструктура хранения переживет отказ одной стойки):

6. Новые функции для дисков (Serviceability Functions).

  • Light LED on failures – включение LED-индикатора при отказе.
  • Turn on disk LED manually - включение LED-индикатора вручную для диска, чтобы его можно было найти на массиве.
  • Marking a disk as local – если диск не обнаружился как локальный, его можно пометить вручную из GUI.
  • Marking a disk as SSD - теперь эта опция есть в GUI, нужна если диск автоматически не распознается как SSD.

7. Улучшения сетевого взаимодействия.

Теперь Virtual SAN 6 поддерживает конфигурации на уровне Layer 3. Кроме того, теперь доступна конфигурация с Jumbo Frames. Ну и добавлена поддержка возможностей vDS и Network IO Control (NetIOC).

8. Новый тип виртуального диска VMDK - vsanSparse.

Ранее использовались стандартные Redo-диски, но они не были приспособлены под кэширование и другие функции VSAN FS, поэтому сделали новый тип диска vsanSparse.

9. Улучшенные функции Disk/Disk Group Evacuation.

Возможность эвакуации данных с отдельного диска или группы перед тем, как вы его хотите вывести из эксплуатации физически. Ранее приходилось переводить весь хост в Maintenance Mode, чтобы было очень неудобно при поломке лишь одного диска.

10. Новое представление Resynchronization Dashboard.

Это представление показывает статус объектов, которые по тем или иным причинам находятся в состоянии ресинхронизации. Также показывается примерное время окончании синхронизации:

11. Новые службы 3rd Party File Services.

Сторонние вендоры теперь могут надстраивать свои решения над VMware Virtual SAN. Например, мы писали о таком решении совсем недавно - это NexentaConnect.

12. Полноценная поддержка командлетов PowerCLI.

Ранее интерфейс PowerCLI поддерживался неофициально, теперь же командлеты задокументированы и поддерживаются:

13. Службы мониторинга жизнедеятельности (VSAN Health Services).

Теперь для компонентов Virtual SAN доступна информация об их состоянии:

14. Storage Consumption Models.

Возможность визуализовать использование ресурсов хранения Virtual SAN 6.0 при создании или изменении VM Storage Policy.

О доступности VMware Virtual SAN 6.0 будет объявлено отдельно.


Таги: VMware, Virtual SAN, Update, VSAN, vSphere, Storage, SSD, HA

Новые возможности VMware Fault Tolerance в VMware vSphere 6.0.


Как вы знаете, вчера компания VMware сняла эмбарго на освещение новых возможностей платформы виртуализации VMware vSphere 6.0, о которых мы писали вот туттут). На блогах, посвященных технологиям виртуализации, появилось много разных статей о новых возможностях продукта, но нас больше всего заинтересовала технология непрерывной доступности VMware Fault Tolerance.

Ранее никто не воспринимал технологию Fault Tolerance всерьез, поскольку она была доступна только для виртуальных машин с одним vCPU, а такие машины, как правило, не делаются для бизнес-критичных приложений, для которых, собственно, технология Fault Tolerance и создавалась.

Теперь VMware Fault Tolerance в VMware vSphere 6.0 полноценно доступна для виртуальных машин с четырьмя vCPU и 64 ГБ оперативной памяти. И все это поддерживается в производственной среде.

Какие преимущества дает VMware FT в vSphere 6.0:

  • Непрерывная доступность и полное сохранение данных ВМ в случае отказа хоста ESXi.
  • При отказе не разрывается TCP-соединение.
  • Срабатывание Fault Tolerance полностью прозрачно для гостевой системы.
  • При сбое хоста происходит переключение на новую первичную ВМ, при этом на другом хосте автоматически поднимается новая резервная ВМ.

Что нового в Fault Tolerance 6.0:

  • Теперь технология непрерывной доступности VMware Fault Tolerance поддерживает виртуальные машины с 4 vCPU и объемом памяти до 64 ГБ.
  • Fast Check-Pointing - новая технология, предназначенная для поддержания исходного и резервного узла в синхронном состоянии, пришедшая на смену технологии "Record-Replay".
  • Поддержка технологии горячей миграции как для Primary, так и для Secondary-узла.
  • Возможность резервного копирования виртуальных машин, защищенных с помощью FT, технологией vStorage APIs for Data Protection. То есть, для таких ВМ теперь работет Veeam Backup and Replication.
  • FT в vSphere 6.0 поддерживает новые типы дисков, такие как EZT, Thick или Thin Provisioned. Для vSphere 5.5 и более ранних поддерживаются только диски типа Eager Zeroed Thick.
  • Возможность создания снапшотов виртуальных машин, защищенных FT.
  • Новая версия FT поддерживает отдельные копии файлов ВМ (.vmx и .vmdk) для каждой машины, чтобы защитить машину не только от сбоев хоста, но и от сбоев хранилища, которые могут произойти одновременно со сбоем хоста. Файлы Primary и Secondary VM могут быть на разных виртуальных хранилищах.

Но по-прежнему, для Fault Tolerance остаются следующие ограничения:

  • На хост ESXi можно иметь до 4 машин, защищенных технологией FT, при этом всего суммарно может быть защищено до 8 vCPU. Обратите внимание, что эти максимумы применяются суммарно к Primary и Secondary виртуальным машинам, расположенным на этом хосте.
  • Обязательно потребуется адаптер 10 Gb. Его можно разделять между различными типами трафика средствами NetIOC.
  • Нельзя использовать горячее добавление CPU или памяти для таких машин (Hot Add).
  • Если несколько vCPU затронуто технологией FT, то для таких машин не поддерживается Storage vMotion.
  • Кроме того, технику SMP-FT не поддерживают такие вещи, как vCloud Director, vSphere Replication, VSAN/vVols и vFlash.

Как и раньше, технология VMware HA полностью поддерживается:

Для наглядности есть вот такая табличка, описывающая отличия от предыдущей версии FT:

Надо понимать, что SMP-FT вызовет падение производительности гостевой ОС, по оценкам VMware - это около 10-30% в зависимости от нагрузки.

Ну и помните, что VMware Fault Tolerance на защитит от сбоя на уровне приложения - если он произойдет в основной ВМ, то будет и в резервной ВМ, поскольку машины синхронизированы на уровне исполнения инструкций в процессорах.


Таги: VMware, Fault Tolerance, Update, vSphere, VMachines

Решение NexentaConnect для создания масштабируемой инфраструктуры хранения на базе VMware Virtual SAN.


Многие из вас знают про решение VMware Virtual SAN, представляющее собой средство для создания отказоустойчивых кластеров хранилищ на базе локальных дисков серверов VMware ESXi. Но это всего лишь средство для хранения и обеспечения отказоустойчивости виртуальных машин, а можно ли все пространство хранения в небольшой компании организовать полностью на базе локальных дисков серверов и управлять ими из одной точки?

Компания Nexenta считает, что можно, предлагая пользователям VMware vSphere и VMware Virtual SAN продукт NexentaConnect, позволяющий создавать NFS и SMB ресурсы для размещения данных виртуальной среды и пользователей на локальных дисках хост-серверов.

NexentaConnect это надстройка над Virtual SAN, которая предоставляет следующие возможности централизованно управляемого хранилища:

  • Экспорт файловых шар по протоколам NFSv3, NFSv4 и SMB 2.1.
  • Оптимизированный кэш на чтение, размещенный на стороне хост-серверов.
  • Техники сжатия данных и дедупликации.
  • Быстрая настройка прямо из vSphere Web Client.
  • Совместимость с VMware HA и DRS.
  • Интеграция с доменом AD (поддержка AAA и Kerberos).
  • Использование преимуществ Virtual SAN.

NexentaConnect состоит из следующих компонентов:

  • Плагин для vSphere (как для Web Client, так и для vSphere Client).
  • NexentaConnect Manager – виртуальный модуль (Virtual Appliance) на базе Ubuntu Linux (64 Bit), предоставляющий сервисы управления решением, такие как мониторинг, планировщик событий, база данных, обслуживание операций и т.п.
  • NexentaConnect Filers – это компоненты, реализующие, собственно, экспорт сетевых шар. Развертываются автоматически по одному на кластер Virtual SAN в момент создания первой общей папки.

Особенности файлеров:

  • Отдельная файловая система, составленная из виртуальных дисков VMDK по 2 ТБ (для каждой из политик хранения). 2 ТБ - это для того, чтобы обеспечить поддержку со стороны VMware VSAN. Всего можно объединить до 30 VMDK на файлер.
  • Размер блока 128 КБ.
  • Развертывание при первом обращении - масштабирование пространства хранения по требованию.
  • Развертывание как Thin provisioned, так и в режиме заранее аллоцированного пространства.

Параметры файлеров:

  • ОС Ubuntu Linux (64 Bit)
  • 4 vCPU
  • 16 GB RAM
  • Минимум 2 виртуальных диска (до 30)
  • Объем диска до 2 TB
  • 2 сетевых адаптера

Достоинства продукта:

  • Сжатие данных алгоритмом LZ4 в реальном времени с небольшой нагрузкой на CPU.
  • До 500 MB/s на компрессию (на ядро).
  • До 1.5 GB/s на декомпрессию (на ядро).
  • Дедупликация нулевых блоков.
  • Дедупликация данных в режиме Tech Preview (полноценная будет во второй версии).

Требования для развертывания NexentaConnect:

  • VMware vSphere 5.5 или выше
  • VMware vCenter Server 5.5 U1 или выше (Windows и Linux)
  • ESXi 5.5 U1 или выше
  • Кластер VMware vSphere с установленным Virtual SAN
  • VMware vSphere Web Client
  • VMware HA (опционально)
  • Службы каталога (Directory Services - опционально)
  • Microsoft Windows Active Directory 2008 R2 или выше
  • VMware vCenter Server 5.5 U1 или выше
  • DNS
  • DHCP

NexentaConnect - это еще один способ построить Scale-Out файловый сервер (то есть масштабирующиеся по требованию службы хранения). Например, это востребованной в инфраструктуре виртуальных ПК предприятия, где требуется хранить не только виртуальные машины, но и данные их пользователей.

Об одном из подобных решений - StarWind Virtual SAN - мы регулярно пишем (сейчас это лучшее решение на рынке). Вот тут, например, мы писали про документ о построении инфраструктуры файловых сервисов на базе StarWind.

Добавим, что решение NexentaConnect доступно не только для инфраструктуры VMware vSphere, но и для Citrix XenServer (пока в бете). Больше подробностей о продукте можно узнать вот на этой странице.


Таги: VMware, Virtual SAN, Storage, NFS, SMB, Virtual Appliance

Вышли фиксы багов с некорректной обработкой Changed Block Tracking (невосстановимые копии бэкапов) для VMware vSphere 5.x.


Некоторое время назад мы писали про серьезный баг в механизме Changed Block Tracking (CBT), который используют практически все средства для резервного копирования виртуальных машин на уровне хоста ESXi, например, Veeam Backup and Replication.

Суть бага заключалась в том, что при увеличении виртуальных дисков машин с включенной технологией Changed Block Tracking (CBT), если их результирующий размер перешагивает 128 ГБ (а также 256, 512, 1024 и т.д.) - их резервные копии оказываются невалидными и не подлежащими восстановлению.

Проблема была обнаружена в начале ноября прошлого года, но только сейчас компания VMware пофиксила этот баг. Описание проблемы и решений можно найти в KB 2090639.

Патчи можно скачать по следующим ссылкам:

Zip-файлы патчей можно импортировать через VMware Update Manager:

/p>

Напомним, что для решения проблемы без патчей, надо "перещелкнуть" Changed Block Tracking на хосте ESXi (как это сделать - тут и в KB). Старые бэкапы, понятное дело, останутся невалидными. Следующий бэкап после повторного включения CBT всегда будет полным.

Интересно, что для VMware vSphere 4.x никаких патчей на эту тему выпущено не было (Currently, there is no resolution for ESXi 4.x.).

Отметим также, что компания Veeam уже давно выпустила решение этой проблемы. Пользователям Veeam Backup and Replication 8 вообще ничего делать не нужно - там эта проблема уже решена.


Таги: VMware, vSphere, Bug, Bugs, ESXi, Backup, Veeam

Демо-видео VMware EVO:RAIL и обзорный документ.


Не так давно мы писали про инициативу EVO:RAIL компании VMware, направленную на создание конвергентных инфраструктур (Hyper-Converged Infrastructure) на базе оборудования партнеров. Конвергентная инфраструктура - это когда физические ресурсы, такие как вычислительные мощности, хранилища и сети сведены воедино с помощью программных средств, которые позволяют управлять этим единым целым из одной точки, а не из разных специализированных инструментов.

На днях VMware выпустила на эту тему демонстрационное видео:

То есть, смысл EVO:RAIL таков - приезжает стойка, быстро настраиваем программные и аппаратные компоненты из единого интерфейса, после чего создаем виртуальные машины и управляем из единой точки.

Для тех, кому интересны детали, VMware выпустила обзорный документ "Introduction to VMware EVO: RAIL". Он отвязан от вендора и рассказывает о назначении решения и основных шагах по развертыванию и эксплуатации.


Таги: VMware, EVO:RAIL, Hardware, Video, Whitepaper

Что будет, если изменять Memory Reservation работающей виртуальной машины?


Как вы знаете, после запуска виртуальной машины на платформе VMware vSphere, в папке с машиной создается файл *.vswp, который предназначен для свопирования памяти ВМ в критической ситуации. Если у машины проявляется нехватка памяти на хосте VMware ESXi, и она не получает ее через механизм Memory Ballooning, то страницы памяти начинают сбрасываться в этот vswp-файл. Это самая плохая ситуация, так как структурная организация этого файла и то, как понимает своп операционная система, две большие разницы, а значит скорость работы существенно замедляется не только из-за того, что работа идет с диском вместо RAM, но еще и уходит время на поиск нужных страниц.

Соответственно, если у машины 4 ГБ оперативной памяти, то размер vswp-файла также 4 ГБ:

Если мы меняем Memory Reservation для виртуальной машины, то ее файл подкачки уменьшается на величину этого резерва - так как физическая память закрепляется за машиной и не возникнет условий, когда эту часть потребуется свопировать.

Но если сделать Memory Reservation для работающей ВМ (в данном случае 2 ГБ), то размер файла подкачки останется прежним:

Для того, чтобы vswp-файл уменьшился на величину Memory Reservation, надо перезагрузить ВМ - тогда он станет размером 2 ГБ:

Напомним, что у выключенной машины vswp-файла нет.

Но что если у включенной машины убрать (или изменить) Memory Reservation? Все просто - он автоматически увеличится до размера незарезервированной памяти ВМ. Убираем резерв в 2 ГБ и файл вырастает до 4 ГБ:

Ну и напомним формулу:

Swap (.vswp) file size = VM Configured Memory – VM reserved memory


Таги: VMware, vSphere, Memory, VMachines, Blogs

Финансовые итоги компании VMware за 2014 год.


На днях компания VMware выпустила отчеты о финансовых итогах четвертого квартала 2014 года, а также годовой отчет за весь 2014 год.

Давайте посмотрим на цифры четвертого квартала 2014 года:

  • Выручка составила 1,7 миллиарда долларов, что на 15% больше, чем в четвертом квартале 2013 года.
  • Выручка от лиценизий составила 777 миллионов долларов, что на 13% больше, чем в четвертом квартале 2013.
  • Операционная прибыль (GAAP) во втором квартале составил $344 миллиона, что на 8% меньше аналогичного квартала годом раньше.
  • Операционная прибыль (non-GAAP) составила составила $567 миллионов, что на 7% больше, чем годом ранее в четвертом квартале.
  • Чистая прибыль (Net income) составила $326 миллионов, что на 2% меньше чем годом ранее ($335 млн).

Годовой отчет за 2014 год:

  • Выручка составила 6,04 миллиарда долларов, что на 16% больше, чем в 2013 году.
  • Операционная прибыль (GAAP) составил $1,03 миллиарда, что на 6% меньше, чем годом ранее.
  • Операционная прибыль (non-GAAP) составила составила $1,88 миллиарда, что на 6% больше, чем годом ранее в четвертом квартале.
  • Чистая прибыль (Net income) составила $886 миллионов, что на 13% меньше чем годом ранее ($1,01 млрд).
  • Операционный поток наличности (Operating cash flows) составил 2,18 миллиарда долларов.
  • Кэш, его эквиваленты и краткосрочные инвестиции в сумме составляют $7,08 миллиарда.

В принципе, весьма неплохо. Некоторое падение операционной и чистой прибыли объясняется покупкой VMware компании AirWatch, которая была завершена в первом квартале 2014 года.

Взрывной рост компании прекратился, но VMware чувствует себя стабильно и уверено и вполне может позволить себе поглотить еще с десяток небольших компаний, поэтому в этом году ждем новых интересных сделок и пополнения продуктовой линейки.


Таги: VMware, Finance, Enterprise, Update

Улучшения облачного сервиса VMware vCloud Air Disaster Recovery.


Не так давно мы писали про облачный сервис vCloud Air Disaster Recovery, который доступен пользователям публичного облака от VMware (тогда оно еще называлось vCloud Hybrid Service).

DR-решение доступно как услуга (RaaS, Recovery-as-a-Servie) для конечных заказчиков, которые могут делать бэкап своего частного облака в инфраструктуру vCloud Air. При этом для заказа услуги (она доступна на 1,12,24 или 36 месяцев) не требуется быть клиентом vCloud и иметь там свою виртуальную инфраструктуру.

Это очень удобно для тех заказчиков, которые не хотят вкладывать сразу большие деньги в построение полноценной резервной площадки, а пока просто хотят протестировать сервисы катастрофоустойчивости VMware. Ведь в любой момент можно отказаться от использования vCloud Air, когда будут введены в эксплуатацию собственные резервные мощности.

На днях VMware добавила весьма значимые функции в этот сервис, а именно:

  • Native failback support – возможность обратной репликации данных из облака vCloud Air в инфраструктуру заказчика. Помимо этого поддерживается и офлайновый трансфер данных на физических дисках (для крупных окружений).
  • Multiple recovery points – возможность иметь несколько копий во времени для реплицируемых ВМ, что позволяет откатить отдельные ВМ или весь датацентр к моменту, когда данные еще не были повреждены.
  • Self-service automation – использование возможностей vRealize Orchestrator через плагин для vCloud Air Disaster Recovery, чтобы самостоятельно спроектировать и внедрить сценарии восстановления.

Ну и не забывайте, что для новых заказчиков vCloud Air OnDemand компания VMware дарит 300 долларов на пользование услугами сервиса.


Таги: VMware, vCloud, Air, Update, Cloud

Виртуальные машины с CoreOS теперь заточены под VMware vSphere (technical preview).


Многие из вас, наверняка, знакомы с инициативой CoreOS (форк Chrome OS) - операционной системой на базе Linux, которая представляет собой пустую "коробку" для развертывания в ней предустановленных контейнеризованных приложений (на базе механизма Docker) и больше ничего лишнего. То есть там присутствуют только необходимые для запуска этих приложений средства.

В инициативе CoreOS принимают участие такие компании как Google, Facebook и Twitter. VMware также работает с командой CoreOS, чтобы эта система работала и поддерживалась в качестве гостевой ОС в VMware vSphere, а также обеспечивалась работоспособность пакета open-vm-tools (это аналог VMware Tools, но с открытым кодом и с меньшими возможностями).

На днях компания VMware объявила о доступности сборок CoreOS 494 и 522 для платформы VMware vSphere (как технологическое превью). Соответственно, в VMware ждут от пользователей фидбэк по результатам тестирования.

Ссылки на загрузку:

Для установки можно использовать стандартный ISO-образ или уже готовый VMDK-диск. В дальнейшем CoreOS будет поставляться как готовый виртуальный модуль (Virtual Appliance) в формате OVA. Например, в бета-версии сборки 577 OVA уже есть.

Инструкции по развертыванию CoreOS на VMware vSphere приведены в KB 2104303. Процесс пока еще не очень тривиален, но команда проекта работает над его упрощением. Сама же VMware работает над интеграцией проекта CoreOS в свое публичное облако VMware vCloud Air.

Чтобы начать работу с CoreOS нужно прочитать вот эти инструкции: CoreOS Quick Start. Также рекомендуем ознакомиться с VMware CoreOS community forum.


Таги: VMware, CoreOS, Linux, vSphere, VIrtual Appliance, SaaS, Docker

VMware vCloud Air OnDemand - виртуальная машина из облака по кредитной карте и $300 в подарок.


На днях компания VMware объявила о запуске релизной версии сервиса vCloud Air OnDemand, который позволяет самостоятельно получить виртуальную машину из публичного облака, имея только браузер и кредитную карту. Напомним, что сервис vCloud Air OnDemand находился в бета-тесте с конца лета прошлого года, а сейчас, наконец, стал полноценно доступен.


Таги: VMware, vCloud Air, Cloud, Cloud Computing

vMaxGuide - информация о максимальных конфигурациях VMware vSphere в приложении для Android.


На многим из вас известном сайте VMware Labs появилось интересное мобильное приложение для смартфонов на базе Android - vMaxGuide. Оно позволяет посмотреть информацию о максимальных конфигурациях различных компонентов виртуальной инфраструктуры VMware vSphere.

На данный момент vMaxGuide предоставляет информацию о максимумах для следующих платформ:

  • VMware vSphere 5.5
  • VMware vSphere 5.1
  • VMware vSphere 5.0

Также в сравнениях участвуют различные версии виртуального аппаратного обеспечения (Virtual Hardware). Там где максимумы могут быть достигнуты только при определенных условиях, соответствующие пункты помечены символом "*".

Инсталляция и использование vMaxGuide:

Кстати, эта штучка может быть хорошей шпаргалкой на экзамене по VMware VCP!)


Таги: VMware, vSphere, Labs, ESXi, VMachines

Отключенный Transparent Page Sharing на хосте VMware ESXi - сколько можно сэкономить, если включить его?


Осенью мы писали о том, что компания VMware планирует отключить технологию Transparent Page Sharing (TPS) в новых релизах платформы виртуализации VMware vSphere. Напомним, что TPS - это механизм поиска и удаления дубликатов страниц памяти в целях экономии физического пространства RAM (вместо самой дублирующейся страницы хранится только ссылка на нее).

Технологию TPS было решено прекратить использовать по двум причинам:

  • Использование в современных ОС больших страниц памяти (large memory pages) размером в 2 МБ делает намного менее вероятным появление дубликатов.
  • Использование одной копии страницы памяти несколькими ВМ создает потенциальные проблемы безопасности.

На данный момент статус отключенности TPS по умолчанию на хостах VMware ESXi таков:

  • В ESXi 5.5 U2d, запланированном на первый квартал 2015 года, TPS будет отключен.
  • В ESXi 5.1 U3, выпущенном 4 декабря 2014 года, TPS уже отключен.
  • В ESXi 5.0 U3d, запланированном на первый квартал 2015 года, TPS будет отключен.

Однако не стоит сбрасывать TPS со счетов - возможно, если вы используете старые ОС (Windows 2003) и инфраструктуру VDI на базе старых клиентских ОС, TPS сможет сэкономить вам какое-то количество памяти (если безопасность TPS вас не особенно заботит). Ну и напомним, что TPS отключена только для межмашинного взаимодействия и продолжает работать для внутримашинного.

Для этого в VMware сделали скрипт Host Memory Assessment Tool.ps1, который показывает количество памяти на хостах, которую можно сэкономить с помощью TPS.

Вот что он делает:

  • Соединяется с vCenter и определяет хосты ESXi
  • Позволяет включить SSH на хостах
  • Генерирует отчет об обследовании на экономию по TPS
  • Можно экспортировать результаты в CSV
  • Можно снова включить SSH, если нужно

Пока скрипт позволяет указать только одну пару логин-пароль на хостах ESXi, но надеемся это будет исправлено в следующих версиях.

Здесь вот какие значения в колонках:

  • Total Host Memory – объем физической памяти хоста (доступной vmkernel).
  • Host Mem Saved via TPS – объем памяти, которая сэкономлена TPS.
  • Host Mem Saved via TPS Zero Pages – объем памяти, которая экономится на нулевых страницах. Фактически такая экономия не актуальна для большинства случаев, так как сэкономленные нули означают, что недостатка ресурсов не наблюдается.
  • Potential Host Mem Savings Lost – а вот эта экономия уже на реально используемых страницах. Объем, указанный тут, показывает сколько можно потерять, отключив TPS на хосте.
  • Host Free Mem – объем свободной оперативной памяти (по данным vmkernel). Если свободной памяти меньше, чем значение в предыдущей колонке, то при отключении TPS будет своппинг.

Вот такая штука, можно проводить эксперименты (особенно полезно это будет для крупной инфраструктуры). Скрипт безопасен для памяти хостов, так как использует режим доступа к памяти только для чтения.

После запуска скрипта вам может потребоваться отключить или включить Transparent Page Sharing на хосте ESXi. В этом случае вам пригодится KB 2097593.


Таги: VMware, TPS, Memory, ESXi, vSphere

Новый документ VMware Mirage 5.0 Reviewer's Guide.


Не так давно мы писали про новые возможности решения для управления образами ПК предприятия VMware Mirage 5.2. Напомним, что это решение позволяет создать образ рабочей станции пользователя, разделив его на слои (система, приложения, а также данные и настройки пользователя), а потом централизованно управлять такими образами и деплоить их на конечные физические и виртуальные ПК (подробно мы писали об этом тут).

На днях же компания VMware выпустила новый документ VMware Mirage 5.0 Reviewer's Guide. Этот документ позволит вам развернуть пробную версию VMware Mirage как в качестве standalone-продукта, так и в составе решения VMware Horizon. Напомним, что для решения VMware View, также входящего в состав пакета Horizon, есть свой "Reviewer’s Guide for View in Horizon 6".

Прочитав этот документ, вы изучите:

  • Что такое и для чего нужен VMware Mirage
  • Ключевые возможности продукта
  • Издания и лицензирование
  • Компоненты и архитектуру решения
  • Процедуру установки и развертывания
  • Основные операции в процессе пробного периода

В качестве основных рассматриваемых сценариев предлагаются следующие:

  • Сохранение образа десктопа средствами Mirage
  • Миграция операционной системы
  • Использование Mirage для восстановления десктопа из образа
  • Работа с базовым слоем и слоем приложений

Документы серии Reviewer's Guide - одни из самых полезных у VMware, поскольку в них минимум маркетингового булшита и максимум практических советов и процедур.


Таги: VMware, Mirage, Whitepaper, VDI

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 | 105 | 106 | 107 | 108 | 109 | 110 | 111 | 112 | 113 | 114 | 115 | 116 | 117 | 118 | 119 | 120 | 121 | 122 | 123 | 124 | 125 | 126 | 127 | 128 | 129 | 130 | 131 | 132 | 133 | 134 | 135 | 136 | 137 | 138    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Veeam Broadcom Offtopic Microsoft Cloud StarWind VMachines NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Live Recovery vDefend vSAN CloudHealth NSX Labs Backup AI Chargeback Aria VCP Intel Community Ransomware Stretched Private AI Workstation Network Tanzu VMUG HCX VCPP Explore Data Protection ONE V2V DPU Update EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint Memory Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Upgrade Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Ports Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2025, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge