Некоторые из вас знают, что в VMware vSphere есть механизм удаленного сбора дампов с серверов VMware ESXi, которые иногда выпадают в "розовый экран смерти" с диагностической информацией в случае критической ошибки.
Для сбора диагностической информации используется специальная служба ESXi dump collector service, которая принимает дамп хост-сервера по сети. Но сначала эту службу надо включить на сервере VMware vCenter (в частности, на vCenter Server Appliance). Для этого надо в vSphere Web Client пойти сюда:
Home > Administration > System Configuration > Services > VMware vSphere ESXi Dump Collector > Start
Кроме этого, нужно задать порт для приема дампов, а также надо сконфигурировать максимальный размер репозитория в гигабайтах, задав параметр Repository max size.
Теперь надо сконфигурировать параметры отправки кордампов через сеть на хостах ESXi. Сначала выполним следующую команду для проверки текущего статуса:
esxcli system coredump network get
Зададим сетевые параметры отправки дампов :
esxcli system coredump network set -- interface -name vmk0 -- server -ipv4 172.20.10.94 --server -port 6500
И включим службу сбора дампов:
esxcli system coredump network set --enable true
Проверим параметры отправки:
Теперь можно выполнить следующую команду для проверки параметров:
esxcli system coredump network check
Теперь, чтобы проверить, что vCenter Server Appliance принимает дампы, надо открыть следующий файл:
/var/log/vmware/netdumper/netdumper.log
Мы увидим там примерно следующую картину:
Теперь принудительно отправим ESXi в розовый экран командой CrashMe и заглянем в этот же файл еще раз:
Мы видим, что теперь появилась запись о дампе var/core/netdumps/ffff/172/20/10/52/zdump_ffff.172.20.10.52-2017-01-05-09_53-0. Откроем этот файл и увидим содержание дампа, появляющегося при крэше ESXi:
Для пользователей решения vRealize Operations Management (vROPS), предназначенного для комплексного управления и мониторинга виртуальной инфраструктуры vSphere, отличная новость - вышел VMware vRealize Operations Management Pack for vSAN.
Теперь за счет интеграции vSAN и vROPS можно использовать множество различных дэшбордов для управления, оптимизации и мониторинга производительности объектов vSAN в окружении vCenter Server. vRealize Operations Management Pack for vSAN построен на базе vRealize Operations 6.4 и предназначен для интеграции vSAN в единую Enterprise-инфраструктуру под управлением vROPS.
Основные возможности vRealize Operations Management Pack for vSAN:
Вывод информации и аналитика
Просмотр полного стэка объектов от приложений/виртуальных машин до кластера vSAN на дэшборде vSAN Overview. vSAN MP идентифицирует все ресурсы кластера - вычислительные, хост-системы и датасторы.
Унифицированное представление для распределенных датацентров, включая "растянутые" кластеры vSAN.
Вывод результатов проверок кластера по состоянию и конфигурации (health & configuration checks).
Аналитика по метрикам производительности в стиле "до и после" для виртуальных машин и приложений, перемещенных в кластер vSAN
Операционные возможности и мониторинг
Мониторинг и алертинг проблем кластеров vSAN через Alert Groups - по состоянию, емкости и конфигурации. Это основано на хэлсчеках самого кластера vSAN.
Специализированный vSAN Performance Dashboard для поиска и траблшутинга проблем.
Интеграция с системами сервисдеска, такими как ServiceNow, а также различными чатами (hipchat, Slack) и средствами нотификации (Pagerduty) через механизм Webhooks (также есть несколько предсозданных примеров).
Управление использованием кластеров и прогнозирование утилизации
Идентификация кластеров, в которых не хватает места или скоро закончится место.
Сравнение кластеров Non-vSAN и VSAN при развертывании или балансировке рабочих нагрузок в виртуальных машинах в целях выбора оптимального хранилища по производительности и занятому дисковому пространству.
Мы много пишем о новом поколении тонкого клиента для управления инфраструктурой виртуализации VMware vSphere Client (он же бывший HTML5 Web Client). Напомним, что с выходом VMware vSphere 6.5 он считается как бы релизным продуктом (см. его страничку на VMware Labs), но продолжает обновляться очень часто. Например, последнее обновление вышло совсем недавно - 21 декабря, а вообще за декабрь вышли версии 2.16-2.19, для которых расписан огромный Changelog. Между тем, множество стандартных функций Web Client по-прежнему отсутствуют в vSphere Client.
Давайте посмотрим на основные новые возможности VMware vSphere Client 2.17-2.19:
Новый дэшборд стартовой страницы. Теперь если вы пойдете в Home Menu -> Home, то увидите экспериментальный дэшборд с различными административными метриками. Теперь можно получить высокоуровневую статистику о ресурсах vCenter, наиболее важных алертах и прочем в очень удобном визуальном оформлении. Старый дэшборд переехал в Home Menu -> Shortcuts.
Из представления hosts and clusters можно видеть соответствие профилей хостов (Host profiles).
Можно настраивать параметры SDRS automation settings и просматривать общую конфигурацию.
Возможность изменять настройки Distributed Switch.
Новое действие Storage Provider и возможность просмотра нового представления Storage Providers view со всеми деталями подсистемы хранения.
Новое действие Disable Software iSCSI/FCoE adapter.
Изменение имени и алиаса iSCSI.
Изменение настроек Space Reclamation.
Возможность переименовать Storage Device.
Кастомизация профилей хостов (Host profiles).
Управление физическими адаптерами (NIC) на виртуальном коммутаторе.
Роли и пермиссии: можно просматривать, клонировать и удалять роли, а также просматривать и добавлять глобальные пермиссии.
Теперь можно просматривать список плагинов, установленных на vSphere Client
Возможность копирования данных грида для представлений Storage Adapters, Storage Devices и Storage Paths.
Добавление CHAP-конфигурации для Dynamic/Static Discovery Targets.
Представления Utilization и resource reservation для кластеров и хостов.
Множество мелких улучшений по унификации и работе с элементами, а также исправления ошибок.
Скачать VMware vSphere Client версии 2.19 можно по этой ссылке.
Минус только в том, что эти данные относятся к версии клиента, вошедшей в состав vSphere 6.5, а не к отдельному виртуальному модулю, доступному на VMware Labs. Но эту табличку обещают поддерживать в актуальном состоянии и дополнять.
До выхода новой версии платформы виртуализации VMware vSphere 6.5, механизмы AutoDeploy и Image Builder можно было использовать только с консольным фреймворком PowerCLI. Теперь же у Image Builder / AutoDeploy появилось собственное GUI в vSphere Web Client, с помощью которого можно удобно создавать кастомные образы VMware ESXi.
Но сначала нужно включить службу ImageBuilder Service. Для этого в веб-клиенте идем в Administration -> System Configuration -> Services > выбираем ImageBuilder Service и из меню Actions выбираем Start. После этого Image Builder будет доступен для использования:
Слева есть менюшка Auto Deploy:
Выбираем ее:
На вкладке Software Depots добавляем новый Depot:
Импортируем в него образ VMware ESXi:
Например, VMware-ESXi-6.5.0-4564106-depot.zip (оригинальный образ ESXi 6.5)... Читать статью далее
К сожалению, нету «прямого» пути для миграции шаблонов (VM Templates) с одного датастора на другой (т.н. процедура Storage VMotion). Представляю вашему вниманию функцию Move-Template2Datastore из моего PowerCLI Vi-Module модуля. Функция принимает объект(ы) Template и один объект датастора и производит 3 действия...
Многие из вас читали, что в новой версии VMware vSphere 6.5 появилась экспериментальная поддержка механизма Predictive DRS, который проактивно предпринимает действия по выравниванию нагрузки виртуальных машин на хосты ESXi, еще до того, как эта нагрузка придет.
Посмотрим как раньше работал VMware Distributed Resource Scheduler (DRS):
Работал он реактивно (Reactive) - то есть, когда нагрузка пошла, только тогда включался механизм ее выравнивания. При этом пользователи во время этого процесса могут испытывать неудобства из-за миграций vMotion между хостами и, собственно, самой резко растущей нагрузки (например, весь отдел вернулся с обеда). В этом случае происходит миграция только необходимого числа машин, чтобы выровнять основные показатели нагрузки.
Поэтому появился сбалансированный метод (Balanced). В этом случае DRS старается поддерживать баланс по нагрузке на хосты кластера (или даже между кластерами), чтобы не было перекосов в ту или другую сторону. Работает этот метод совместно с продуктом vRealize Operations (vROps), который собирает метрики с хостов и старается поддерживать баланс в виртуальном датацентре:
Этот алгоритм пытается сгладить углы резко изменяющейся нагрузки, но требует серьезных вычислений на стороне vROps и, как мы видим из картинки, не дает никаких гарантий.
Поэтому в VMware решили применить другой подход - Predictive DRS. Суть этого метода проста - компонент vROps ежедневно собирает сотни различных метрик со всех объектов виртуального датацентра (хосты, ВМ, хранилища). Эти метрики "обучают" механизм vROps, который каждую ночь анализирует данные о производительности хостов и формирует так называемые Dynamic Thresholds:
Predictive DRS производит очень сложный анализ на основе 10 различных алгоритмов и формирует коридор производительности "нормального" поведения виртуальных машин (обозначен на картинке серым). Границы этого коридора и есть Dynamic Thresholds, при выходе за границы которых в данное время, поведение в кластере считается аномальным. Работает этот механизм на уровне каждой виртуальной машины.
И тут самое интересное - Predictive DRS позволяет заранее понять, что на таких-то хостах виртуальные машины будут биться за ресурсы через некоторое время, и проактивно начинает мигрировать виртуальные машины, готовясь к ситуации изменения нагрузки:
То есть, синяя линия - это то, как будет (а точнее, как обычно было раньше - ведь так, скорее всего, будет и сегодня), а вот красная линия - это то, что подается на вход обычного DRS, чтобы он заранее начинал действия по подготовке ко всплеску нагрузки, который произойдет через некоторое время (например, бухгалтерия придет к 9-00 и будет включать свои виртуальные десктопы). В этот момент их, например, можно поддержать простаивающими хостами ESXi, где хостятся десктопы ленивых менеджеров, приходящих к 11 утра.
Ну а какой метод нужно использовать? VMware рекомендует использовать все три, в зависимости от ситуации:
Ну и отметим, что этот функционал доступен только в рамках решения vRealize Operations, о котором также можно почитать вот тут.
Вчера мы писали о том, как работают средства высокой доступности (HA) виртуального модуля VMware vCenter Server Appliance, а сегодня расскажем про то, как восстановить пароль на сервере vCSA 6.5.
Как вы возможно знаете, в VMware vSphere 6.5 для виртуального модуля vCSA поменялась хостовая ОС - теперь это собственная ОС VMware - Photon OS, а значит все предыдущие способы восстановления пароля root работать не будут. Перед восстановлением пароля обязательно сделайте резервную копию виртуального модуля или хотя бы снимите его снапшот.
Для того, чтобы сбросить пароль root на vCenter Server Appliance, нужно:
1. Сразу же после загрузки нажать клавишу <e>, чтобы зайти в меню GNU GRUB Edit Menu.
2. Найти секцию, в которой происходит инициализация запуска Linux (она начинается со слова "linux"), и добавить в ее конец следующую строчку:
rw init=/bin/bash
3. После этого нажмите <F10>, чтобы продолжить загрузку.
4. Далее в командной строке введите команду:
passwd
и задайте пароль root.
5. Затем размонтируйте файловую систему следующей командой:
umount /
6. Перезагрузите vCenter Server Appliance 6.5, выполнив следующую команду:
reboot -f
7. После этого пароль root на vCenter Server Appliance будет сброшен. Не забудьте удалить снапшот, если вы его делали, после того как убедитесь, что новый пароль установлен.
Как мы писали ранее, в новой версии платформы VMware vSphere 6.5 появились встроенные возможности обеспечения высокой доступности сервера vCenter, правда только если он развернут на базе виртуального модуля vCenter Server Appliance (vCSA). Для стандартного vCenter Server for Windows высокая доступность обеспечивается средствами MSCS/WFCS.
Функция vCenter Server High Availability позволяет обеспечить доступность для сервисов vCSA, развернув 2 экземпляра виртуального модуля и компонент Witness, обеспечивающий защиту от ситуации Split Brain:
Отметим, что кластер из серверов vCenter типа Active/Passive состоит из минимум двух машин vCSA, каждая из которых может выполнять функции сервера управления, а также из компонента Witness, который не может быть узлом vCSA, но наблюдает за доступностью серверов vCenter, чтобы выступить в роле третейского судьи при разделении кластера.
Между активным и пассивным узлами кластера серверов vCenter производится репликация на базе технологии Linux RSYNC, которая работает на уровне файлов, реплицируя конфигурацию всего сервера управления. Для репликации основной базы данных VCDB и базы данных Update Manager (VUMDB) используются средства Native vPostgres DB replication.
Если текущий узел vCSA испытывает проблемы с доступностью, происходит переключение на резервный узел (FQDN-имя сервера сохраняется без изменений):
При этом новый активный узел сразу же пытается наладить обратную репликацию на бывший основной узел и восстанавливает канал, как только он становится доступен:
Есть 2 типа развертывания vCenter HA - это Basic и Advanced. В режиме Basic все происходит почти в автоматическом режиме - администратору потребуется только настроить IP-адреса, размещение машин на хостах и хранилищах, и все - дальше мастер настройки сделает все сам.
Но режим Basic доступен только когда серверы vCenter будут находиться у вас в одном домене SSO, а сами машины vCSA будут под управлением одного vCenter (то есть, в одном инвентори).
В случае, если у вас разные домены SSO и разные виртуальные датацентры с разным инвентори для vCenter, нужно будет сделать некоторое количество ручных операций:
Добавить второй NIC на машину с VCSA, который нужно присоединить к VCHA Network Portgroup.
Через интерфейс VAMI (https://IP_FQDN:5480) настроить статический IP-адрес для внутренней сети VCHA.
В мастере VCHA Configuration Wizard выбрать опцию Advanced.
Задать IP-адреса узлов и компонентов Witness.
Склонировать виртуальную машину VCSA дважды, убедившись, что в спецификации Guest Customization указаны IP-адреса вторых адаптеров (NIC), которые вы создали для каждого клона.
Включить каждый узел и завершить на нем мастер конфигурации.
Выглядит режим Advanced следующим образом:
На этом все, посмотрите видео подетальнее, чтобы увидеть, как выглядит процесс развертывания и настройки в интерфейсе vSphere Client.
Если вы работаете с хостом VMware ESXi через "толстый" клиент vSphere Client, бывает такая ситуация, что его консоль показывает неполный экран гостевой ОС виртуальной машины.
Выглядит это примерно так:
Особенно часто это бывает, если ОС у вас, где вы запускаете клиент - Windows 10. Чтобы поправить эту ситуацию, нужно сделать следующее:
Кликнуть на иконке vSphere Client и выбрать Properties (Свойства).
Выбрать раздел Compatibility (Совместимость).
Отметить чекбокс Disable display scaling on high DPI Settings (Отключить масштабирование изображения при высоком разрешении экрана).
После этого нужно перезапустить сессию vSphere Client - и все заработает как нужно!
Компания VMware на сайте проекта Labs сделала доступной небольшую утилитку View Client Resizer, которая может оказаться полезной пользователям инфраструктуры виртуальных ПК VMware Horizon View.
С помощью Client Resizer можно выставить любое необходимое разрешение консоли клиента VMware Horizon Client for Windows:
Возможности View Client Resizer:
Вывод всех активных сессий клиента View
Выбор из большого списка разрешений, либо самостоятельный ввод необходимого разрешения
Работает на любой версии Windows
Помнит предыдущее установленное разрешение
Для использования утилиты нужно просто запустить ее исполняемый файл, выбрать нужную сессию, выбрать разрешение и нажать Resize.
Скачать VMware View Client Resizer можно по этой ссылке.
На сайте проекта VMware Labs появилась очередная полезность - утилита vSphere Content Library Assistant, которая позволяет конвертировать шаблоны виртуальных машин, доступные в vCenter, и пересылать их на хранилище Content Library в открытом формате OVF.
Напомним, что мы уже писали о компоненте Content Library, который упрощает использование образов для распределенной географически инфраструктуры. С помощью этого компонента можно смонтировать ISO-образ и накатить профиль кастомизации прямо из Content Library, а также развернуть требуемую машину из OVF-шаблона.
Теперь же с помощью vSphere Content Library Assistant можно превратить любую виртуальную машину в шаблон .vmtx, после чего преобразовать ее в формат OVF и закинуть в хранилище Content Library.
Вот какие возможности предоставляет Content Library Assistant:
Сканирование датасторов для обнаружения шаблонов, зарегистрированных на сервере vCenter
Выработка рекомендаций по способу их размещения (высокая скорость или высокая доступность)
Создание новых библиотек контента (Content Libraries)
Конвертация шаблонов vCenter в формат OVF
Импорт OVF-шаблонов во вновь созданные библиотеки контента
Утилита работает под Windows, запустите ее на сервере vCenter, после того как скачаете дистрибутив (команда $java -jar vsphere-content-library-assistant-1.0.jar в терминале). После запуска вам будет выведен список необходимых параметров, которые потребуется указать. Ну а после того, как вы запустите Content Library Assistant с нужными параметрами, утилита будет работать в интерактивном режиме, запрашивая нужные варианты дальнейших действий.
Скачать vSphere Content Library Assistant можно по этой ссылке. Ну и ждем, когда у утилиты появится GUI.
Недавно мы писали о новых возможностях VMware vSphere 6.5, где, в частности, мы рассказывали о том, что VMware vSphere Update Manager 6.5 (VUM) теперь интегрирован с vCenter Server Appliance (vCSA). Но надо отметить, что VUM теперь не просто интегрирован, а является неотъемлемой частью vCSA, что делает его очень удобным в использовании.
Его не нужно устанавливать, его можно сразу же начать применять для обновлений хостов ESXi, виртуальных машин и виртуальных модулей (Virtual Appliances):
Пройти все шаги по обновлению хостов ESXi кластера VMware HA/DRS с помощью Update Manager можно в специальном кликабельном демо (feature walkthrough) - "vSphere Update Manager Overview & Cluster Upgrade".
Давайте пройдем этот процесс по шагам:
1. Кликнем на вкладку Update Manager в vSphere Client:
2. Здесь мы видим основное представление Update Manager. Нажимаем кнопку "Go to Admin View":
3. Мы видим настройки механизма Update Manager.
Первым делом нужно будет создать базовый уровень по обновлениям хоста ESXi (Host baseline). Идем в раздел Host Baselines....читать статью далее ->>
Мы уже много писали о новых возможностях обновленной версии платформы виртуализации VMware vSphere 6.5, а сегодня расскажем еще об одной - улучшениях механизма vSphere Host Profiles.
Напомним, что vSphere Host Profiles позволяют управлять конфигурациями хост-серверов VMware ESXi за счет создания эталонных профилей хостов, которые затем можно применить на хосты, нуждающиеся в приведении к заданным настройкам.
В VMware vSphere 6.5 в механизм Host Profiles были добавлены следующие возможности (по ссылкам можно опробовать их в виде Product Walkthroughs - то есть пошаговых гайдов на примере реального интерфейса продукта):
До vSphere 6.5 результатом сравнения профиля хоста с актуальными настройками на ESXi был отчет о том, какие параметры не соответствуют, но не было сравнения side-by-side - чтобы наглядно видеть актуальные и желаемые настройки. Теперь это показано в едином представлении (Host value и Host profile value):
В кластере, как правило, хосты настроены единообразно. Однако иногда необходимо на конкретном хосте сделать особенные настройки, которые называются host customizations (ранее это были answer files). Теперь их можно экспортировать в формате CSV в отдельные файлы и редактировать их офлайн, а потом залить обратно в Host Profiles.
Графический процесс создания и редактирования профилей хостов был существенно улучшен. Кроме того, появилась возможность копирования между профилями хостов, что очень удобно при изменении одной настройки, которую надо отреплицировать во все профили. Также это позволяет создавать иерархию профилей, по которой должны спускаться некоторые настройки (например, пароль root).
Ну и напоследок - обучающее видео, в котором показаны возможности vSphere Host Profiles 6.5:
Недавно мы писали о том, что некоторое время назад компания VMware выпустила окончательную релизную версию VMware vSphere HTML5 Web Client (он же сейчас называется просто vSphere Client), а на днях VMware зарелизила и финальную версию клиента для управления отдельными хост-серверами через браузер - VMware ESXi Embedded Host Client 1.13.
Теперь Embedded Host Client будет входить в состав VMware ESXi 5.5, ESXi 6.0 и ESXi 6.5, о чем есть соответствующая пометка на VMware Labs (напомним, он распространяется в виде VIB-пакета). Далее апдейты клиентов будут выходить, как и прежде, на страничке в Labs.
Недавно мы писали о новых возможностях VMware vSphere 6.5, где одним из нововведений стала релизная версия технологии vSphere Integrated Containers, позволяющая создавать инфраструктуру виртуальных приложений Docker в виртуальных машинах vSphere.
Недавно мы уже писали о vSphere Integrated Containers, а сегодня мы расскажем об этой технологии поподробнее. Начнем с обзорного видео:
Технологию можно представить следующей диаграммой:
Ниже будет рассказано о трех основных компонентах технологии vSphere Integrated Containers, каждый из которых построен как Open Source программное обеспечение, поэтому каждая компания может использовать различные компоненты экосистемы VIC, дорабатывать их и делать вклад в развитие этих проектов. Между тем, функциональность vSphere Integrated Containers доступна только для пользователей с лицензией vSphere Enterprise Plus (видимо, считается, что технология VIC нужна только крупным компаниям).
vSphere Integrated Container Engine (VIC Engine)
Это специальный движок контейнеров, который работает не в той же виртуальной машине, что и сам контейнер, а вынесен в специальный компонент Virtual Containter Host (VCH), который представляет собой специальный объект vApp, создаваемый при развертывании. Также VCH обслуживает компонент Docker Endpoint (это маленькая ВМ), который предоставляет внешние интерфейсы для управления контейнерами через API администраторам приложений (развертывание новых контейнеров и обслуживание существующих).
IP-адрес машины Docker Endpoint передается администратором vSphere пользователям, которые развертывают и обслуживают приложения Docker. Когда пользователь VIC Engine выполняет команду:
docker run –H <IP> busybox
то небольшой образ на базе busybox вытаскивается с хранилища Docker Hub и превращается в виртуальную машину со всеми необходимыми интерфейсами внутри объекта vApp, которым является Virtual Container Host.
Этот компонент позволяет хранить образы контейнеров. Если вам необходимо поместить приложение в контейнер и распространять его в своей инфраструктуре, нужно воспользоваться таким реестром. Для движка Docker - это компонент Docker Hub.
Проблема в том, что репозиторий Docker Hub открыт абсолютно всем, поэтому VMware сделала свой репозиторий Project Harbor (это форк проекта Docker Hub), который также является Open Source-компонентом, но предоставляет отдельное корпоративное хранилище образов в рамках инфраструктуры компании. Поставляется он в виде виртуального модуля в формате OVA.
Инженеры VMware взяли исходный код Docker Registry, добавили Enteprise-возможности, такие как поддержку LDAP/AD, ролевую модель доступа, а также пользовательский интерфейс - и выделили его в отдельный проект Harbor.
Вот тут на GitHub можно найти публичный репозиторий проекта Harbor.
Container Management Portal (Project Admiral)
Это специализированный портал управления, который при операциях с контейнерами предоставляет следующие возможности:
Создание нового хоста для контейнеров ( Virtual Containter Host, VCH).
Управление квотами ресурсов.
Определение новых шаблонов контейнеров для развертывания.
Управление состоянием контейнеров.
Admiral - это расширение набора средств автоматизации vRealize Automation 7.2, которое добавляет туда возможности управления контейнерами. Информация об этом доступна здесь.
Но поскольку Admiral может быть развернут отдельно от vRA, VMware включила его в состав VIC как отдельный продукт. Кстати, не все возможности Admiral используются для виртуальных машин с контейнерами внутри, так как типа они могут конфликтовать со средствами виртуализации, но все основные функции там есть.
Посмотрите, как работает Admiral:
Публичный репозиторий Project Admiral находится здесь. Помните, что он все еще находится в состоянии беты!
Таги: VMware, vSphere, VIC, Update, Open Source, Docker
Недавно мы писали об основных новых возможностях VMware vSphere 6.5, среди которых не упомянули о том, что в новой версии платформы теперь полностью поддерживается репликация томов VVols. Именно отсутствие репликации было для многих критичным фактором, препятствующим внедрению VVols 2.0 в производственных средах. Об репликации VVols 2.0 мы уже подробно рассказывали вот тут.
Репликация стала возможной благодаря обновленному интерфейсу APIs for Storage Awareness (VASA) версии 3.0. VASA 3.0 предоставляет компоненты политик движка SPBM, который позволяет скомбинировать политику VVol и фильтр интерфейса VAIO Filter, для которого могут предоставляться такие сервисы, как шифрование (VMCrypt), репликация или кэширование от сторонних производителей программного и аппаратного обеспечения.
Попросту говоря, за счет API VASA и VAIO можно поддерживать различные функции VVols на базе хранилищ, а со стороны хостов ESXi предоставлять различные сервисы, обеспечиваемые фильтрами, для виртуальных машин на базе политик SPBM.
Совсем скоро эти возможности будут поддерживаться в Nimble и HPE 3PAR, а впоследствии будут доступны и у других вендоров.
Напомним, что с VVols 2.0 можно реплицировать не весь том VMFS целиком, а отдельную виртуальную машину (и даже отдельные виртуальные диски). Также несколько ВМ можно реплицировать в рамках одной Replication Group (при этом сразу в несколько географически разнесенных локаций).
Кроме того, уже доступны командлеты PowerCLI для управления репликацией на базе VVols (Get-SpbmReplicationPair, Start-SpbmReplicationFailover, Sync-SpbmReplicationGroup и прочие).
Компания VMware сделала доступным весьма полезный ресурс StorageHub, который будет интересен всем тем, кто хочет узнать все об использовании виртуальных и физических хранилищ под виртуальные машины на базе платформы VMware vSphere. Также на StorageHub есть документы и об инструментах обеспечивающих доступность виртуальных сервисов (например, VMware Site Recovery Manager):
Недавно мы писали о новых возможностях VMware vSphere 6.5, где упомянули, что VMware vSphere HTML5 Web Client, о котором мы много писали, еще не совсем функционален, а потому не может быть рекомендован к использованию в производственной среде.
Между тем, на сайте VMware Labs, где выкладываются регулярные обновления клиента, появился апдейт с важной информацией о том, что теперь VMware vSphere HTML5 Web Client полностью вышел в релиз, а сам клиент называется теперь vSphere Client (и поставляется в составе vSphere 6.5 и выше).
Текущая версия vSphere Client - это 2.16, а мы писали про 2.8, поэтому приведем здесь вкратце новые возможности последних версий (2.9, 2.10, 2.11, 2.12, 2.13, 2.14, 2.15 и 2.16), которые вместе уже и составляют полноценный спектр возможностей нового веб-клиента vSphere.
Настройка параметров CHAP для iSCSI-адаптеров
Детали сети для привязки портов Software iSCSI и полное редактирование настроек
Включение/выключение логгирования для ВМ в настройках
Изменение свойств и политик стандартных порт-групп коммутаторов
Хосты могут быть передвинуты в инвентори драг энд дропом
Удаление нескольких ВМ с диска
Удаление шаблонов ВМ с диска
Действие
Upload Folder в File Browser (доступно только для Chrome, Edge и Firefox 50 и выше)
Возможность задать тип сети в настройках ВМ
Портлеты на странице Summary можно перемещать драг энд дропом
Действие Upgrade to VMFS5
Диаграмма Partition Layout в разделе создания датастора и при увеличении датастора
Монтирование/размонтирования хранилищ NFS
Просмотр, редактирование свойств и политик Distributed Port Groups
Добавление/удаление физических адаптеров и порт групп для Standard или Distributed Switch
Редактирование и просмотр свойств и политик стандартного коммутатора
Графики производительности можно открыть в новом окне
Можно создавать и удалять кластеры хранилищ
Возможность включить проброс (passthrough) для устройств ESXi PCI
Можно смотреть использование GPU серверов ESXi
Настройки Storage I/O Control
Возможность привязки/отвязки устройств на странице Host Storage Devices
Конвертирование и клонирование ВМ в шаблон
Создание датасторов NFS3 / NFS4.1 (в том числе, в режиме Read-only)
Управление политиками доступа по нескольким путям (Multipathing)
Монтирование/размонтирование томов VMFS
Горячие клавиши для операций с питанием ВМ
Rescan storage (новых томов VMFS и устройств)
Детали разделов в Host > Configure > Storage Devices
Детали устройств в Datastore > Configure > Device Backing
Управление Lockdown mode для ESXi
Хосты ESXi можно присоединить к домену
Полное управление тэгами
Скачать vSphere Client можно по этой ссылке. Также он доступен в составе дистрибутива vSphere 6.5.
Вместе с новой версией платформы VMware vSphere 6.5 компания VMware выпустила также и обновления своих интерфейсов командной строки. О новых возможностях VMware PowerCLI 6.5 мы уже писали, а в этой заметке расскажем о командном интерфейсе ESXi - vSphere Command-Line Interface (vCLI) 6.5.
Напомним, что vCLI позволяет выполнять консольные команды, которые также доступны и через виртуальный модуль vSphere Management Assistant (vMA), на серверах VMware ESXi из системы с различными ОС.
Интерфейс ESXCLI
С точки зрения интерфейса ESXCLI появились возможности управления FCOE-адаптерами, настройками NIC queuing и coalescence, параметрами проброса USB pass-through, обработка управления устройствами NVMe, а также управления конфигурациями vSAN iSCSI.
Вот примеры исполнения этих команд:
esxcli device driver list
esxcli fcoe adapter remove
esxcli fcoe nic enable
esxcli graphics device stats list
esxcli graphics host get
esxcli hardware usb passthrough device enable
esxcli hardware usb passthrough device list
esxcli network multicast group list
esxcli network nic queue filterclass list
esxcli network nic queue loadbalancer list
esxcli nvme device list
esxcli nvme device firmware activate
esxcli nvme device firmware download
esxcli nvme device log error get
esxcli software vib signature verify
esxcli storage vmfs reclaim config get
esxcli system coredump vsan get
esxcli system wbem get
esxcli vsan iscsi homeobject get
esxcli vsan iscsi status get
Интерфейс Datacenter CLI
Также появились и улучшения интерфейса Datacenter CLI (DCLI), который позволяет управлять глобальными сущностями виртуального датацентра. Теперь доступны команды для мониторинга и управления виртуальным модулем vCSA в различных аспектах, таких как сетевое взаимодействие, статус модуля, доступ, выполнение операций резервного копирования и восстановления, а также просмотр параметров аптайма и версии. Кроме того, есть функции для сбора информации об окружении vCenter - датацентрах, сетях, папках, хостах, кластерах и прочем. Ну и появились функции для управления жизненным циклом ВМ.
Вот некоторые примеры:
appliance monitoring
appliance vmon service
appliance networking interfaces
appliance networking dns servers
appliance health load
appliance health system
appliance health storage
appliance health softwarepackages
appliance access ssh
appliance recovery backup
appliance recovery restore
appliance system uptime
appliance system version
vcenter datacenter
vcenter network
vcenter folder
vcenter vm hardware
vcenter vm power
vcenter vm hardware memory
vcenter vm hardware cpu
Все работает с интерактивными подсказками:
Улучшения поддержки ОС
Теперь была добавлена поддержка следующий операционных систем:
Ubuntu 15.10 (LTS) – 64-bit
Ubuntu 16.04 (LTS) – 64-bit
Windows 10 (64-bit)
Для Windows-систем вам потребуется наличие ActivePerl или Strawberry Perl версии 5.14.
На днях компания VMware выпустила интереснейший технический документ обо всех новых возможностях новой версии своей флагманской платформы виртуализации - "What’s New in VMware vSphere 65".
Напомним, что о новых возможностях VMware vSphere 6.5 мы уже писали вот тут. Также можно посмотреть наши заметки тут, тут и тут. А вот содержание документа:
VMware vCenter Server
Migration
Improved Appliance Management
VMware vCenter High Availability
Backup and Restore
vSphere Web Client
vSphere Client
vSphere Host Lifecycle Management Enhancements
vSphere Update Manager
VMware Tools and Virtual Hardware Upgrades
Previous Windows-Based Architecture Still Offered
Host Profiles
Profile Management Improvements
Operational Enhancements
Auto Deploy
Manageability Improvements
Performance and Resiliency Enhancements
VMware Tools 10.1 and 10.0.12
Signed ISO Images
Bifurcation of VMware Tools for Legacy and Current Guests
Bundling of Tools for Most Popular Guests Only
Guest OS Granularity Increase
Detailed Display of VMware Tools Type and Version in vSphere Web Client
Improved Detection of Availability of Updated VMware Tools Installers
vSphere Operations
Operations Management
Log Monitoring
Developer and Automation Interfaces
Program Interfaces
vCenter Server Appliance API
Virtual Machine API
Discover the APIs with the New API Explorer
Process Improvements
Command-Line Interfaces
What’s New in VMware vSphere
VMware PowerCLI
Core vSphere Module
Storage Module
VMware Horizon Module
Security
Virtual Machine Encryption
Encrypted vMotion
Secure Boot Support
Virtual Machine Secure Boot
ESXi Host Secure Boot
Enhanced Logging
VM Sandboxing
Automation
vSphere 65 Availability Enhancements
Proactive HA
VMware vSphere High Availability Orchestrated Restart
На сайте проекта VMware Labs появилась утилита Cross vCenter VM Mobility, которая может оказаться полезной администраторам, у которых в ведении находится несколько виртуальных датацентров, каждый из которых управляется своим сервером VMware vCenter.
Cross vCenter VM Mobility позволяет через интерфейс командной строки (CLI) перенести машину между серверами vCenter, которые связаны в режиме Linked Mode или размещены независимо друг от друга. Надо отметить, что в режиме Linked Mode и так можно перемещать виртуальную машину между датацентрами, поэтому полезна утилита именно для несоединенных vCenter.
Утилита позволяет производить как перенос нужной ВМ, так и клонирование в другое окружение vCenter. Построена она на базе vSphere Java SDK API.
Запустить ее можно следующим образом (вам потребуется jdk 1.7):
Авторы утилиты не рекомендуют использовать ее для миграции связанных клонов. Загрузить Cross vCenter VM Mobility и получить дополнительную информацию можно по этой ссылке.
Этот виртуальный модуль в формате OVA создан для того, чтобы развернуть хост-серверы ESXi в виде виртуальных машин на платформе vSphere в целях обучения и тестирования. Помните, что VMware не поддерживает вложенную (nested) виртуализацию в производственной среде.
Вот конфигурация виртуального модуля:
GuestType: ESXi 6.5[новое]
Virtual Hardware 11 [новое]
2 vCPU
6 GB памяти
2 x VMXNET vNIC
1 x PVSCSI Adapter [новое]
1 x 2GB HDD (под установку самого ESXi)
1 x 4GB SSD (для использования с vSAN, по умолчанию пустой)
1 x 8GB SSD (для использования с vSAN, по умолчанию пустой)
Для запуска виртуального ESXi 6.5 вам потребуется как минимум VMware vSphere 6.0 Update 2. Кстати, а вот какие улучшения появились для виртуального ESXi, которые можно опробовать в версии 6.5:
Поддержка Paravirtual SCSI (PVSCSI)
GuestOS Customization
Поддержка ESXi 6.5 со стороны vSphere 6.0 Update 2
Поддержка Virtual NVMe
Скачать виртуальный модуль VMware ESXi 6.5 Virtual Appliance можно по этой ссылке.
Недавно компания VMware выпустила новую версию платформы vSphere 6.5, о новых возможностях которой мы писали вот тут. Между тем, в плане хранилищ было сделано несколько важных улучшений, которые заслуживают отдельного поста. Большинство из этого реализуемо только на базе файловой системы VMFS 6.0, которая также появилась в vSphere 6.5.
1. Возврат дискового пространства хранилищу (Storage UNMAP).
Эта возможность была еще в VMware ESXi 5.0, но пропала по некоторым техническим причинам в следующих версиях. Теперь она полноценно была реализована в двух вариантах:
Automatic UNMAP
Поддержка Linux-based In-Guest UNMAP
Automatic UNMAP - это возврат дискового пространства виртуальной машины (ее VMDK) на сторону дискового массива средствами VAAI (vStorage API for Array Integration). Если раньше эта возможность требовала выполнения различных команд, то теперь управление этой штукой доступно из GUI, а возврат дисковых блоков происходит автоматически.
Для работы этой возможности вам понадобятся:
ESXi 6.5+
vCenter 6.5+
VMFS 6
Дисковый массив с поддержкой UNMAP
Если мы в настройках хранилища откроем вкладку Configure:
И далее нажмем Edit в разделе Space Reclamation Priority, то мы увидим вот такую настройку:
Здесь устанавливается приоритет, в соответствии с которым свободные блоки будут автоматически возвращены к LUN. Надо понимать, что UNMAP - это асинхронный процесс, который выполняет специальный crawler, потому и задается его приоритет. Понятное дело, что если задать высокий приоритет, то создастся дополнительная нагрузка на хранилища.
Кстати, для немедленного возврата дискового пространства можно воспользоваться командой esxcli storage vmfs unmap.
Поддержка Linux-based In-Guest UNMAP в vSphere 6.5 появилась впервые. Для ее работы нужна поддержка со стороны гостевой ОС Linux и ее файловой системы. Ну и работает это все только для тонких (thin) дисков.
Работает она не полностью автоматически, а запустить ее можно тремя способами:
Смонтировать файловую систему с опцией discard. Это будет возвращать простраство автоматически, когда будут удаляться файлы.
Выполнение команды sg_unmap. Это запустит механизм UNMAP для выбранных LBA.
Выполнение fstrim. Это вызовет команды trim, которые ESXi конвертирует в операции механизма UNMAP на уровне слоя vSCSI.
2. Функция Thin Hot Extend.
Это очень полезная штука была несколько ранее - она позволяла на горячую увеличить размер тонкого диска.
Вся загвоздка была в том, что диск можно было увеличить только до 2 ТБ, иначе возникала вот такая ошибка:
Теперь же можно задавать виртуальный диск любого размера.
3. Поддержка 4K-дисков в режиме 512e.
Теперь расширенный формат дисковых устройств 4K поддерживается со стороны vSphere 6.5, однако в режиме эмуляции 512e (то есть для 4к-девайсов эмулируются 512-байтные сектора). Такая же поддержка есть и в VMware Virtual SAN 6.5.
Полная поддержка 4k-устройств в нативном режиме ожидается в ближайшем будущем.
4. Поддержка до 512 устройств и 2000 путей.
Ранее платформа vSphere поддерживала 256 устройств и 1024 пути к одному хранилищу. И некоторые умудрялись упираться в лимиты, поэтому для таких клиентов и было сделано увеличение максимумов.
5. Увеличение лимита CBRC (он же View Storage Accelerator).
Про механизм кэширования Content Based Read Cache (CBRC) мы писали вот тут. Он позволяет увеличить производительность операций чтения для наиболее часто читаемых блоков виртуальных ПК за счет кэширования в оперативной памяти хоста VMware ESXi.
Ранее он был ограничен объемом в 2 ГБ, а теперь увеличился до 32 ГБ:
Теперь в vSphere 6.5 есть механизм для переподписки так называемых unresolved volumes, то есть томов, которые отвязались от основного по каким-то причинам, и теперь их метаданные являются не соответствующими текущей структуре файловой системы. Так, например, бывает в процессе резервного копирования, когда остается какой-нибудь повисший на диске снапшот, который не видно из GUI клиента vSphere.
В этом плане была проделана существенная работа и сделано множество улучшений, о которых можно прочитать тут.
Это основные, но не все улучшения VMware vSphere 6.5 в плане хранилищ, а если хочется узнать обо всех, то почитайте документ "vSphere 6.5 Storage", где очень много всего интересного.
А недавно на сайте blog.igics.com появился интересный и полезный PowerCLI-сценарий, который позволит вам вывести в одном гриде (или в файл) все виртуальные машины и версии VMware Tools в них. Вы, конечно же, можете посмотреть версии VMware Tools в vSphere Client, но если у вас большая инфраструктура, да еще и несколько серверов vCenter, то следить за версиями тулзов во всех виртуальных машинах через клиент будет затруднительно.
И тут на помощь вам придет следующий скрипт:
######################################################################################################################################
# Author: David Pasek
# E-mail: david.pasek@gmail.com
# Twitter: david_pasek
# Creation Date: 2016-11-25
#
# Use case:
# Key use case of this script is to report VMtools from all VMs in vCenter
#
# Disclaimer:
# Use it on your own risk. Author is not responsible for any impacts caused by this script.
######################################################################################################################################
#
# CHANGE FOLLOWING VARIABLES BASED ON YOUR SPECIFIC REQUIREMENTS
# vvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvvv
#
# Report type - table, grid, file, csv-file
$REPORT_TYPE = "csv-file"
# Report file name without file extension. Extension is automatically added. File is created in current working directory.
$REPORT_FILE_NAME = "report-vmtools"
######################################################################################################################################
Clear-Host
# We need VMware PowerCLI snapin
$o = Add-PSSnapin VMware.VimAutomation.Core
$o = Set-PowerCLIConfiguration -InvalidCertificateAction Ignore -Confirm:$false
# Connect to vCenter
Write-Host "Connecting to vCenter ..."
$VC = Read-Host "Enter one vCentre Server or multiple vCenter servers delimited by comma."
Write-Host "Enter vCenter credentials ..."
$CRED = Get-Credential
Connect-VIServer -Server $VC -Credential $CRED -ErrorAction Stop | Out-Null
# Add new property (ToolsVersion) to VM
New-VIProperty -Name ToolsVersion -ObjectType VirtualMachine -ValueFromExtensionProperty 'Config.tools.ToolsVersion' -Force | Out-Null
# Initalize report
$Report = @()
foreach ($vm in Get-VM) {
# Numbers mapping is from https://packages.vmware.com/tools/versions
Switch ($vm.ToolsVersion) {
7302 {$GuestToolsVersion = "7.4.6"}
7303 {$GuestToolsVersion = "7.4.7"}
7304 {$GuestToolsVersion = "7.4.8"}
8192 {$GuestToolsVersion = "8.0.0"}
8194 {$GuestToolsVersion = "8.0.2"}
8195 {$GuestToolsVersion = "8.0.3"}
8196 {$GuestToolsVersion = "8.0.4"}
8197 {$GuestToolsVersion = "8.0.5"}
8198 {$GuestToolsVersion = "8.0.6"}
8199 {$GuestToolsVersion = "8.0.7"}
8290 {$GuestToolsVersion = "8.3.2"}
8295 {$GuestToolsVersion = "8.3.7"}
8300 {$GuestToolsVersion = "8.3.12"}
8305 {$GuestToolsVersion = "8.3.17"}
8306 {$GuestToolsVersion = "8.3.18"}
8307 {$GuestToolsVersion = "8.3.19"}
8384 {$GuestToolsVersion = "8.6.0"}
8389 {$GuestToolsVersion = "8.6.5"}
8394 {$GuestToolsVersion = "8.6.10"}
8395 {$GuestToolsVersion = "8.6.11"}
8396 {$GuestToolsVersion = "8.6.12"}
8397 {$GuestToolsVersion = "8.6.13"}
8398 {$GuestToolsVersion = "8.6.14"}
8399 {$GuestToolsVersion = "8.6.15"}
8400 {$GuestToolsVersion = "8.6.16"}
8401 {$GuestToolsVersion = "8.6.17"}
9216 {$GuestToolsVersion = "9.0.0"}
9217 {$GuestToolsVersion = "9.0.1"}
9221 {$GuestToolsVersion = "9.0.5"}
9226 {$GuestToolsVersion = "9.0.10"}
9227 {$GuestToolsVersion = "9.0.11"}
9228 {$GuestToolsVersion = "9.0.12"}
9229 {$GuestToolsVersion = "9.0.13"}
9231 {$GuestToolsVersion = "9.0.15"}
9232 {$GuestToolsVersion = "9.0.16"}
9233 {$GuestToolsVersion = "9.0.17"}
9344 {$GuestToolsVersion = "9.4.0"}
9349 {$GuestToolsVersion = "9.4.5"}
9350 {$GuestToolsVersion = "9.4.6"}
9354 {$GuestToolsVersion = "9.4.10"}
9355 {$GuestToolsVersion = "9.4.11"}
9356 {$GuestToolsVersion = "9.4.12"}
9359 {$GuestToolsVersion = "9.4.15"}
9536 {$GuestToolsVersion = "9.10.0"}
9537 {$GuestToolsVersion = "9.10.1"}
9541 {$GuestToolsVersion = "9.10.5"}
10240 {$GuestToolsVersion = "10.0.0"}
10245 {$GuestToolsVersion = "10.0.5"}
10246 {$GuestToolsVersion = "10.0.6"}
10247 {$GuestToolsVersion = "10.0.8"}
10249 {$GuestToolsVersion = "10.0.9"}
10252 {$GuestToolsVersion = "10.0.12"}
10272 {$GuestToolsVersion = "10.1.0"}
0 {$GuestToolsVersion = "Not installed"}
2147483647 {$GuestToolsVersion = "3rd party - guest managed"}
default {$GuestToolsVersion = "Unknown"}
}
$vminfo = New-Object -Type PSObject -Property @{
Name = $vm.Name
VMhardwareVersion = $vm.Version
ToolsVersion = $vm.ToolsVersion
GuestToolsVersion = $GuestToolsVersion
}
$Report += $vminfo
}
# Show report
Switch ($REPORT_TYPE) {
"grid" { $Report | select Name,VMhardwareVersion,ToolsVersion,GuestToolsVersion | Out-GridView }
"file" { $Report | select Name,VMhardwareVersion,ToolsVersion,GuestToolsVersion | Out-File -FilePath "$REPORT_FILE_NAME.txt" }
"csv-file" { $Report | select Name,VMhardwareVersion,ToolsVersion,GuestToolsVersion | export-csv "$REPORT_FILE_NAME.csv" }
default { $Report | select Name,VMhardwareVersion,ToolsVersion,GuestToolsVersion | Format-Table }
}
Disconnect-VIserver -Server $VC -Force -Confirm:$false
Форму отчета можно редактировать в переменной $REPORT_TYPE, которая задает одно из следующих представлений:
Стандартный вывод таблицы PowerShell в терминале (значение table)
Представление PowerShell GridView (grid)
Текстовый файл, содержащий таблицу (file)
Файл Comma separated values (csv-file)
Прогнав скрипт, мы получим вот такой результат, из которого можно сделать вывод о том, в каких виртуальных машинах нужно обновить VMware Tools (показывается еще и Virtual Hardware Version):
Недавно мы писали об обновленных максимумах конфигурации VMware vSphere 6.5, которые изменились в целом несущественно. В новой версии платформы также обновится и версия виртуального аппаратного обеспечения - теперь виртуальные машины будут иметь VMware Virtual Hardware Version 13.
В таблице ниже можно наглядно увидеть, как менялись возможности виртуальных машин на платформе VMware ESX/ESXi, и что теперь может ВМ на платформе vSphere 6.5:
Возможность
ESXi 6.5
ESXi 6.0
ESXi 5.5
ESXi 5.1
ESXi 5.0
ESX/ESXi 4.x
ESX/ESXi 3.5
Версия виртуального аппаратного обеспечения (Hardware Version)
С выходом обновленной версии платформы VMware vSphere 6.5 появилось еще больше причин переехать с обычного сервера vCenter под Windows на виртуальный модуль VMware vCenter Server Appliance (vCSA) на основе Linux. Например, vCSA имеет встроенный механизм обеспечения отказоустойчивости (VCHA), полноценно интегрированный Update Manager, который работает быстрее, а также обладает рядом других преимуществ.
Между тем, если вы попробуете зайти на сервер vCSA с помощью WinSCP, чтобы получить оттуда файлы или загрузить их туда, то вы не сможете этого сделать:
Это все потому, что на vCSA вместо Bash Shell включена оболочка Appliance Shell со своими командами и интерфейсами, которую WinSCP не понимает. Для того чтобы переключиться на Bash Shell, нужно зайти на хост vCSA по SSH и ввести следующие команды:
shell.set --enabled true
shell
Это временно переключит вас в командную оболочку Bash Shell. Теперь чтобы переключиться на нее на постоянной основе, нужно ввести следующую команду:
chsh -s /bin/bash root
После логаута вы сможете зайти на хост через WinSCP и спокойно копировать файлы. Ну а чтобы переключиться обратно на Appliance Shell нужно в консоли SSH ввести:
chsh -s /bin/appliancesh root
Кстати, в vSphere 6.5 компания VMware сменила базовую ОС виртуального модуля vCSA со SLES Linux на Photon OS, что очень позитивно сказалось на скорости загрузки и работы, но приведет к тому, что если вы использовали какие-то скрипты для консоли vCSA - они, скорее всего, перестанут работать.
На днях компания VMware выпустила несколько интересных технических документов, которые могут оказаться полезными в свете выхода новой версии платформы виртуализации VMware vSphere 6.5. Но для начала - интересный ролик о создании кластеров VMware Virtual SAN в маршрутизируемых сетях:
Видео будет полезно всем тем, кто хочет создавать распределенные кластеры Virtual SAN, разнося узлы по разным подсетям. На эту тему есть также несколько полезных ресурсов:
В рамках стрессового тестирования, описанного в документе, были проверены следующие аспекты работы VCHA (vCenter High Availability):
Скорость восстановления VCHA и выполнение политики recovery time objective (RTO)
Производительность сервера при включенном VCHA
Накладные расходы VCHA
Влияние на статистики vCenter Server
Влияние на сеть
Сравнение External Platform Services Controller (PSC) со встроенным Embedded PSC
Второй документ - это "vSphere 6.5 Update Manager Performance and Best Practices". Там описаны лучшие практики по эксплуатации VMware Update Manager и рассказано о производительности VUM. Весьма интересна следующая картинка из документа:
Выходит, что VUM on Linux (который интегрирован с vCSA) работает существенно быстрее, чем его коллега под Windows (в 2 раза для некоторых операций).
Третий документ - "vSphere Virtual Machine Encryption Performance". Не так давно мы писали о том, как работает механизм шифрования в VMware vSphere 6.5, а из этого документа вы узнаете, насколько быстро он работает.
В документе множество графиков, показывающих, что latency при шифровании особенно не меняется (незначительно увеличивается), а вот нагрузка на CPU увеличивается где-то на 20%, что, впрочем, тоже не так уж и много.
Таги: VMware, Whitepaper, VUM, HA, vCenter, Performance
На сайте проекта VMware Labs не так давно появилась очередная полезная утилита для администраторов vSphere - PowerCLI Core. Эта штука позволяет пользователям применять те же самые командлеты PowerCLI на системах Linux, Mac и Docker, которые ранее были доступны только для Windows.
PowerCLI Core использует компоненты Microsoft PowerShell Core и .Net Core.
PowerCLI Core предоставляет мультиплатформенный язык сценариев, который позволяет управлять инфраструктурой VMware vSphere практически с любой ОС. Скрипты PowerCLI, которые были написаны ранее только для Windows-версий фреймворка, теперь можно портировать на различные операционные системы и запустить эти сценарии в них без необходимости их изменения.
На данный момент фреймворк реализует более 280 командлетов, но касаются они только основных возможностей vCenter и ESXi, а также распределенного виртуального коммутатора (vDS). Модули для работы с хранилищами, лицензиями и VMware Update Manager пока не поддерживаются:
Также пока нет и поддержки других расширенных модулей:
Как многие из вас знают, совсем недавно компания VMware сделала доступной для скачивания новую версию серверной платформы виртуализации VMware vSphere 6.5. Традиционно, с каждой новой версией происходит увеличение максимумов конфигурации различных компонентов платформы. Приведем их сравнение ниже:
Хосты VMware ESXi 6.5 и виртуальные машины:
Максимальная конфигурация
vSphere 6.5
vSphere 6.0
Объем RAM на виртуальную машину
6 ТБ
4 ТБ
Видеопамяти на ВМ
2 ГБ
512 МБ
Логических CPU на хост ESXi
576
480
Общее число путей к хранилищам на сервере ESXi
2048
1024
Число адресуемых FC LUN ID
16383
1032
Логических томов на хост ESXi
512
256
Серверы vCenter:
Максимальная конфигурация
vSphere 6.5
vSphere 6.0
Хостов ESXi на один vCenter Server
2000
1000
Включенных виртуальных машин
25000
10000
Зарегистрированных виртуальных машин
35000
15000
Число хостов в виртуальном датацентре
2000
500
Виртуальных машин на один кластер
8000
4000
Хостов на один распределенный виртуальный коммутатор (virtual distributed switch, vDS)
2000
1000
И познавательная инфографика максимальных конфигураций платформы виртуализации ESX/ESXi от первой версии до 6.5 от virten.net (кликабельно):
Ну и, конечно, полезно посмотреть документ "Configuration Maximums vSphere 6.5", который был также обновлен с выходом новой версии платформы.
На днях компания VMware выпустила обновленную версию интерфейса PowerShell для управления виртуальной инфраструктурой VMware PowerCLI 6.5 R1, которая вышла сразу же после VMware vSphere 6.5.
Давайте посмотрим на новые возможности PowerCLI 6.5 R1:
Обновленные командлеты
Move-VM – теперь можно перемещать машины между серверами vCenter (а также между доменами SSO).
New-VM – можно задавать число ядер CPU.
Open-VMConsoleWindow – теперь поддерживается последняя версия VMware Remote Console (VMRC).
Также другие командлеты были обновлены, чтобы соответствовать vSphere 6.5 API.
Новые Storage Modules
В этой версии PowerCLI появилось множество модулей для работы с хранилищами, которые добавляют функциональность для работы с vSAN, VVOLs и виртуальными дисками. Теперь есть множество командлетов, сфокусированных на жизненном цикле всего кластера vSAN, создание которого теперь может быть полностью автоматизировано.
Вот новые модули, относящиеся к Virtual SAN:
Get-VsanClusterConfiguration
Get-VsanDisk
Get-VsanDiskGroup
Get-VsanFaultDomain
Get-VsanResyncingComponent
Get-VsanSpaceUsage
New-VsanDisk
New-VsanDiskGroup
New-VsanFaultDomain
Remove-VsanDisk
Remove-VsanDiskGroup
Remove-VsanFaultDomain
Set-VsanClusterConfiguration
Set-VsanFaultDomain
Test-VsanClusterHealth
Test-VsanNetworkPerformance
Test-VsanStoragePerformance
Test-VsanVMCreation
Update-VsanHclDatabase
Теперь также появились отдельные командлеты для работы с виртуальными дисками (при этом нет необходимости обращаться к самой виртуальной машине):
Copy-VDisk
Get-VDisk
Move-VDisk
New-VDisk
Remove-VDisk
Set-VDisk
Также есть группа командлетов, которая позволяет управлять новой фичей репликации VVOL, которая появилась в vSphere 6.5. Теперь можно искать fault domains и replication groups, синхронизировать их, а также подготавливать и стартовать процесс фейловера на целевую площадку:
Get-SpbmFaultDomain
Get-SpbmReplicationGroup
Get-SpbmReplicationPair
Start-SpbmReplicationFailover
Start-SpbmReplicationPrepareFailover
Sync-SpbmReplicationGroup
Совместимость с различными версиями vCenter, vSAN и SRM
Теперь PowerCLI 6.5 поддерживает все версии vCenter до 5.5:
А вот поддерживаемые версии vSAN и Site Recovery Manager (SRM):
Horizon Module
Теперь появился отдельный модуль, предназначенный для работы с решением VMware Horizon (пока поддерживается только Horizon 7.0.2). Теперь можно соединяться с Horizon Connection server, используя Connect-HVServer и Disconnect-HVServer, и выполнять различные действия, которые опубликованы через API. Загляните в репозиторий PowerCLI Examples, чтобы посмотреть на примеры использования.
PowerCLI Core
Теперь виртуальный модуль PowerCLI Core также имеет поддержку vSphere 6.5 API. То есть новыми командлетами теперь могут пользоваться и пользователи систем Linux, Mac и Docker.
Скачать VMware PowerCLI 6.5 R1 можно по этой ссылке. Release notes доступны тут, User Guide можно скачать здесь, а changelog вот тут.