На днях компания VMware выпустила мажорное обновление своего основного интерфейса для управления виртуальной инфраструктурой с помощью скриптов - PowerCLI 10.0.0. О предварительных возможностях этого релиза мы уже писали вот тут.
Давайте посмотрим, что нового появилось в PowerCLI 10:
1. Настоящая (почти) мульти-платформенность.
Теперь PowerCLI доступен для систем Mac OS и Linux. Единственное требование - у вас должен быть развернут PowerShell Core 6.0.
На данный момент для Мака и Linux поддерживаются только следующие модули:
VMware.VimAutomation.Common
VMware.VimAutomation.Sdk
VMware.VimAutomation.Core
VMware.VimAutomation.Cis.Core
VMware.VimAutomation.Vds
VMware.VimAutomation.Storage
VMware.VimAutomation.StorageUtility
Со временем эта поддержка будет расширена.
2. Изменения обработки сертификатов.
Теперь при соединении с сервером vCenter или ESXi через командлет Connect-VIServer с невалидным сертификатом (например, самоподписанным) PowerCLI выдаст уже не предупреждение, как в прошлых релизах, а ошибку. Чтобы изменить это поведение, вам потребуется использовать командлет Set-PowerCLIConfiguration:
Недавно мы писали о решении VMware Workspace ONE, которое построено (в том числе) на базе продуктовой линейки AirWatch. Оно позволяет привести в соответствие корпоративным политикам инфраструктуру клиентских устройств (телефонов, планшетов, настольных ПК).
Так как системы Windows CE и Windows Embedded Handheld 6.5 уже пришли к своему концу в корпоративных средах, то многие организации начинают миграцию на системы Android Enterprise для своих смартфонов и планшетов. Ну а на днях компания VMware объявила о поддержке этой системы в своем решении Workspace ONE для специализированных (purpose-buit) устройств. Это такие устройства, которые выполняют однотипные операции и служат для выполнения специфической задачи. Например, это может быть инвентаризация склада с помощью сканера штрих-кодов или терминал продаж через телефон (mobile point-of-sale - mPOS).
Вот что может дать Android Enterprise для мобильной инфраструктуры предприятия, построенной на базе корпоративных унифицированных устройств:
Единые средства управления существующим парком специализированных устройств компании (обновления, развертывание приложений).
Доставка публичных и внутренних сервисов с использованием технологии Google Play Protect (анализ опасного поведения приложений).
Адаптирование к требованиям рынка и поддержка основных приложений. За исключением iOS, на данный момент платформа Android является единственным решением для предприятий, где конечные пользователи могут использовать все последние приложения для бизнеса.
Поддержка Android Enterprise со стороны VMware Workspace ONE позволит выполнять следующие задачи:
Развертывание и настройка приложений с учетом политик. Как правило, мобильные устройства находятся физически за пределами компании. Поэтому Workspace ONE позволит настроить VPN через Wi-Fi или LTE-соединения, провести развертывание приложения и поддерживать его в соответствии с заданными правилами. Например, можно настроить обновление приложения только после окончания рабочего дня, и только когда батарея достаточно заряжена.
Доставка приложений и настройка окружения для пользователя. С помощью Workspace ONE можно настроить окружение специализированного устройства для одного или нескольких приложений таким образом, чтобы пользователю эти настройки были недоступны. Технология AirWatch Launcher позволит настроить устройство, например, в качестве средства для заказа в ресторане на столике посетителя. Также AirWatch поддерживает специфические OEM-сервисы, такие как, например, Zebra Mobility Extensions (Mx).
Удаленное управление и контроль. Средства Workspace ONE позволяют проводить удаленное решение проблем, что очень актуально для сотрудников работающих "в поле". Например, если что-то не так с устройством водителя грузовика, но у него есть интернет - техподдержка может смотреть на экран устройства и в реальном времени решать проблему приложения, видя то же, что и водитель.
На данный момент поддержка Android Enterprise уже есть для следующих окружений:
GMS-сертифицированные устройства с Android 5.0 Lollipop и более поздними.
Решение AirWatch Console 9.2.
Агенты Android Agent 8.0+ или Zebra Mx Service 3.0+.
В блоге VCDX133 появился интересный и полезный список основных ключевых моментов в различных аспектах проектирования инфраструктуры VMware vSphere. Он будет полезен архитекторам и системным инженерам, которые планируют внедрение большой инфраструктуры виртуализации и хотят учесть все основные функции платформы, а также избежать проблем в будущем при масштабировании архитектуры.
Кстати, этот список можно использовать как высокоуровневый опросник перед началом фазы проектирования, чтобы выяснить ключевые потребности заказчика и далее превратить это все в техническое задание на базе полученных требований.
Приведем данный список ниже:
Бизнес-задачи и проблемы
Какие основные задачи стоят при внедрении?
Какие проблемы заказчика предполагается решить?
Варианты использования платформы
Какие варианты использования инфраструктуры VMware предполагает сам заказчик?
Требования/Ограничения/Допущения
Каковы основные требования, какие ограничения учесть, о какие допущениях и неочевидных моментах нужно проинформировать заказчика.
Риски
Какие риски внедрения решения (например, простои при миграции) и каковы способы их минимизации? Есть ли специфические задачи, тесты и процедуры, которым нужно следовать в таком случае.
A. Управление виртуальным датацентром
Решения в области логической архитектуры
Общий объем объединяемых в пул ресурсов (вычислительные мощности, сети и хранилища).
Какие сервисы будет предоставлять инфраструктура.
Необходимый уровень доступности для систем управления платформой виртуализации.
Интеграция со сторонними решениями: IT Service Management, Infrastructure Management systems, Enterprise services (DNS, LDAP, NTP, PKI, Syslog, SNMP Traps), сбор данных агентами систем различных вендоров.
Необходимы ли расширенные операции, не предоставляемые из коробки?
Механизмы защиты рабочих нагрузок гипервизора (vMotion, HA и другое).
Механизмы балансировки нагрузки на гипервизор (DRS).
Решения в области физической инфраструктуры
Гипервизор: версии ESXi.
Нужен ли отдельный кластер управления?
Серверы vCenter в режиме Standalone или Linked-Mode?
Версия vCenter Server и тип установки (под Windows или в виде виртуального модуля).
База данных vCenter Server - встроенная или внешняя?
Механизмы защиты vCenter Server.
Дизайн инфраструктуры Platform Services Controller (PSC). Будет ли один домен SSO?
Нужна ли инфраструктура шифрования (PKI)? Какие требования к SSL?
Какие компоненты vSphere будут использоваться?
Нужна ли функциональность Host profiles?
Вопросы управления обновлениями ESXi, версиями VM Hardware и версиями VMware Tools.
Интеграция с антивирусами и решениями vShield/NSX.
Нужен ли пакет vRealize Suite для расширенных операций и управления частным облаком?
Нужен ли продукт vRealize Orchestrator для управления рабочими процессами операций? Нужен ли PowerCLI для сценариев автоматизации?
Нужно ли интегрировать виртуальную инфраструктуру с другими средствами управления (Enterprise Management)?
Automated vendor support mechanisms? How will VMware Skyline be used?
Нужно ли организовывать интеграцию с системами Service Desk или Change Management?
Каковы требования к механизмам vSphere HA и vSphere DRS?
Если будет использоваться HCI (Hyper-Converged Infrastructure), то какие решения будут использоваться для управления, и как это будет совместимо с vSphere?
Вопросы интеграции со службами DNS и NTP.
Ролевая модель доступа (Role Based Access Control) и интеграция с LDAP.
Какой интерфейс vCenter Server будет использоваться для администрирования и ежедневных операций (vSphere Client / Web Client).
Модель лицензирования vCenter.
Вопросы лицензирования стороннего ПО в виртуальных машинах (на хост, на виртуальный процессор vCPU и т.п.).
B. Вычислительные ресурсы
Решения в области логической архитектуры
Традиционная архитектура, технология Server-Side Flash Cache Acceleration, конвергентная или гиперконвергентная инфраструктура (связано с хранилищами).
Минимальное число хостов в кластере.
Тип сайзинга хостов в кластерах: вертикальный (Scale Up) или горизонтальный (Scale Out)?
Гомогенные или гетерогенные узлы?
Число физических процессоров на хост.
Резервирование уровня хостов в рамках доменов отказа (Failure Domains).
Необходимая емкость по CPU.
Необходимая емкость по RAM.
Решения в области физической инфраструктуры
Вендор серверов.
Тип процессоров серверов.
Фичи CPU: VT-x, Hyper-threading, Turbo Boost, включена ли NUMA?
Конфигурация серверного оборудования.
Число сокетов CPU на узел.
Модель процессора, частота и число ядер.
Нужен ли GPU?
Физическое размещение хостов.
Тип размещения: Single Rack или Multi-Rack с шарингом ресурсов?
Требования к доступности кластеров.
Нужно ли обеспечить согласованность доступности хостов с доступностью хранилищ.
Будущее расширение вычислительных ресурсов.
C. Хранилища
Решения в области логической архитектуры
Традиционные хранилища, технология Server-Side Flash Cache Acceleration, конвергентная или гиперконвергентная инфраструктура (связано с вычислительными ресурсами).
Блочные или IP-хранилища?
Средства автоматизированного управления хранилищами.
Допустимо ли использование RDM?
Метод загрузки хоста ESXi - с локального диска (DAS), LUN или PXE.
Толстые или тонкие диски для виртуальных машин?
Необходимые ресурсы хранения.
Репликация хранилищ.
Решения в области физической инфраструктуры
Вендор систем хранения.
Расчет используемой емкости хранилищ с учетом пулов хранения, затрат на репликацию и бэкап. Каковы численные требования к емкости и производительности хранилищ?
Число дисков SSD и HDD в каждой из систем хранения.
Использование дедупликации, сжатия данных, технологии Erasure Coding и Storage APIs. Нужно ли держать процент хранилищ всегда свободным?
Какой активный Working Set (рабочий объем данных) необходим?
Трешхолды для автоматизированного ярусного хранения данных (разнесения по ярусам).
Использование шифрованных дисков и сервер KMS.
Сеть хранения данных и ее организация.
Механизм загрузки хстов ESXi.
Технологии VM DirectPath I/O и SR-IOV.
Число датасторов на кластер.
Будут ли использоваться DRS и SIOC?
Будут ли применяться VMDK shares на уровне виртуальных дисков?
Будет ли использоваться технология VAAI?
Использование VASA и профилей хранилищ (storage profiles).
Будут ли использоваться синхронные или асинхронные DR-решения?
Планирование расширения хранилищ.
D. Сетевая инфраструктура
Решения в области логической архитектуры
Технология Legacy 3-Tier Switch, Collapsed Core или Clos-type Leaf/Spine?
Кластеризованные физические или отдельные коммутаторы EoR/ToR?
Растянутые логические VLAN или на уровне стойки?
Трафик будет функционально разделяться на уровне виртуальных коммутаторов или отдельных VLAN?
На днях компания VMware обновила пару своих утилит на сайте проекта VMware Labs, которые могут оказаться вам полезными.
Во-первых, решение VMware vCenter VM Mobility, о котором мы писали вот тут, обновилось до версии 1.5. Напомним, что это средство позволяет через интерфейс командной строки (CLI) перенести машину между серверами vCenter, которые связаны в режиме Linked Mode или размещены независимо друг от друга. Надо отметить, что в режиме Linked Mode и так можно перемещать виртуальную машину между датацентрами, поэтому полезна утилита именно для несоединенных vCenter.
Давайте посмотрим, что нового появилось в версиях vCenter VM Mobility 1.2-1.5:
Добавлена возможность выбрать папку ВМ в месте назначения, а также storage pod (для механизма storage drs).
Поддержка соединения на сайте назначения, чтобы не прервалась задача перемещения ВМ.
Пофикшен баг, когда при миграции нескольких виртуальных машин с одной виртуальной сетью назначения мигрировалась только одна.
Поддержка передачи пароля в качестве аргумента для автоматизации задач клонирования и перемещения ВМ между датацентрами.
Скачать VMware vCenter VM Mobility 1.5 можно по этой ссылке. Напомним, что утилитой лучше не пользоваться для миграции связанных клонов ВМ (linked clones).
Вторая обновившаяся утилита - это DRS Lens, про которую мы рассказывали вот тут. Она позволяет администраторам виртуальных инфраструктур получить больше информации о работе механизма балансировки нагрузки на хост-серверы VMware vSphere DRS.
На днях вышла версия DRS Lens версии 1.2. Приведем ниже новые возможности утилиты версий 1.1-1.2:
Добавлена поддержка архивирования старых данных мониторинга.
Добавлена страница общей информации для vCenter, чтобы получать информацию о кластерах и архивах.
Улучшения пользовательского интерфейса.
Добавлена совместимость процесса логина с vCenter 5.5.
Некоторые из вас знают, что VMware и другие производители в последнее время борются с уязвимостями Meltdown и Spectre в процессорах Intel, выпуская и отзывая патчи для различных компонентов ИТ-инфраструктуры. Мы писали об этом не так давно в следующих заметках:
Как вы знаете, из за патчей для данных уязвимостей на серверах ESXi иногда существенно проседает производительность (также подробно об этом написано тут), что необходимо отслеживать для того, чтобы не оказаться в ситуации неожиданного недостатка ресурсов в кластере после его апгрейда.
Напомним основные статьи VMware KB, касающиеся исправлений данных уязвимостей:
Еще в декабре 2017 некоторые из уязвимостей были пофикшены, но с тех пор у многих пользователей VMware vSphere появились проблемы с производительностью.
Один из сотрудников VMware опубликовал полезную заметку о том, как с помощью решения vRealize Operations Manager можно отслеживать производительность хостов ESXi в кластерах VMware HA/DRS и на основе этого принимать решения о патчинге тех или иных производственных сред и кластеров.
1. Трекинг версий BIOS и хостов ESXi для каждого сервера с использованием дэшборда Host Configuration.
Этот инструмент нужен, чтобы не забыть пропатчить хост-серверы ESXi:
2. Просмотр информации об использовании виртуальными машинами системных ресурсов.
Чтобы понять, как исторически изменилась производительность ВМ (CPU, Memory, IOPS и использование сети) после патчинга хостов ESXi, нужно смотреть именно на дэшборд VM utilization.
3. Также надо смотреть на изменения CPU и Memory Usage на уровне кластера с помощью дэшборда Capacity Overview.
4. С помощью дэшборда Heavy Hitters можно выяснить, какие из ВМ сейчас действительно сильно грузят оборудование.
5. Также если у вас есть 2 кластера, которые выполняют одну функцию в плане рабочих нагрузок - вы можете переместить нагрузки с помощью функции Workload Balance.
6. Возможность перераспределения емкости кластера можно узнать с помощью дэшборда Capacity Reclaimable.
7. Использование кастомных дэшбордов для Meltdown и Spectre.
Это возможно, если у вас издание vRealize Operations Advanced или более высокое, так как оно позволяет создавать кастомные дэшборды. Сотрудники VMware, Iwan Rahabok, Mark Scott и Luciano Gomes, разработали специальные дэшборды, которые сфокусированы на конфигурации, производительности, емкости и утилизации виртуальной инфраструктуры. Скачать все три дэшборда вместе с инструкциями можно по этой ссылке.
Эти следующие три дэшборда:
Performance Monitoring
Planning Guest OS Patching
Tracking vSphere Patching
7.1 Дэшборд Performance Monitoring.
Этот дэшборд позволяет отслеживать производительность CPU и памяти на всех уровнях - ВМ, хост, кластер. Соответственно, сравнивая исторические периоды, вы сможете сделать вывод о падении производительности.
7.2 Дэшборд Planning Guest OS Patching.
Этот дэшборд нужен для того, чтобы спланировать патчинг гостевых ОС. Сначала находятся все простаивающее ВМ, апдейт которых не сильно повлияет на функционирование виртуальной инфраструктуры, а в последнюю очередь идет обновление так называемых "heavy hitters" - рабочих лошадок вашего предприятия, апдейт которых должен проводиться с особой осторожностью.
7.3 Дэшборд Tracking vSphere Patching.
Этот дэшборд помогает планировать апгрейд различных версий VMware ESXi, а также версий виртуального аппаратного обеспечения (Virtual Hardware) виртуальных машин. Он решает 2 практические задачи:
Отслеживание номеров билдов VMware ESXi и прогресса патчинга серверов.
Отслеживание Virtual Hardware различных ВМ.
Совокупность всех этих инструментов позволит вам не только грамотно спланировать весь процесс патчинга гостевых ОС и хост-серверов, но и измерить влияние на производительность результата апгрейда хостов ESXi и прочих компонентов виртуальной инфраструктуры.
Некоторые из вас знают, что VMware больше не является сервис-провайдером публичных облаков со своей собственной железной инфраструктурой (этот бизнес был продан французской OVH), но у нее есть две облачных инициативы с партнерами лидирующих облачных решений - VMware vCloud on AWS и VMware vCloud on Azure.
Блогер Ryan Kelly написал интересный пост, в котором он сравнивает оба решения - и выводы явно не в пользу vCloud on Azure. Давайте посмотрим:
1. Управление.
VMware vCloud on AWS - это полноценный vSphere Client, к которому вы привыкли в вашем датацентре. Все те же средства автоматизации операций и скрипты PowerCLI работают в облаке без необходимости их доработки.
VMware on Azure имеет собственную консоль управления, а также свой API, что потребует адаптации ваших решений и сценариев PowerCLI. Таким образом, вам нужно будет поддерживать 2 набора рабочих процессов, при этом персонал должен иметь два набора умений для этого, что обходится дороже и неудобно.
2. Миграция рабочих нагрузок в облако и обратно.
vMotion между онпремизной инфраструктурой и облаком происходит без изменения IP-адреса, используется растянутый кластер под контролем решения NSX. Серверы управления vCenter объединены режимом Linked Mode.
В облаке vCloud on Azure миграция vMotion не поддерживается, нужно копированием переносить виртуальные машины, а IP-адрес в любом случае поменяется при перенесении ВМ в облако (кстати, обратного пути миграции нет):
3. Стоимость решения.
Для VMware vCloud on AWS используется модель Host-based pricing, то есть покупаете нужное количество хостов, а все остальные лицензии (включая хранилища кластера vSAN) уже включены в цену. На хосте вы можете создать сколько угодно и какие угодно виртуальные машины. Подробности в прайс-листе.
Для vCloud on Azure лицензирование идет по инстансам виртуальных машин, а за хранилище надо платить отдельно. Вот прайс-лист.
4. Катастрофоустойчивость на уровне площадок.
vCloud on AWS обеспечивает полную связность площадок, прозрачную для пользователей. С помощью технологии Host based replication образ ВМ реплицируется между облаком и онпремизным сайтом, шарится общий IP-адрес. В случае сбоя на одной из площадок, для восстановления работоспособности сервиса нужно будет только нажать на кнопку.
При восстановлении машины в облако Azure нужно будет ее как-то скопировать туда, зарегистрировать и сконфигурировать (это будет новая ВМ, у которой другое виртуальное аппаратное обеспечение и драйверы). Также могут возникнуть сложности с бэкапом восстановлением залоченных файлов, которые не берет система резервного копирования на уровне файлов.
Из описанных пунктов может следовать еще несколько неудобств, но даже перечисленных уже достаточно, чтобы не покупать VMware vCloud on Azure. Непонятно пока, кому такая гибридная инфраструктура подойдет - разве что совсем маленьким компаниям, не собирающимся расти.
Как вы знаете, некоторое время назад были обнаружены серьезные уязвимости в процессорах компании Intel, условно называемые Meltdown и Spectre. Вскоре после их обнаружения многие производители выпустили обновления микрокода оборудования, многие из которых оказались неготовыми к эксплуатации в производственной среде (происходили неожиданные перезагрузки, падала производительность и появлялись другие эффекты).
Теперь, наконец, вышло обновление VMware vCenter Server Appliance 6.5 Update 1f, содержащее исправления для серверов управления на базе виртуального модуля с Photon OS на борту, исправляющее следующие дыры в безопасности:
Rogue data cache load issues (уязвимость Meltdown, CVE-2017-5754)
Надо отметить, что уязвимость Spectre-2 (Branch target injection - CVE-2017-5715) по-прежнему не исправлена в данном релизе.
Патч VMware vCenter 6.5 Update 1f можно загрузить с VMware Patch Portal (VMware-VCSA-all-6.5.0-7801515.iso):
В процессе апдейта будут обновлены следующие пакеты:
linux 4.4.110-2
libgcrypt 1.7.6-3
c-ares 1.12.0-2
ncurses 6.0-8
libtasn1 4.12-1
wget 1.18-3
procmail 3.22-4
rsync 3.1.2-4
apr 1.5.2-7
Также помимо VMware vCSA патч доступен и для решения vSphere Integrated Containers 1.3.1. На данный момент матрица выхода апдейтов фикса Meltdown и Spectre выглядит весьма удручающе (более подробно - вот тут):
Пропатчить VMware vCSA можно также через GUI из дефолтного репозитория обновлений продукта.
Ну и мы все еще ждем обновления для хостов VMware ESXi, которые до сих пор в статусе "Patch Pending".
Как вы знаете, у компании VMware есть такой продукт Workspace ONE, который позволяет привести в соответствие корпоративным политикам инфраструктуру клиентских устройств (телефонов, планшетов, настольных ПК) с помощью купленной когда-то технологии AirWatch unified endpoint management (UEM). Помимо средств защиты и соблюдения комплаенса, Workspace ONE дает пользователям средства совместной работы и Single Sign-On для приложений, а работодателю - средства контроля над устройствами пользователей (соблюдение комплаенса, то есть корпоративных политик).
На днях команда AirWatch опубликовала заметку о новых возможностях обновленной версии Workspace ONE Mobile Apps Suite. Теперь, как вы видите на картинке выше, в состав Workspace ONE войдут следующие компоненты:
People Search - это новый компонент, который позволяет получать информацию о людях в вашей организации, включая контактные данные, должность и иерархию подчинения. Очень удобно для тех, кто сидит на митинге и хочет узнать, что за хрены там тоже собрались. Если вы уже имеет в составе решений VMware Indentity Manager, то интегрировать People Search будет очень просто. Данные об организационной структуре будут браться из Active Directory, а какие поля будут видны пользователям - определяет администратор.
VMware Boxer - это решение для почтовых сервисов Gmail, Exchange, Outlook, Yahoo, Hotmail, iCloud и Office 365 для протоколов IMAP и POP3, которое позволяет объединить все на платформе одного почтового клиента, интегрировав туда поддержку таких приложений, как Dropbox или Box.
Проще говоря, это почтовый Enterprise-клиент. В новой версии VMware Boxer будет улучшен механизм нотификаций для пользователей (нижний блок на скриншоте выше), а также добавлена поддержка IBM Lotus Notes.
VMware Browser - это компонент для защищенного (без необходимости развертывать VPN) доступа к веб-содержимому корпоративной сети и интернета с возможностью ограничения просматриваемого и загружаемого контента. Теперь с помощью этого защищенного политиками браузера можно переходить по ссылкам из QR-кодов.
Content Locker - это средства VMware, позволяющие доставлять контент (фото и видео) с устройств пользователей в защищенные корпоративные репозитории. Например, с помощью Content Locker врач может отправлять файлы в хранилище больницы, которое защищено в соответствии с отраслевыми и государственными требованиями (персональные данные категории К1). В новой версии Content Locker появились улучшения рабочего процесса по фотографированию и отсылке контента на защищенные серверы (включая добавление и обработку метаданных).
Также в VMware Workspace ONE был существенно улучшен процесс онбординга пользователей (то есть их включение в инфраструктуру приложений и сервисов), более детально об этом написано тут.
Более подробная информация о решении VMware Workspace ONE изложена на специальном портале.
Компания VMware выпустила обновленную версию документа "Network Ports in VMware Horizon Cloud Service", в котором приведены диаграммы портов и соединений сервиса VMware Horizon Cloud. Данные диаграммы нужны для корректной настройки фаерволов, а также отслеживания сетевых коммуникаций между компонентами (стрелками в документе показаны их направления).
В документе приведены 3 архитектуры VMware Horizon Cloud, которые рассматриваются в различных его разделах:
Horizon Cloud with Hosted Infrastructure with external connectivity
Horizon Cloud with Hosted Infrastructure with internal connectivity
Horizon Cloud on Microsoft Azure
Диаграммы работают в интерактивном режиме, то есть вы можете выбрать интересующий вас компонент (например, протокол Horizon) и "провалиться" глубже для подробного изучения его соединений. Для этого нужно PDF скачать, а не просматривать его в браузере.
Помимо диаграмм присутствуют также таблицы с описанием источника и назначения соединения, вида протокола, номерами портов и описания - для чего эта коммуникация нужна.
Также в документе рассматриваются такие продукты, как VMware Identity Manager, VMware App Volumes, VMware ThinApp и другие решения, использующиеся в инфраструктуре Horizon. Соответственно, его можно использовать и как референс при планировании и развертывании онпремизной или облачной инфраструктуры Horizon Cloud.
В конце января компания VMware выпустила существенное обновление своего клиента на базе технологии HTML5 для управления виртуальной инфраструктурой VMware vSphere. На днях вышел еще один апдейт - VMware vSphere Client 3.34, в котором также появилось немало всего нового.
Давайте посмотрим на последние фичи vSphere Client версии 3.34:
Визуализация топологии виртуальных коммутаторов (см. на скриншоте выше).
Возможность пакетного создания виртуальных адаптеров VMkernel на распределенной группе портов vDS.
Действие по привязке лицензи (Assign License) на вкладке License Assets.
Сообщение об устаревающих лицензиях vCenter.
Изменение настроек виртуальных сервисов vApp.
Включение и изменение настроек vApp для его виртуальных машин.
Перемещение сетей (networks) и распределенных коммутаторов в новые папки типа network в инвентори.
Пакетная привязка физических сетевых адаптеров к аплинкам в мастере "Add and Manage Hosts" на распределенном коммутаторе.
Пакетная привязка портов VMkernel к порт-группам "Add and Manage Hosts" на распределенном коммутаторе.
Отображение дополнительной информации, такой как состояние питания и информации Quiesce/memory для снапшотов виртуальных машин.
Загрузить VMware vSphere Client 3.34 можно по этой ссылке.
Иногда у администраторов VMware vSphere появляется проблема на сервере VMware vCSA (виртуальный модуль vCenter), когда дисковое пространство в разделе /var/log забивается под завязку. Например, если выполнить команду ls, то получим вот такую картину:
vcsa-01:/var/log # ls -lh
total 4.6G
-rw-r----- 1 dnsmasq dnsmasq 17M Feb 4 08:32 dnsmasq.log
-rw-r----- 1 dnsmasq root 844M Jan 28 07:45 dnsmasq.log-20180128
-rw-r----- 1 dnsmasq dnsmasq 3.7G Feb 2 16:19 dnsmasq.log-20180204
Здесь мы видим целых 4,6 ГБ логов! Такая ситуация - не редкость, поэтому иногда нужно поменять настройки заполнения и ротации логов, чтобы раздел не забивался. В данном случае растет лог dnsmasq - кэша сервера DNS и DHCP на сервере vCSA (подробнее тут).
Блогер David Pasek опубликовал интересный пост, касающийся ограничения виртуальных машин и их виртуальных дисков по числу операций ввода-вывода. Смысл его в том, что автор, являющийся ярым сторонником обеспечения QoS на уровне виртуальных дисков, настоятельно рекомендует применять ограничения IOPS limit к виртуальным дискам машин, которые потенциально могут выесть много полосы ввода-вывода.
Сейчас ограничивать виртуальные машины по IOPS можно как на уровне виртуальных дисков на томах VMFS/RDM/NFS, так и на уровне томов VVols. Многие системы хранения оперирует понятием логического тома LUN, на котором размещается один том VMFS. Как правило, LUN - это логический том, что значит, что несколько LUN могут размещаться на одной физической группе дисков:
Таким образом, виртуальные машины, потребляющие много IOPS от хранилища (он называет их "noisy neighbor") могут существенно замедлить работу других производственных систем.
Поэтому для таких машин требуется создавать ограничения IOPS limit, которые можно задать для виртуального диска в опциях машин, либо привязать к VMDK диску политику с ограничениями по IOPS.
Например, в vSphere Web Client создаем новую VM Storage Policy с ограничениями IOPS limit for object:
А далее привязываем эту политику к диску VMDK в настройках ВМ:
Тут же в настройках можно задать значение в поле Limit-IOPs, если не выбирать политику.
Именно ограничение по IOPS делает поведение инфраструктуры хранения для виртуальных машин предсказуемым и управляемым. Ограничения по вводу-выводу позволят обеспечить минимально приемлемый уровень обслуживания для виртуальных машин, которым требуются ресурсы хранилища, с гарантией того, что остальные системы не съедят все доступные IOPS.
Ну и в заключение несколько аспектов данного рода ограничений:
Команды ввода-вывода (IO) нормализуются к блоку 32 КБ, то есть команда в 128 КБ будет преобразована в 4 IO.
IOPS limit не влияет на операции SVmotion (миграция хранилища), XVmotion (миграция машин без общего хранилища) и клонирование ВМ.
IOPS limit применяется только ко вводу-выводу гостевой ОС и не затрагивает операции с самим диском VMDK и его swap-файлами.
Если у машины несколько лимитов по IOPS для дисков на одном датасторе, то эти лимиты складывают и применяются для всей ВМ на этом датасторе в целом. Если же диски находятся на разных хранилищах, то тут уже действуют правила для каждого из групп дисков.
Например, если у каждой из 4 дисков машины на одном датасторе стоит лимит 100 IOPS, то для всей машины будет совокупный лимит 400. То есть, если три VMDK едят по 10 IOPS каждый, то четвертый диск сможет съесть максимум 370 IOPS.
А вот для NFS-хранилищ все работает несколько иначе - если у каждого из 4 дисков на одном датасторе стоит лимит 100 IOPS, то сколько бы ни потребляли остальные диски, для каждого из дисков будет применен максимальный лимит 100.
Полная информация об ограничении ввода-вывода для виртуальных машин приведена в KB 1038241.
На днях вышел магический квадрант Gartner Magic Quadrant for Hyperconverged Infrastructure (HCI), отражающий ситуацию на рынке гиперконвергентной инфраструктуры. Это такая инфраструктура, где все ее вычислительные ресурсы, системы хранения и сети виртуализованы и собраны в единую интегрированную сущность и управляются из одной точки.
Компания VMware заняла в этом квадранте место в тройке лидеров (надо отметить, что учитывались не только онпремизные, но и облачные HCI-инициативы), расположившись рядом со своей материнской компанией Dell EMC.
Напомним, что Magic Quadrant используется для оценки поставщиков какого-либо сегмента рынка информационных технологий, где Gartner использует две линейные прогрессивные экспертные шкалы:
полнота видения (completeness of vision)
способность реализации (ability to execute)
Каждый поставщик, попавший в рамки рассмотрения для исследуемого сегмента рынка, оценивается по этим двум критериям. При этом, полнота видения откладывается на оси абсцисс, способность реализации — на оси ординат. Каждый поставщик, таким образом, оказывается в одном из четырёх квадрантов плоскости, называемых:
Лидеры (leaders) — поставщики с положительными оценками как по полноте видения, так и по способности реализации.
Претенденты (сhallengers) — поставщики с положительными оценками только по способности реализации.
Провидцы (visionaries) — поставщики с положительными оценками только по полноте видения.
Нишевые игроки (niche players) — поставщики с отрицательными оценками по обоим критериям.
Кстати,
Magic Quadrant по серверной виртуализации больше не публикуется (вы, возможно, заметили, что его не было в 2017 году) - так как Gartner считает этот рынок зрелым, там все и так всем понятно, поэтому никакой аналитической работы проводить не нужно.
Стоит отметить, что попадание в квадрант лидеров для VMware как для поставщика чисто программных решений - большое достижение. Сейчас VMware использует аппаратные решения 15 партнеров, чтобы предлагать HCI-решения пользователям. Пример такой архитектуры - VCE и Vblock. Кстати, Dell EMC, в свою очередь, продвигает решения VxRail и VxRack, в состав которых входит решение для создания кластеров отказоустойчивых хранилищ vSAN.
Кстати, если говорить о серверных HCI-решениях, то VMware уже сейчас поддерживает более 400 моделей серверов (на картинке от мая 2017 года было еще 250 моделей) в рамках программы ReadyNode для построения кластеров vSAN.
Скачать отчет Gartner Magic Quadrant for Hyperconverged Infrastructure (HCI) можно по этой ссылке.
Давайте посмотрим, что нового появилось в vRNI 3.6:
Улучшения в анализе инфраструктуры (Enhanced Visibility):
Netflow от физических устройств теперь можно добавить в целях планирования безопасности и решения проблем для приложений, включая физические серверы. Кроме того, пользователи, у которых нет распределенного коммутатора vSphere Distributed Switch (vDS), могут использовать Netflow при проведении аудита виртуальной сети (Virtual Network Assessment).
Клиенты, работающие в AWS GovCloud, теперь могут использовать vRNI для планирования безопасности и траблшутинга в AWS окружении.
Добавлена поддержка решения Palo Alto Panorama 8, а также коммутаторов Arista и Juniper, что улучшает сбор информации в физической и виртуальной сетевой инфраструктуре.
Функции быстрого решения проблем:
В разделе Flow analytics появилась информация о самых обменивающихся по сети системах, а также об активности новых систем за 24 часа, что позволяет быстрее идентифицировать и решать проблемы.
Новый виджет AWS Security Group быстро позволяет находить проблемы в инфраструктуре AWS.
Появилась поддержка групп безопасности и правил сетевого экрана решения NSX-T.
Функции открытой платформы:
vRealize Network Insight 3.6 предоставляет публичный API для автоматизации рабочих процессов. Например, рекомендуемые правила сетевого экрана для приложения можно получить через vRNI и далее уже применить через решение NSX и фаерволы AWS.
Скачать VMware vRealize Network Insight 3.6 можно по этой ссылке.
Дункан Эппинг написал интересную заметку о максимальных настройках виртуальных машин, защищенных средствами кластера непрерывной доступности VMware Fault Tolerance.
Некоторые из вас знают, что у Fault Tolerance есть ограничения как по числу одновременно защищенных виртуальных машин на хосте, так и по числу виртуальных процессоров (vCPU) на один хост ESXi. Напомним, что эти ограничения были улучшены в VMware vSphere 6.0, теперь можно с помощью FT защищать машины с четырьмя vCPU, а всего таких машин может быть до четырех штук. Но при этом заявлено, что для FT не может быть более 8 vCPU на хосте (то есть 4 машины по 4 vCPU в каждой поддерживать не получиться).
Но это, оказывается, только в дефолтной конфигурации. Для регулирования этих параметров есть две расширенные настройки (Advanced Settings) кластера HA/DRS:
das.maxftvmsperhost - максимальное число защищенных ВМ на хост (4).
das.maxFtVCpusPerHost - максимальное число защищенных vCPU на хост (8).
Они по умолчанию равны значениям, описанным выше, но вы можете выставить свои значения - и это будет работать. Тогда откуда они взялись? Очень просто - инженеры взяли типовые нагрузки, посадили их на адаптер 10G и получили, что хост потянет где-то 8 vCPU для Fault Tolerance (4 машины по 2 vCPU). Это условие выполняется при старте машин пользователем, миграциях vMotion, а также механизмом DRS при расчете рекомендаций.
Но у вас своя инфраструктура (может уже и адаптеры 40 Gbps), поэтому вы можете использовать какие захотите разумные значения. Кстати, если вы поставите значение 0, то кластер VMware DRS будет полностью игнорировать данное требование к числу FT-машин на хост.
Но помните, что со стороны VMware превышение указанных значений не будет официально поддерживаемой конфигурацией.
На днях компания VMware начала тестировать новую версию своего фреймворка для управления виртуальной инфраструктурой и выпустила VMware PowerCLI Beta.
Как вы помните, в конце 2016 года VMware на сайте проекта VMware Labs опубликовала утилиту PowerCLI Core, которая позволяет пользователям применять те же самые командлеты PowerCLI на системах Linux, Mac и Docker, которые ранее были доступны только для Windows.
В новой бета-версии PowerCLI эта утилита будет не нужна, так как теперь PowerCLI будет работать на всех платформах в рамках единого пакета, а из состава продукта для платформ Linux и MacOS уйдет слово "Core". На данный момент эта бета была протестирована на следующих платформах:
Windows
CentOS 7 (тестирование еще в процессе)
Ubuntu 16.04
MacOS 10.12
В этой бета-версии на все платформы были портированы следующие модули:
VMware.VimAutomation.Sdk
VMware.VimAutomation.Common
VMware.VimAutomation.Core
VMware.VimAutomation.Vds
VMware.VimAutomation.Cis.Core
VMware.VimAutomation.Nsxt
VMware.VimAutomation.Vmc
VMware.VimAutomation.Storage
VMware.VimAutomation.StorageUtil
Для MacOS и Linux вы увидите только перечисленные модули, остальные пока не доступны. Устанавливать их нужно так:
Более подробную информацию о VMware PowerCLI Beta можно получить вот тут. Ну и вам надо знать, что бета работает только на PowerShell Core v6.0.1 (на версии 6.0.0 работать не будет).
Осенью прошлого года мы писали о продукте VMware vRealize LifeCycle Manager в составе пакета vRealize Suite 2017, который позволяет автоматизировать установку, конфигурацию, апгрейд/патчинг, управление изменениями, исправление конфигурации и мониторинг состояния компонентов vRealize Suite из единой консоли с фокусом на исполнение бизнес-задач.
Многие администраторы больших инфраструктур VMware vSphere используют стенсилы Microsoft Visio для создания различных диаграмм и схем в целях документирования текущего или будущего состояния инфраструктуры виртуализации. Также стенсилы и иконки используют консультанты и прочие ИТ-специалисты в своих презентациях PowerPoint.
Специально для них Ray Heffer обновил коллекцию "VMware Visio Stencils и иконки для презентаций PowerPoint", в которой масса полезных штук для составления схем и диаграмм (она составлена на базе графики различных производителей, не только VMware):
Скачать эти иконки можно в виде RAR-архива по этой ссылке.
Ну и вот еще список иконок для решений различных вендоров, которые использовались в качестве источников:
У некоторых администраторов VMware vSphere время от времени возникает проблема с горячей миграцией vMotion виртуальных машин, например, когда они выводят хост в режим обслуживания (Maintenance Mode). vMotion зависает на 21%, и на vCenter Server появляется ошибка наподобие такой:
Failed waiting for data. Error 195887137. Timeout. vMotion migration failed to send buffer to remote host. vMotion migration failed writing stream completion.
Еще одно сообщение об ошибке в этом случае выглядит вот так:
The vMotion failed bacause the destination host did not receive data from the source host on the vMotion network. Failed to initialize migration at source. Error 195887109.
На панели задач мы видим вот такую картину:
Если посмотреть на лог-файлы, то там не обнаруживается никаких проблем. Но подобного рода ошибки, если внимательно поискать их в VMware KB, указывают на разные сконфигурированные значения MTU пакета в виртуальной инфраструктуре и на портах физических коммутаторов. Например, на vSphere Distributed Switch для порта VMkernel, через который идет миграция vMotion, размер MTU у вас выставлен в 9000 (для поддержки Jumbo Frames), а вот на на порту свича - 1500.
Поэтому всегда проверяйте, чтобы размер MTU был одинаковым на всех компонентах физической и виртуальной инфраструктуры - vDS и портах коммутатора. Более подробно о настройке Jumbo frames написано в KB 1038827.
Недавно мы писали о недавнем обновлении продукта для виртуализации и агрегации сетей датацентра VMware NSX for vSphere 6.4, а на днях блогер Sam McGeown опубликовал интересную диаграмму соединений и портов VMware NSX 6.x Network Communications Diagram, на которой в центре расположено решений NSX Manager (главный управляющий компонент), а остальные компоненты сетевой инфраструктуры указаны с ведущими к ним коммуникациями по соответствующим портам:
Пока данная диаграмма показывает только соединения в рамках одной площадки, но автор обещает вскоре ее обновить, включив туда Cross vCenter коммуникации.
Многие из вас хотя бы раз задумывались о том, сколько виртуальных машин должно в среднем приходиться на один хост, а кроме того, в частности, сколько виртуальных процессоров (vCPU) могут исполняться на физических процессорах (pCPU) хост-сервера VMware ESXi.
На этот счет системные архитекторы часто дают следующие рекомендации (в соответствии с критичностью нагрузок в кластере):
Это общие рекомендации и, конечно же, не железные правила - отталкиваться нужно от имеющегося оборудования и характера нагрузок в виртуальных машинах.
Для того, чтобы регулировать это соотношение со стороны кластера балансировки нагрузки VMware DRS есть 2 специальные расширенные настройки:
MaxVcpusPerClusterPct - регулирует соотношение vCPU/pCPU на уровне всего кластера, не привязываясь к конкретным хостам ESXi (то есть сумма vCPU всех машин делится на сумму pCPU всех хостов).
MaxVCPUsPerCore - регулирует соотношение vCPU/pCPU на уровне каждого из хостов ESXi, то есть ни на одном из них это соотношение не может быть превышено.
Указываются эти расширенные настройки в разделе Configuration Parameters в vSphere Web Client при настройке DRS-кластера:
Но самое интересное - это то, что в vSpher Web Client эта настройка есть в GUI и регулирует параметр MaxVcpusPerClusterPct на уровне всего кластера (можно задать процент от 0 до 500, но разумно задавать значения от 100 до 500, если задать 500 - число vCPU может быть больше pCPU в пять раз):
А вот в vSphere Client - эта настройка уже MaxVCPUsPerCore, то есть задание CPU Overcommitment на уровне каждого из хостов ESXi, о чем и написано в интерфейсе:
Кстати, выставить эту настройку можно в диапазоне от 0 до 32.
Таги: VMware, DRS, Blogs, Web Client, Client, vSphere
Пару недель назад мы писали о новых возможностях последних версий HTML5-клиента для управления виртуальной инфраструктурой VMware vSphere Client 3.31-3.32, а на днях компания VMware выпустила очередное обновление vSphere Client 3.33, где появилось немало новых возможностей (а не как обычно).
Давайте посмотрим, что нового в этом обновлении:
Поддержка устройств PCI и Shared PCI для виртуальных машин.
Мастер создания нового виртуального сервиса (vApp).
Мастер клонирования vApp.
Перемещение vApp в между хостами и кластерами.
Возможность копирования customization specification виртуальной машины на другой сервер vCenter с возможностью изменения имени и описания спецификации.
Действие Synchronize Licenses (ранее оно называлось Import License Keys Data).
Детали об имеющихся ассетах и лицензиях.
Возможность изменять VM Advanced configurations в настройках виртуальной машины (пункт Edit Settings).
Изменение ярлыков для операций с состоянием ВМ (Power Operations) в разделе VMware tools в опциях Edit Settings для виртуальной машины.
Изменение максимального количества сессий VMRC для виртуальной машины в настройках (Edit Settings).
В целом, не так уж и мало для очередного обновления. Скачать VMware vSphere Client 3.33 можно по этой ссылке.
Давайте посмотрим, что нового появилось в NSX 6.4:
1. Механизм Context-aware micro-segmentation.
Как знают администраторы NSX, эта платформа уже давно не оперирует понятиями IP-адресов и базовой сетевой идентификацией, вместо этого NSX позволяет управлять сетями на базе политик, в составе которых такие настройки, как операционная система, имена виртуальных машин и приложения. Это позволяет более гибко оперировать метриками.
Теперь NSX позволяет создавать и управлять политиками на базе контекстов приложений (это и есть микросегментация) - сетевом (на уровне 7 модели OSI), пользовательском (ID, сессия RDSH и прочее), а также рабочей нагрузки (тэги, группы безопасности):
Отсюда следуют 3 новых возможности:
Network flow app detection и управление на уровне 7.
NSX реализует технологию глубокого анализа Deep Packet Inspection (через заголовки пакетов TCP/UDP) для идентификации приложения в сетевом трафике. Это избавляет от необходимости вручную идентифицировать приложения датацентров и задавать политики для различных приложений, которые обнаруживаются по их сигнатурам.
Virtual Desktop and Remote (RDSH) Session Security per User.
Одна из фишек микросегментации - это защита виртуальных ПК, поскольку несколько сессий исполняется на одном хост-сервере и данные пользовательских ПК должны быть надежно защищены друг от друга. NSX работает с политиками безопасности на уровне виртуальных машин и пользователей, что позволяет создавать разграничения трафика в таких VDI-средах, как VMware Horizon, Citrix XenDesktop и Microsoft RDSH.
Улучшения Application Rule Manager.
Теперь это средство предлагает не только сами правила для приложений, но и рекомендует группы безопасности, чтобы наиболее эффективно организовать микросегментацию датацентра.
2. Поддержка vSphere Client и HTML5.
Интерфейс NSX был полностью переработан, чтобы поддерживать vSphere Client на базе технологии HTML5 (плагин называется VMware NSX UI Plug-in for vSphere Client). Например, Upgrade Coordinator был также полностью переосмыслен, и теперь можно наслаждаться новым видом рабочего процесса по планированию и обновлению NSX:
Помимо этого, было существенно улучшено меню навигации в продукте.
3. Улучшения сервисов безопасности.
Identity Firewall - теперь поддерживаются пользовательские сессии к виртуальным ПК и серверам RDSH, а также выборочная синхронизация с Active Directory в целях ускорения процесса.
Distributed Firewall - теперь он может быть создан из набора stateless-правил на уровне секции DFW. Кроме того, поддерживается реализация IP-адресов на уровне гипервизора, а также проверка вхождения IP-адресов в группы безопасности, кластеры, хосты или пулы ресурсов.
Улучшения механизмов IP discovery.
Улучшения анализа трафика гостевых ОС (Guest Introspection).
4. Улучшения средств управления и средств решения проблем.
Новый дэшборд HTML5, доступный по дефолту.
Новый дэшборд System Scale, который показывает текущий масштаб системы на фоне максимумов конфигурации, поддерживаемых NSX.
Улучшения Guest Introspection - такие фичи, как EAM status notification, мониторинг процесса апгрейда, кастомные имена для SVMs, выделение дополнительной памяти и т.п.
Единый интерфейс командной строки для logical switch, logical router и edge distributed firewall.
Новая вкладка Support Bundle позволяет сгенерировать пакет данных для техподдержки, а также наблюдать за ходом выполнения этого процесса.
Вкладка Packet Capture - она позволяет в ручном режиме перехватывать и анализировать пакеты.
Возможность включения режима Controller Disconnected Operation (CDO), который позволят избежать проблем при временной недоступности сетевого соединения с основной площадкой.
Поддержка до 5 Syslog-серверов.
Поддержка форматов JSON и XML.
Множество улучшений NSX Edge, которые описаны вот тут.
Загрузить VMware NSX for vSphere 6.4 можно прямо сейчас по этой ссылке.
Почти все из вас в курсе, что недавно в процессорах Intel были найдены уязвимости Meltdown и Spectre. Недавно мы писали о том, то компания VMware выпустила патчи для хост-серверов VMware ESXi, а также для управляющего сервера vCenter. Вильям Лам даже написал скрипт PowerCLI для проверки накаченных обновлений на хосты и виртуальные машины.
Но...18 января VMware, получив некую "важную информацию" от Intel, отозвала выпущенные патчи и опубликовала специальную KB 117649, в которой описала сложившуюся ситуацию, не особенно ее проясняя. Пока мы ждем патчей от VMware и Intel, можно взглянуть на некоторые результаты тестов производительности (раз и два), где показано, как исправления микрокода серверов от описанных уязвимостей негативно влияют на производительность:
Говорят, что падение производительности для тяжелых нагрузок (особенно по вводу-выводу) может составить от 5% до 30%, что как бы очень много.
В связи с этими событиями (последствия от которых еще проявят себя в ближайшие недели), компания Login VSI сделала специальную бесплатную лицензию на свое одноименное средство тестирования (мы писали об одной из версий тут). Запросить бесплатную лицензию на инструмент Login VSI можно по этой ссылке. Она, кстати, абсолютно ничем не ограничена - ни числом хостов, ни виртуальных машин в вашей виртуальной инфраструктуре, а для тестирования доступны все рабочие нагрузки.
Единственное ее ограничение - бесплатная версия прекратит работать 31 марта этого года. С помощью Login VSI вы можете протестировать производительность таких платформ, как Citrix XenApp, XenDesktop, Microsoft RDS и, конечно же, VMware Horizon View.
В целом, влияние обновлений безопасности на производительность особенно чувствительно именно для VDI-инфраструктур, где коэффициент консолидации виртуальных машин на хостах существенно выше, чем в серверной среде.
Запросить бесплатную лицензию на Login VSI можно здесь.
Компания VMware на днях объявила о доступности для загрузки обновленной версии решения VMware Integrated OpenStack 4.1. Напомним, что о версии 4.0 данной платформы мы писали вот тут осенью прошлого года. Данный релиз поддерживает не только платформа vSphere, но и такие продукты, как vSphere, vSAN и NSX V|T (включая решение NSX-T LBaaSv2). Облачным администраторам в этом обновлении понравятся средства расширенного управления, а администраторам хранилищ Kubernetes - различные утилиты для автоматизации рабочих процессов.
В основе архитектуры VMware лежит виртуальный модуль vSphere OpenStack Virtual Appliance (VOVA), позволяющий построить инфраструктуру OpenStack на базе платформы виртуализации VMware vSphere. Сам же VMware Integrated OpenStack (VIO) - это специальный дистрибутив, поддерживаемый VMware, оптимизированный для работы на базе инфраструктуры SDDC (software defined data center).
Давайте посмотрим на новые возможности VMware Integrated OpenStack 4.1:
Поддержка последних продуктов VMware. VIO 4.1 полностью поддерживает VMware vSphere 6.5 U1 (подробнее тут), vSAN 6.6.1, VMware NSX for vSphere 6.3.5 и VMware NSX-T 2.1 (подробнее тут).
Public OMS API – появился API для управляющих серверов, который может быть использован для автоматизации и обслуживания жизненного цикла компонентов инфраструктуры OpenStack. Например, можно развернуть кластер OpenStack, остановить или запустить его, собрать бандлы для техподдержки и т.п. Вы также можете использовать Swagger UI для проверки валидности API и его спецификаций. Вот основные адреса для доступа:
API Base URL: https://[oms_ip]:8443/v1
Swagger UI: https://[oms_ip]:8443/swagger-ui.html
Swagger Docs: https://[oms_ip]:8443/v2/api-docs
HAProxy Rate Limiting – облачный администратор теперь имеет возможность ограничить публичный доступ к API в определенном объеме. Это настраивается в шаблоне custom.yml.
Neutron QoS – В VIO 4.1 облачный админ может использовать Neutron QoS для создания профиля QoS и его маппинга к портам или логическому коммутатору. При этом виртуальная машина при таком подключении будет наследовать политику портов.
Native NSX-T Load Balancer as a Service (LBaaS) – В VIO 4.1 NSX-T LBaaSv2 может быть развернут с использованием как Horizon, так и Neutron LBaaS API. Каждый балансировщик обязательно должен быть замаплен к логическому маршрутизатору NSX-T Tier 1 logical router (LR).
Multiple domain LDAP backend – поддерживается SQL, а также один или несколько доменов как identity source (всего до 10 доменов). Каждый домен может иметь свой бэкенд аутентификации (поддерживается Active Directory и OpenDirectory).
Отдельно надо упомянуть новые фичи NFV и Kubernetes:
VIO-in-a-box (так называемый Tiny deployment). Все компоненты VIO можно развернуть на одном физическом сервере. Его можно развернуть в ручном режиме или через OMS API.
CPU Policy for Latency Sensitivity Workflows – рабочие нагрузки, чувствительные к задержкам (Latency), часто требуют заранее выделенных ресурсов CPU, памяти и сети. В VIO 4.1 появилась поддержка политик в стиле Nova - ‘hw:cpu_policy”. Эта политика мапит vCPU к конкретному инстансу процессора.
Networking Passthrough – В VIO 4.1появился фреймворк на базе Neutron для проброса физических сетевых устройств в виртуальные машины. Это позволяет с помощью Neutron настраивать MAC, IP и QoS сетевого устройства проброшенного через passthrough. Потом этот подход будет применен ко всем типам passthrough-устройств.
Enhanced Kubernetes support – VIO 4.1 идет вместе Kubernetes версии 1.8.1. Также доступна интеграция с решениями Helm и Heapster. VIO 4.1 совместно с решением NSX-T2.1. также позволит использовать сетевые политики безопасности Kubernetes.
VIO Kubernetes Support Bundle – с помощью одной команды, указав начальную и конечную даты, можно собрать логи со всех компонентов, необходимые для анализа и решения проблем со всей инфраструктурой. Это позволяет легко и просто открыть тикет в техподдержке сервис-провайдера.
VIO Kubernetes Log Insight Integration – как часть создания кластера Kubernetes, облачный админ может указать адрес сервера Log Insight в качестве внешней системы логгирования (пока только один сервер).
VIO Kubernetes Control Plane Backup / Restore – админ Kubernetes может делать резервные копии на уровне кластера через машину VIOK management VM. Бэкапы складываются в файлы tar.
Как вы знаете, механизм динамической балансировки нагрузки VMware DRS используется для того, чтобы в условиях неравномерной нагрузки на хост-серверы VMware ESXi выравнивать ее за счет дачи рекомендаций по миграции виртуальных машин средствами vMotion на другие хосты, либо автоматического выполнения этих рекомендаций.
Давайте посмотрим как Distributed Resource Scheduler работает с оперативной памятью. В кластере DRS есть такая настройка "Memory Metric for Load Balancing", которая отключена по умолчанию, и если почитать к ней описание, то становится понятно, что DRS по умолчанию руководствуется параметром Active memory для балансировки.
У машины есть три основных параметра памяти, учитываемых DRS - это Active, Consumed и Configured Memory:
Configured - это память, указанная в настройках виртуальной машины, то есть ее максимальное значение.
Consumed - это память, которая использовалась виртуальной машиной с момента ее загрузки (а вы знаете, что при загрузке операционная система обращается к большему объему памяти, чем затем ее использует).
Active - это активные страницы памяти (RAM), которые сейчас используются гостевой ОС.
На картинке ниже показан пример - у машины 16 ГБ памяти, при этом при загрузке она наинициализировала страниц памяти на 12 ГБ, а активно использует только 5734 МБ.
Для того чтобы подчитывать используемую память, планировщик DRS подсчитывает working set из страниц Active Memory и прибавляет к нему 25% от разницы между Consumed и Active (это называется Idle Consumed Memory) на незапланированные резкие изменения нагрузки - и это число использует в своих вычислениях балансировки кластера:
В данном случае будет использоваться значение 5734+0,25*(12288-5734) = 7372,5 МБ (на картинке 7373 МБ). Кстати, это еще не все - к машине с памятью в 16 ГБ прибавляются накладные расходы (Overhead) в размере 90 МБ, поэтому DRS в своих вычислениях будет использовать значение 7373+90 = 7463 МБ.
Если же включить настройку DRS-кластера, упомянутую выше, то DRS в своих вычислениях будет использовать Consumed Memory и также прибавлять Memory Overhead:
В обновлении vSphere 6.5 update 1d клиент позволяет вам просматривать как метрику Active Memory, так и Consumed Memory.
Вот так выглядит картинка для сбалансированного кластера DRS (рекомендаций и ошибок нет):
Кстати, если вы посмотрите на Active Memory сбалансированного кластера, то там вполне может быть дисбаланс:
В этом нет ничего страшного, так как машины используют менее 20% active memory от памяти хоста, всем памяти хватает, и DRS решает, что балансировать машины в таком случае - это только тратить ресурсы CPU и сети на vMotion.
Переключимся теперь на Consumed memory:
Тут мы видим большой дисбаланс и разница между хостами более 20% от значений Consumed memory на них. Поэтому если мы включим настройку "Memory Metric for Load Balancing", то кластер DRS начнет работу по миграции виртуальных машин между хост-серверами. Итогом будет вот такая картина:
Вывод тут вот какой. Если у вас кластер работает без оверкомита (non-overcommitted) и есть большой запас по RAM на хостах, то, возможно, вам и следует поставить настройку "Memory Metric for Load Balancing", чтобы DRS балансировал хосты по consumed memory, а сами рекомендации по миграциям, например, можно применять в ручном режиме, чтобы контролировать ситуацию.
Многие из вас знают, что одной из новых возможностей решения для организации отказоустойчивых кластеров хранения VMware vSAN стали проактивные тесты, которые доступны через VMware vSphere Web Client. Раньше их было три штуки:
Но недавно некоторые из вас, возможно, заметили, что в новой версии VMware vSAN (которая доступна с VMware vSphere 6.5 Update 1 Patch 02) остался только одиноко болтающийся тест на создание виртуальной машины:
Дункан Эппинг пишет, что это обусловлено двумя факторами:
Тест Multicast performance ушел, так как мультикаст-режим был убран из VMware vSAN (еще в версии vSAN 6.6), соответственно, ушел и тест на его производительность. Теперь когда вы используете vSAN в режиме юникаст, то тест показан не будет, но если будете использовать все же мультикаст - тест появится.
А вот тест Storage Performance ушел вот почему: у VMware есть методика тестирования HCI Bench, которая позволяет провести комплексный тест производительности отказоустойчивых кластеров хранилищ vSAN, а также других конфигураций виртуальной инфраструктуры. Это очень гибкий инструмент, который позволяет проводить наиболее точное тестирование и настраивать различные аспекты методики и среды тестирования. Соответственно, VMware решила поддерживать только один инструмент, а Storage Performance Test убрать из клиента для управления виртуальной инфраструктурой.
Недавно мы писали, что в начале года компания VMware выпустила обновления своей платформы виртуализации настольных ПК предприятия - VMware Horizon 7.4. Параллельно с апдейтом этого VDI-решения было проведено и обновление клиентов, в частности вышел VMware Horizon Client 4.7 for iOS, работающий на устройствах iPhone и iPad.
Давайте посмотрим, что нового появилось в Horizon Client 4.7:
Улучшения восстановления соединения VMware Blast. Эта функция была улучшена в плане надежности механизмов пересоединения и повторной передачи при временных сбоях в сети. В большинстве таких случаев приложения продолжают работать после короткой паузы. Для приложений чувствительных ко времени отклика VMware Blast перезапускает сессию.
Поддержка Derived credentials (аутентификация через одноразовые пароли) для аутентификации на удаленном десктопе. Для этого поддерживается решение Purebred.
Драг энд дроп текста и картинок. Эта функция показана в видео ниже. Можно перетаскивать объекты из клиентского устройства в опубликованное приложение или в открытое приложение на виртуальном десктопе.
А вот так это работает с клавиатурой и мышью Swiftpoint GT:
Генерация ярлыков и ссылок на сайты. Теперь можно перетащить ярлык сервера, десктопа или приложения на другое приложение, чтобы сгенерировать URI. Также можно перетащить имя сервера на страницу Servers, чтобы присоединиться к нему.
Поддержка аутентификации Face ID. Теперь можно выбрать этот способ аутентификации на айфонах и других будущих устройствах с поддержкой Apple Face ID.
Будет проведён краткий обзор функционала VMware vCloud Extender, существенно упрощающего и расширяющего возможности миграции сервисов в облако, а также решающий задачи обеспечения высокой доступности для ЦОД, рассмотрены наиболее характерные сценарии его применения. Кроме того, вас ждёт живая демонстрация продукта на платформе VMware vSphere 6.5 от Облакотеки.
Вебинар будет интересен прежде всего техническим руководителям и специалистам компаний, которые только планируют или уже активно используют для своих нужд облачные среды на платформе VMware.
Приходите - будет действительно интересно, живое демо продукта и разъяснение технических моментов по продукту vCloud Extender, о которых вы часто спрашиваете.
На днях мы писали о том, что компания VMware выпустила обновления VMware vCenter и ESXi, закрывающие потенциальную угрозу безопасности Spectre (она же Hypervisor-Assisted Guest Mitigation - CVE-2017-5715), которая недавно была обнаружена в процессорах Intel. Для закрытия уязвимости нужно обновить не только серверы ESXi и vCenter, но и микрокод (BIOS/Firmware) серверов (более подробная информация также приведена в KB 52085).
На днях наш читатель Сергей прислал ссылку на скрипт от Вильяма Лама, который позволяет провести проверку компонентов виртуальной инфраструктуры VMware vSphere на данную уязвимость. Этот PowerCLI-скрипт содержит две функции:
Verify-ESXiMicrocodePatchAndVM
Verify-ESXiMicrocodePatch
Первая функция позволяет проверить хосты ESXi и виртуальные машины и сгенерировать отчет в разрезе виртуальных машин. Если в колонке Affected стоит значение False - значит обновления и микрокода сервера, и хоста ESXi были применены, а сами ВМ и хост-сервер не подвержены уязвимости Spectre.
Вторая функция проверяет только, что на хостах ESXi накачено обновление как микрокода, так и самого гипервизора ESXi, который видит обновленные CPU features.
Функция Verify-ESXiMicrocodePatchAndVM может быть запущена тремя способами:
Без параметров - проверяется все окружение VMware vSphere и все виртуальные машины в нем.
С параметром - ClusterName - проверяется конкретный кластер и всего его хосты и ВМ.
С параметром - VMName - проверяется только конкретная ВМ и ее хост, соответственно.
У функции Verify-ESXiMicrocodePatch также есть три способа вызова:
Без параметров - проверяются все хост-сервера в инфраструктуре vCenter.
С параметром - ClusterName - проверяется конкретный кластер и всего его хосты.
С параметром - VMHostName - проверяется конкретный хост-сервер ESXi.