Компания VMware выкатила новую версию партнерского образовательного ресурса VMware Partner University. Напомним, что этот портал позволяет сотрудникам партнеров компании VMware получать информацию о продуктах и технологиях VMware, участвовать в образовательных программах по существующим и перспективным решениям, а также получать различного рода сертификации.
Давайте посмотрим, что нового в обновленном VMware Partner University:
Solution Learning Paths – теперь обучающиеся сотрудники партнеров разделены по уровням от новичков до экспертов в разрезе 5 областей, в которых находятся продукты и технологии VMware. Обучение предназначено для персонала в области продаж, маркетинга и технических специалистов. Также новые треки обучения для Customer Success и Practice Development будут доступны во второй половине 2023 финансового года (календарные даты 30 июля 2022 - 3 февраля 2023).
Academies – этот раздел содержит таргетированные материалы и контент курсов, которые предназначены для партнеров, ориентированных на отдельные вертикали. Например, сейчас есть специальные сайты для Telco и Security, а в новом финансовом году будут доступны новые порталы.
Dynamic Search – функции динамического поиска теперь позволяют искать курсы и материалы, отфильтрованные по семейству продуктов, их именам, разделам решений, доступности на конкретном языке, а также типу или активности (Hands-on Lab, LiveFire или vmLIVE).
Personalization functions – эти возможности позволяют пользователю продолжить навигацию по контенту, из которого он ушел, консолидировать регистрации на события и отслеживать их, а также сохранять его для будущего просмотра. Кроме того, можно видеть прогресс по завершению контента, скачивать описания материалов и просматривать, что появилось нового в области интересов этого пользователя.
Support Chat Bot - теперь для обращений в поддержку существенно уменьшилось время ответа (от одной недели до ответа почти в реальном времени), то есть партнеры теперь могут своевременно получать помощь в продвижении по выбранной траектории обучения.
Обновленная версия портала VMware Partner University доступна по этой ссылке.
В середине июня компания VMware представила сообществу Open Source свою новую разработку - нереляционную базу данных типа key-value SplinterDB. Базы данных с механиками "ключ-значение" работают очень быстро и в данный момент применяются для решения широкого круга задач. VMware сделала тут вот какую вещь - эта СУБД работает еще быстрее остальных (иногда в разы), поэтому она позиционируется как "ultra fast"-решение для высокопроизводительных нагрузок.
Платформа SplinterDB была разработана VMware Research Group в плотном сотрудничестве с группой разработки решений линейки vSAN. Ключевой особенностью этой базы данных является возможность быстро работать как с запросами на вставку/обновление данных, так и с запросами на чтение пар ключ-значение из хранилища. Вот так это выглядит в сравнении с СУБД RocksDB (она была разработана в Facebook), которая работает в той же нише, что и SplinterDB, на примере бенчмарка Yahoo Cloud Services Benchmark (YCSB):
SplinterDB максимально использует возможности ядер процессоров, легко масштабируется и использует все преимущества технологии организации хранилищ NVMe. Поэтому SplinterDB можно использовать поверх существующих key-value хранилищ, а также традиционных реляционных баз данных, NoSQL-СУБД, микросервисов, обработчиков потоков, архитектуры edge/IoT, хранилищ метаданных и графовых баз данных.
SplinterDB - это внедренное key-value хранилище во внешней памяти, что означает, что приложения используют SplinterDB путем линковки библиотеки SplinterDB в свой исполняемый файл. SplinterDB хранит данные на высокопроизводительных дисках SSD NVMe и может масштабироваться до огромных датасетов, которые значительно превышают объемы доступной памяти RAM.
На картинке выше показан пример, где SplinterDB и RocksDB хранили датасет 80 GiB в системе, имеющей 4 GiB RAM. Так как лишь малая часть базы данных помещалась в кэш оперативной памяти, то эффективность работы подсистемы ввода-вывода была ключевым фактором оценки производительности. Для теста использовались диски Intel Optane SSD, которые поддерживают 2 GiB/sec на чтение и запись. При этом RocksDB использовала только 30% доступного канала обмена с хранилищем (для операций записи), а SplinterDB использовала до 90% канала. При чтении SplinterDB также показала себя в полтора раза лучше, чем RocksDB, за счет более эффективного использования CPU и техник кэширования.
В чем же секрет такого высокого уровня производительности? Дело в том, что современные key-value хранилища (включая SplinterDB, RocksDB, LevelDB, Apache Cassandra и другие) хранят данные в больших сортируемых таблицах. Запросы ищут значения в каждой таблице, спускаясь от новых данных к старым. Таким образом, запросы замедляют систему, накапливая все больше и больше таблиц с данными. Чтобы избежать замедления работы, эти системы время от времени объединяют несколько отсортированных таблиц в одну (это называется compaction). Это и создает дисбаланс между скоростью на чтение и скоростью на запись. За счет этого запросы исполняются быстро, но вот вставка данных замедляется. Если compaction делать реже, то вставка будет работать быстрее, но и чтение замедлится.
SplinterDB делает compaction более чем в 8 раз реже, чем RocksDB, поэтому вставка данных и работает в первой примерно в 7 раз быстрее, чем во второй. Но что со скоростью на чтение? Чтобы поддерживать высокую скорость чтения, SplinterDB работает иначе, чем современные хранилища. Большинство из них используют фильтры Bloom (или их еще называют cuckoo), чтобы ускорять запросы.
Фильтр - это маленькая структура данных, которая представляет некое множество из таблицы. RocksDB и аналоги используют один фильтр для каждой таблицы, и запросы прежде всего проверяют фильтр перед тем, как искать во всей таблице, чтобы большинство запросов могли искать только в небольшой структуре. Задумка здесь в том, что фильтры будут хранится в памяти, поэтому I/O операции с хранилищами будут вызываться нечасто.
На быстрых хранилищах этот подход работает не так эффективно, особенно когда набор данных в БД значительно превышает размер доступной оперативной памяти. На быстрых хранилищах затраты на CPU при поиске в фильтрах могут быть высокими ввиду большого числа фильтров. При этом может произойти ситуация, когда фильтры не помещаются в память, поэтому они отбрасываются на диск, что делает их использование в этом случае бесполезным.
SplinterDB использует новый вид фильтра, называемый routing filter. Один такой фильтр может заменить несколько фильтров типа Bloom, cuckoo или ribbon и может покрыть сразу несколько таблиц. Обычные фильтры могут сказать только, есть ли соответствующий ключ в доступности в данный момент или нет, а вот routing filter может не только сказать, что ключ есть, но и указать на то, какая конкретно из отсортированных таблиц его содержит. Поэтому запросам нужно делать гораздо меньше работы по поиску в фильтрах, а значит снижается нагрузка на CPU.
Кроме того, поиск в одном фильтре может сильно сэкономить на запросах ко многим таблицам, даже если этот фильтр занимает много места в RAM. Этот механизм работы с данными и был придуман в VMware. Все это позволяет существенно экономить на вычислительных мощностях для очень тяжелых и интенсивных нагрузок.
Аналитическая компания IDC недавно опубликовала 3 интересных документа, отражающих исследования рынка программного обеспечения в области управления оконечными устройствами на базе различных программно-аппаратных платформ.
Первое исследование - "MarketScape Worldwide Unified Endpoint Management Software" - посвящено решениям для управления пользовательскими средами и устройствами Unified Endpoint Management (UEM) на основе унифицированного подхода. Тут VMware занимает сильную позицию в квадранте лидеров:
Напомним, что у VMware данный аспект управления виртуальной и физической ИТ-средой реализуется продуктом Dynamic Environment Manager (DEM). Он предназначен для настройки и контроля пользовательских окружений на уровне ОС средствами политик (ранее он назывался VMware User Environment Manager, UEM). Этот продукт входит в семейство решений VMware Workspace ONE, которое получило новые возможности по управлению пользовательскими средами (включая мобильные устройства) после покупки компании AirWatch в 2014 году.
Второе исследование IDC - "Worldwide Unified Endpoint Management Software for Ruggedized/Internet of Things Device Deployments 2022" рассказывает о не только о решениях на базе стандартных пользовательских устройств, таких как компьютеры, ноутбуки, телефоны и планшеты, но и о продуктах и технологиях для управления промышленными системами, такими как медицинское оборудование, производственные IoT-устройства и различные платформы отдельных вертикалей, таких как логистика, общественная безопасность, строительство и прочие. Например, посмотрите наши заметки о решениях Workspace ONE ConQuest, XR Hub или Freestyle Orchestrator.
В третьем исследовании - MarketScape for UEM Software for Apple Devices 2022 - рассказывается о сложной для всех крупных предприятий теме - управлении устройствами Apple, которые, как известно, не всегда просто интегрировать в корпоративную инфраструктуру, а сотрудники широко ими пользуются, совмещая личное и рабочее окружение.
Тут VMware также в числе лидеров (забавно, что названия главного игрока, компании Jamf, на картинке не различить):
Тут VMware также имеет инструменты для управления устройствами на базе macOS и iOS, которые входят в состав решения Workspace ONE еще со времен покупки компании AirWatch. Еще здесь можно выделить некоторые новые инструменты, такие как Workspace ONE Mobile Threat Defense, Mobileconfig Importer и App Analyzer for macOS.
Таги: VMware, IDC, Whitepaper, AirWatch, Workspace ONE, DEM
На сайте проекта VMware Labs обновилось средство
Skyline Automation Toolkit до версии 1.2.5. Этот продукт предназначен для предоставления расширенной технической поддержки некоторым клиентам для Enterprise-продуктов с целью предотвратить возникновение проблем в будущем на базе анализа текущего состояния виртуальной среды. В последний раз мы писали об этом решении тут.
Появилось также новое обзорное видео о данной утилите:
Давайте посмотрим, что нового в Skyline Automation Toolkit версий 1.2.5 и 1.2.3:
Добавлена команда "skyline-comm get-findings custom" на базе запроса от клиента
Добавлена команда "skyline-comm get-findings detailall FILE.CSV" в целях сбора полученных объектов для любых CSV-отчетов
Добавлена опция "skyline-comm get-findings top 5|10|25|50|200"
Код утилиты был оптимизирован в целях уменьшения объема и лучшей читаемости
Скачать Skyline Automation Toolkit 1.2.5 можно по этой ссылке.
Данная архитектура описывает дизайн инфраструктуры в части состава компонентов и их внутреннего и внешнего взаимодействия. Для производственных систем VMware рекомендует иметь два независимых экземпляра Tanzu Application Platform. Первый - для операторов, чтобы они могли выполнять внутренние тесты на надежность, функциональность инфраструктуры и для контроля качества обслуживания пользователей, а второй - для производственных нагрузок. Эти окружения должны быть изолированы на уровне отдельных кластеров.
В качестве необходимых требований к инфраструктуре TAP VMware указывает следующие:
LoadBalancer для входящего контроллера (ingress controller), который имеет выделенный внешний IP-адрес
Класс хранилищ по умолчанию
Не менее 16 ГБ доступной памяти, доступной в рамках кластеров, не менее 8 ГБ на узел
Включенное логирование для выбранной системы сохранения файлов журнала
Включенный мониторинг для выбранной системы application observability platform
Также рекомендуется иметь три зоны Availability Zones (AZs) для обеспечения высокой доступности, а таже не устанавливать Tanzu Service Mesh (TSM).
Также в документе и внутрикластерная архитектура сервисов:
Мы довольно часто пишем о максимальных параметрах виртуальной инфраструктуры VMware vSphere и ее компонентов, в частности VMware vCenter (например, тут и тут). Сегодня мы немного освежим эти данные на примере последней версии сервера управления vCenter и приведем несколько примеров. Для начала напомним, что актуальные данные по максимальным конфигурациям продуктов VMware можно найти по адресу: https://configmax.vmware.com, а также в официальной документации.
Кроме того, у VMware есть отличное видео, посвященное лимитам vCenter и правилам выполнения одновременных операций в виртуальной среде:
Итак, лимиты можно разделить на 2 категории:
Глобальные лимиты для инфраструктуры (виртуальный датацентр).
Лимиты на уровне хоста и его компонентов (например, сетевые адаптеры).
Если говорить о глобальных параметрах, то значения тут следующие:
Вы можете запустить до 640 одновременных операций в vCenter, пока они не начнут становиться в очередь.
Всего можно запустить до 2000 одновременных операций на один сервер vCenter.
На уровне хостов ESXi есть следующие механизмы работы и ограничения:
Хосты ESXi 6 и 7 версий имеют 16 слотов для выполнения операций в единицу времени:
Любая операция с виртуальными машинами потребляет какое-то количество слотов на источнике и целевом хосте.
Операция Storage vMotion стоит 8 слотов на хост. Если вы меняете только датастор у виртуальной машины, оставляя тот же хост, то потребляются эти 8 слотов, то вы можете сделать 2 одновременных миграции. Ранее это работало несколько иначе - смотрите наш пост вот тут.
Операция Linked clone потребляет 1 слот, но для этого у вас уже должен быть создан снапшот. Если у вас его нет, то он сначала создается - это может замедлить создание первого связанного клона. Также снапшот требуется и при клонировании включенной ВМ, где требуется уже 2 слота (то есть одновременно можно делать 8 таких операций для данной пары хостов).
Операции Clone, Relocate и vMotion стоят 2 слота каждая на каждом хосте - то есть и на источнике, и на целевом (суммарно получается потребляется 4 слота на двух хостах). Это же работает и при клонировании ВМ на том же самом хосте - на нем в этот момент потребляется 4 слота (то есть одновременно на хосте можно делать 4 таких операции).
Для датасторов также есть слоты и ограничения на одновременные операции:
У одного датастора есть 128 слотов.
Операция vMotion стоит 1 слот, то есть на одном датасторе может проходить до 128 одновременных миграций vMotion.
Операция Storage vMotion стоит 16 слотов, то есть на одном датасторе может проходить до 8 одновременных миграций vMotion.
Это же работает и для датасторов vSAN, где часто встречаются конфигурации с одним датастором - это надо иметь в виду.
Лимиты для сетевых адаптеров сейчас следующие (помните, что для vMotion лучше иметь отдельный адаптер или выделенную пару портов на нем):
У 1Gb NIC есть 4 слота, то есть можно делать до 4 одновременных миграций vMotion через этот адаптер.
У 10Gb и 25Gb NIC есть 8 слотов, то есть можно делать до 8 одновременных миграций vMotion через такие адаптеры.
Более подробно об организации адаптеров для vMotion вы можете прочитать в KB 2108824.
Некоторое время назад мы писали о службах VMware vSphere Cluster Services (ранее они назывались Clustering Services), которые появились в VMware vSphere 7 Update 1. Они позволяют организовать мониторинг доступности хостов кластера vSphere, без необходимости зависеть от служб vCenter. Для этого VMware придумала такую штуку - сажать на хосты кластера 3 служебных агентских виртуальных машины, составляющих vCLS Control Plane, которые отвечают за доступность кластера в целом:
Надо отметить, что эти службы обязательны для функционирования механизма динамической балансировки нагрузки в кластере VMware DRS. Если вы выключите одну из виртуальных машин vCLS, то увидите предупреждение о том, что DRS перестанет функционировать:
Иногда требуется отключить службы Cluster Services, что может оказаться необходимым в следующих случаях:
Вам нужно правильно удалить кластер HA/DRS и выполнить корректную последовательность по выводу его из эксплуатации
Требуется удалить / пересоздать дисковые группы VMware vSAN, на хранилищах которых размещены виртуальные машины vCLS
Вам не требуется использовать DRS, и вы хотите отключить эти службы. В этом случае помните, что механизм обеспечения отказоустойчивости VMware HA также будет функционировать некорректно. Он зависит механизма балансировки нагрузки при восстановлении инфраструктуры после сбоя - именно на DRS он полагается при выборе оптимальных хостов для восстанавливаемых виртуальных машин.
Режим, в котором службы Cluster Services отключены, называется Retreat Mode. Итак, заходим в vSphere Client и выбираем кластер, в котором мы хотим ввести Retreat Mode. В строке браузера нам нужна строка вида:
domain ID domain-c<number>
Скопировав эту часть строчки, идем в Advanced Setting сервера vCenter и нажимаем Edit Settings:
Далее создаем там параметр со следующим именем и значением false:
config.vcls.clusters.domain-cxxx.enabled
Где cxxx - это идентификатор домена, который вы скопировали на прошлом шаге:
После этого нажимаем кнопку Save. В консоли vSphere Client в разделе vCLS для кластера мы увидим, что этих виртуальных машин больше нет:
На вкладке Summary мы увидим предупреждение о том, что vSphere Cluster Services больше не работает, а службы DRS вследствие этого также не функционируют корректно:
Чтобы вернуть все как было, нужно просто удалить добавленный параметр из Advanced Settings сервера vCenter.
На прошлой конференции VMworld 2021 компания VMware представила решение Project Ensemble, которое предназначено для мультиоблачных инфраструктур, построенных на базе комбинации различных частных и публичных облаков, где требуется предоставление пользователям единого и подстроенного под них интерфейса, ориентированного на приложения.
Данное решение родилось из растущей необходимости предприятий организовать простой доступ пользователей к инфраструктуре приложений, которая на нижних уровнях выглядит вовсе непросто. Компании сейчас используют публичные облака от различных вендоров, а также собственную гетерогенную инфраструктуру - и все это объединяется с помощью средств управления, которыми заведуют команды Enterprise-администраторов.
Частая проблема такой организации - трудность управления сущностями (например, виртуальными машинами), которые контролируются из различных компонентов виртуальной инфраструктуры. Виртуальную машину может создать сервер управления vCenter, но не только. Ее можно развернуть в рамках рабочего процесса vRealize Automation, тогда она получит его ID.
Операции с ВМ и их модификацией могут осуществлять такие продукты, как vRealize Operations, vRealize Network Insight и другие - все это вовлекает новые идентификаторы и собственные их базы данных в разных продуктах:
При выполнении операций, например, при мониторинге инфраструктуры средствами vRealize Operations (vROPs), продукту vRealize Automation (vRA) очень было бы полезно знать некоторую информацию из vROPs.
Если мы, к примеру, хотим удостовериться, что развернутое из vRealize Automation приложение сейчас в здоровом статусе в vRealize Operations, то нужно понимать и вызывать два разных API от обоих продуктов. Потом нужно как-то сопоставить эту информацию и использовать ее дальше в сценарии автоматизации. А теперь представим, что подобного рода объектов тысячи или десятки тысяч в большой инфраструктуре.
Для решения этой проблемы и нужен
VMware Project Ensemble. Он предоставляет различным сервисам единую поверхность потребления информации об объектах, которые находятся под контролем различных компонентов виртуальной инфраструктуры (Ensemble по-французски означает "вместе").
Итак, Project Ensemble получает все данные от различных служб (например, vRealize Operations, vRealize Automation и vRealize Network Insight) и нормализует эти данных в рамках унифицированной модели common object model.
Далее в рамках концепции подхода API First можно получать различные данные об объекте в рамках лишь одного API-вызова. Вот так это визуализуется в консоли Project Ensemble для сервиса NSX Edge:
Многие пользователи VMware уже привыкли к RESTful API и Swagger, для которых VMware имеет большой объем документации. Но в данном случае Project Ensemble использует GraphQL для получения данных. В этом фреймворке есть 3 операции:
Query - получение информации об объектах
Mutation - запрос на выполнение действия с объектом
Subscription - возможность отслеживать изменения в системе, когда они происходят
Project Ensemble педоставляет удобную оболочку разработки веб-IDE для GraphQL (на базе проекта GraphiQL):
Вот тут рассказано об API этого проекта, а мы посмотрим несколько примеров.
Объекты в среде Ensemble называются сущностями (entities). Обратиться к ним можно в рамках простого поиска по имени. Например, найдем объекты виртуальные машины, в имени которых содержится строка "Dina":
В ответе мы увидим данные от таких продуктов, как vRealize Automation, vRealize Operations и vRealize Network Insight:
Мы видим, что в каждом сервисе есть определенные ID данного объекта. Но для того, чтобы получить какие-то свойства объекта через Ensemble можно просто использовать универсальный Ensemble entity ID.
Например, мы хотим узнать CPU usage из решения vRealize Operations. Для этого можно сформировать вот такой запрос:
В качестве ответа мы получим актуальное значение метрики из vROPs:
Также можно выполнять действия через механизм mutations. Вот таким запросом мы можем сначала узнать о доступных действиях с объектом:
В ответе будет список только доступных действий. Вот так, например, будет выглядеть ответ для включенной виртуальной машины (у нее, само собой, нет действия Power on):
Кстати, обратите внимание, что ранее в запросе было поле actionRequests - это список действий, которые выполнялись с этой сущностью:
Итак, чтобы выполнить запрос на mutation, нужно создать вот такую конструкцию, содержащую entityId и actionDefinitionId из результатов запроса выше:
После этого мы увидим, что действие начало выполняться:
Через несколько минут оно перейдет в статус выполненного:
Вот таким образом VMware Project Ensemble позволит унифицировать операции с объектами под управлением различных сущностей в инфраструктуре виртуальных машин и приложений на основе API First подхода.
Компания VMware на днях анонсировала новый продукт из линейки Workspace ONE - Mobile Threat Defense. Это решение дополняет существующие средства по защите пользовательских окружений в части мобильных приложений на платформах Android, iOS и Chrome OS. Уже сегодня этот продукт доступен для пользователей и имеет интеграцию с решением Workspace ONE Intelligent Hub и UEM.
За счет интеграции с Intelligent Hub не требуется установки каких-то новых приложений или сервисов на пользовательские устройства. Администратору требуется лишь включить функции ONE Mobile Threat Defense в настройках, и данное решение автоматически будет развернуто на мобильных устройствах.
Основные возможности по защите мобильных пользовательских сред:
1. Средства защиты мобильных устройств
От атак типа SSL certificate stripping
От слабых алгоритмов (weaker algorithm negotiation)
От сканеров портов
От spyware и surveillance ware
От sideloaded apps
2. Механизмы обработки вредоносного контента и фишинговых угроз
В почте, SMS, мессенжерах и социальных приложениях
Выстраивание цикла обновления ОС и накатывания патчей
Решение проблем с устаревшими и давно не обновляемыми приложениями
4. Управление конфигурациями
Отслеживание Jailbreak / root access
Управление механизмом Wi-Fi auto join
Выявление приложений, которые негативно влияют на пользовательское окружение и устройство
Более подробно о решении Workspace ONE Mobile Threat Defense можно узнать на этой странице (там же есть и небольшое видео о продукте). Документация доступна тут.
Многие администраторы виртуальных инфраструктур используют технологию NVIDIA vGPU, чтобы разделить физический GPU-модуль между виртуальными машинами (например, для задач машинного обучения), при этом используется профиль time-sliced vGPU (он же просто vGPU - разделение по времени использования) или MIG-vGPU (он же Multi-Instance vGPU, мы писали об этом тут). Эти два режима позволяют выбрать наиболее оптимальный профиль, исходя из особенностей инфраструктуры и получить наибольшие выгоды от технологии vGPU.
Итак, давайте рассмотрим первый вариант - сравнение vGPU и MIG vGPU при увеличении числа виртуальных машин на GPU, нагруженных задачами машинного обучения.
В этом эксперименте была запущена нагрузка Mask R-CNN с параметром batch size = 2 (training and inference), в рамках которой увеличивали число ВМ от 1 до 7, и которые разделяли A100 GPU в рамках профилей vGPU и MIG vGPU. Эта ML-нагрузка была легковесной, при этом использовались различные настройки профилей в рамках каждого тестового сценария, чтобы максимально использовать время и память модуля GPU. Результаты оказались следующими:
Как мы видим, MIG vGPU показывает лучшую производительность при росте числа ВМ, разделяющих один GPU. Из-за использования параметра batch size = 2 для Mask R-CNN, задача тренировки в каждой ВМ использует меньше вычислительных ресурсов (используется меньше ядер CUDA) и меньше памяти GPU (менее 5 ГБ, в сравнении с 40 ГБ, который имеет каждый GPU). Несмотря на то, что vGPU показывает результаты похуже, чем MIG vGPU, первый позволяет масштабировать нагрузки до 10 виртуальных машин на GPU, а MIG vGPU поддерживает на данный момент только 7.
Второй вариант теста - vGPU и MIG vGPU при масштабировании нагрузок Machine Learning.
В этом варианте исследовалась производительность ML-нагрузок при увеличении их интенсивности. Был проведен эксперимент, где также запускалась задача Mask R-CNN, которую модифицировали таким образом, чтобы она имела 3 разных степени нагрузки: lightweight, moderate и heavy. Время исполнения задачи тренировки приведено на рисунке ниже:
Когда рабочая нагрузка в каждой ВМ использует меньше процессора и памяти, время тренировки и пропускная способность MIG vGPU лучше, чем vGPU. Разница в производительности между vGPU и MIG vGPU максимальна именно для легковесной нагрузки. Для moderate-нагрузки MIG vGPU также показывает себя лучше (но немного), а вот для тяжелой - vGPU уже работает производительнее. То есть, в данном случае выбор между профилями может быть обусловлен степенью нагрузки в ваших ВМ.
Третий тест - vGPU и MIG vGPU для рабочих нагрузок с высокой интенсивность ввода-вывода (например, Network Function with Encryption).
В этом эксперименте использовалось шифрование Internet Protocol Security (IPSec), которое дает как нагрузку на процессор, так и на подсистему ввода-вывода. Тут также используется CUDA для копирования данных между CPU и GPU для освобождения ресурсов процессора. В данном тесте IPSec использовал алгоритмы HMAC-SHA1 и AES-128 в режиме CBC. Алгоритм OpenSSL AES-128 CBC был переписан в рамках тестирования в части работы CUDA. В этом сценарии vGPU отработал лучше, чем MIG vGPU:
Надо сказать, что нагрузка эта тяжелая и использует много пропускной способности памяти GPU. Для MIG vGPU эта полоса разделяется между ВМ, а вот для vGPU весь ресурс распределяется между ВМ. Это и объясняет различия в производительности для данного сценария.
Основные выводы, которые можно сделать по результатам тестирования:
Для легковесных задач машинного обучения режим MIG vGPU даст бОльшую производительность, чем vGPU, что сэкономит вам деньги на инфраструктуру AI/ML.
Для тяжелых задач, где используются большие модели и объем входных данных (а значит и меньше ВМ работают с одним GPU), разница между профилями почти незаметна.
Для тяжелых задач, вовлекающих не только вычислительные ресурсы и память, но и подсистему ввода-вывода, режим vGPU имеет преимущество перед MIG vGPU, что особенно заметно для небольшого числа ВМ.
Недавно компания VMware провела действительно полезный вебинар для администраторов и менеджеров датацентров, в котором рассказала о самых последних лучших практиках по эксплуатации и обслуживанию виртуальной инфраструктуры VMware vSphere 7:
В целом, это видео не только для администраторов, но и для всех тех, кто продает, использует, развертывает, настраивает и управляет решениями VMware на ежедневной основе. В рамках вебинара вы узнаете о некоторых нетривиальных возможностях из богатого набора VMware vSphere 7.x, которые появились после релиза первоначальной версии 7.0.
Например, в видео рассказывается о функциях vSphere Cluster Services (vCLS), переработанных механизмах vMotion и DRS, новых возможностях поддержки GPU для требовательных к графике и CUDA-приложений, а также многих других нововведениях.
В целом, вы узнаете о лучших практиках в следующих сферах:
Проектирование виртуальной архитектуры
Развертывание vSphere
Тюнинг производительности
Использование средств управления
Масштабирование инфраструктуры
Обеспечение отказоустойчивости компонентов виртуальной среды
В апреле компания VMware выпустила обновление своего основного фреймворка для управления виртуальной инфраструктурой и ее компонентами из командной строки PowerCLI 12.6. О прошлой версии PowerCLI 12.5 мы писали в январе вот тут, а сегодня расскажем, что появилось нового в весеннем обновлении.
Основные улучшения и нововведения:
1. Байндинги PowerShell для интерфейсов NSX Policy Manager API.
Теперь появился новый модуль VMware.Sdk.Nsx.Policy, который реализует байндинг PowerShell для программных интерфейсов NSX Policy Manager API.
2. Новые командлеты для управления виртуальным модулем vCenter Server Appliance.
Теперь для управления резервными копиями vCenter Server Appliance можно использовать следующие командлеты:
New-ApplianceBackupJob - стартует задачу резервного копирования на уровне файлов vCenter Server на бэкап-сервер.
Wait-ApplianceBackupJob - мониторит прогресс задачи резервного копирования и возвращает в ApplianceBackupJob.
Get-ApplianceBackupJob - получает список завершенных или находящихся в исполнении задач резервного копирования.
Get-ApplianceBackupPart - получает список частей (parts), которые могут быть включены в задачу РК, а также их размер в резервной копии. Обязательные части всегда включаются в бэкап.
3. Поддержка SRM 8.5.
Модуль VMware.VimAutomation.Srm был обновлен и теперь поддерживает решение VMware Site Recovery Manager 8.5.
4. Исправления ошибок.
VMware приводит таблицу с багофиксами:
Product /Category
Cmdlet Name
Description
Status
HCX
New-HCXMigration
VM with multiple networks attached and if migration is triggered without mapping all the source networks to the target, the validation does not throw an error
Fixed
HCX
New-HCXMigration
Initiating a Non-Mobility migration using New-HCXMigration cmdlet does not show the network mapping in the migration dashboard UI
Fixed
vSAN
Get-VsanView
Get-VsanView throws ‘Object reference not set to an instance of an object.’ on PowerShell 7.2.2.
Fixed
HCX
Get-HCXVM
Get-HCXVM cmdlet throws “Unexpected character encountered while parsing value: <. Path ”, line 0, position 0..” when the number of VMs available in the inventory is very big
Fixed
HCX
Get-HCXMigration
Get-HCXMigration cmdlet throws an error if any of the migrations were triggered without providing the ‘TargetStorageProfile’ param
Fixed
Загрузить компоненты фреймворка VMware PowerCLI 12.6 можно по этой ссылке. Release notes доступны тут.
Компания VMware обновила свое решение для облачных провайдеров, предоставляющих виртуальные машины в аренду по модели IaaS - Cloud Provider Lifecycle Manager до версии 1.3 (VCPLCM). Напомним, что Lifecycle Manager предназначен для автоматизации рутинных операций жизненного цикла пользователей, для которых можно разрабатывать свои сценарии развертывания, обслуживания и списания систем, что позволяет сотрудникам сервис-провайдеров (VCPP) сосредоточиться на более высокоуровневых операциях.
О прошлой версии этого продукта мы писали вот тут. Нововведения версии 1.3 сосредоточены в следующих областях:
Давайте посмотрим, что нового появилось в vLCM 1.3 для облачных провайдеров:
1. Решение vLCM теперь Stateful
Теперь конфигурация инвентаря остается в продукте на постоянной основе на уровне виртуального модуля, который сохраняет информацию о развернутом окружении, такую как продукты и их версии. Теперь нет необходимости получать эту информацию в рамках рабочих процессов по выполнению day 2 операций.
2. Улучшенная поддержка других продуктов в составе виртуального датацентра
Некоторые компоненты датацентра определяются как инстансы или сервисы, которые не управляются со стороны VCPLCM. С новой версией API v2 теперь доступна регистрация решений vCenter, NSX-T и vROPS как компонентов датацентра.
Также VCPLCM 1.3 теперь имеет совместимость со следующими версиями решений от VMware:
VCD 10.1.x, 10.2.x и 10.3.x (протестировано с VCD 10.2.2.2 и 10.3.3)
Usage Meter 4.4 и 4.5
vROPS Tenant App 2.4, 2.6.2 и 8.6.1
RabbitMQ – Bitnami VM image 3.8.6 и 3.8.14
3. VCPLCM 1.3 теперь имеет графический интерфейс
Теперь у решения появился полноценный GUI, который существенно увеличивает скорость работы с виртуальным модулем. Также уже существовавшие интерфейсы CLI и API никуда не делись и остались в продукте.
В графический интерфейс CPLCM можно попасть по ссылке:
https://<vcplcm-appliance>
В главном разделе "Environments" можно увидеть все развернутые продукты списком в алфавитном порядке, а также в том порядке, в котором они были развернуты. Также приводятся общие сведения об этих продуктах с возможностью открыть его или скачать его JSON-описание.
В данный момент VCPLCM поддерживает 3 компонента: vCenter, NSX-T и vROPS. Их можно увидеть в разделе "Datacenters". Они также идут в алфавитном порядке, либо в порядке того, в котором они были развернуты. Тут тоже есть информация о компонентах и возможность скачать JSON.
Таким образом, в дополнение к функции Overview, в решении можно выполнять следующие операции для объектов из GUI:
Валидировать компоненты датацентра
Регистрировать компоненты
Скачивать определения JSON для компонентов датацентра
Создавать, развертывать или скачивать JSON-определения для развернутых продуктов
Загрузить VMware Cloud Provider Lifecycle Manager 1.3 можно по этой ссылке. Рекомендации по апгрейду с прошлых версий доступны тут.
В конце мая компания VMware обновила несколько полезных утилит на сайте проекта VMware Labs, о которых мы хотим сегодня рассказать. Напомним, что о прошлом обновлении трех продуктов на этом портале мы недавно писали вот тут.
Итак, давайте посмотрим, что нового:
1. Skyline CLI
версии 1.0.2
Решение Skyline CLI позволяет с помощью интерфейса командной строки автоматизировать операции и конфигурации компонентов Skyline Collectors. Несколько подробнее мы писали о нем тут.
Что нового в этом обновлении:
Виртуальный модуль Skyline collector OVA получил новые возможности при развертывании и конфигурации решения
Поддержка мониторинга конечных компьютеров с использованием решения VMware vRealize Operations (vROPs)
2. Horizon Cloud Pod Architecture Tools версии 1.2
Об этом продукте мы писали вот тут. Он предназначен для того, чтобы улучшить исполнение команд назначения глобальных прав доступа. Как знают администраторы VMware Horizon, инфраструктура распределенных узлов cloud pod architecture (CPA) имеет в своем составе команды lmvutil, которые позволяют управлять назначением глобальных прав к базе данных через интерфейс командной строки. Теперь для lmvtools сделали обертку (wrapper), которая позволяет вводить пароль только один раз и далее исполнять команды управления назначением прав.
Что нового в этом обновлении:
Решение протестировано на Horizon 7.13.x и Horizon 8.4.x
Идентифицируются удаленные пользователи и группы. После этого можно удалить права, назначенные удаленным пользователям и группам с помощью команды:
adlds-analyzer.cmd --resolve-site-ga
Исправлены ошибки, связанные с обработкой уязвимости Log4J, таким образом, чтобы использовались текущие библиотеки Horizon Connection Server.
Теперь зависший Global Entitlement Assignment только с локальными назначениями можно убрать с помощью команды:
options adlds-analyzer.cmd --resolve-localpool-ga
Бандлы локалей Horizon 8.4 идут в JSON-формате, также была изменена логика парсинга в целях поддержки других языков при экспорте в CSV
Скачать Horizon Cloud Pod Architecture Tools 1.2 можно по этой ссылке.
3. Skyline Automation Toolkit
версии 1.2.2b
Этот продукт предназначен для предоставления расширенной технической поддержки некоторым клиентам для Enterprise-продуктов с целью предотвратить возникновение проблем в будущем на базе анализа текущего состояния виртуальной среды. Мы писали об этом решении тут.
Что нового в этом апдейте:
Теперь работает не только в Windows 10, но и в PhotonOS
Скачать Skyline Automation Toolkit 1.2.2b можно по этой ссылке.
4. Workspace ONE ConQuest версии 1.1
Это средство позволяет сконфигурировать устройства Meta Quest 2 VR (Firmware v37+) для использования с решением VMware Workspace ONE UEM. С помощью ConQuest, представляющим собой Windows-приложение, администраторы могут запустить его службы на устройстве Meta Quest 2 в режиме разработчика и подсоединить его к Windows-машине через USB-C. Ранее мы писали об этой утилите тут.