Как сообщалось еще в апреле, загрузки VMware Fling были перенесены в раздел бесплатных загрузок на портале поддержки Broadcom (BSP), и этот переход завершился на прошедших выходных. В дальнейшем все новые и обновленные версии VMware Flings будут публиковаться на BSP.
Чтобы получить доступ к загрузкам VMware Flings или любому другому бесплатному или предоставленному программному обеспечению Broadcom, необходимо зарегистрировать бесплатную учетную запись BSP — там допускаются и личные email-адреса (например, Gmail).
После перехода в раздел бесплатных загрузок, выберите раздел (Division) VMware и подраздел Flings:
Там вы увидите полный список бесплатных утилит для виртуальной инфраструктуры VMware vSphere / Cloud Foundation:
К сожалению, не все Flings (которые у нас можно найти по тэгу Labs) выжили, плюс не всегда актуальная версия утилиты соответствует вашей версии среды. Поискать прошлые версии этих утилит можно с помощью Wayback Machine.
На прошедшей недавно конференции VeeamON 2025 было рассказано о скором выходе новой версии Veeam Backup & Replication 13, в которой будут представлены новые функции, направленные на повышение доступности (High Availability, HA), что позволяет компаниям поддерживать бесперебойную работу и защищать критически важные данные даже в случае непредвиденных ситуаций. Эта возможность уже давно запрашивалась пользователями, и вот, наконец, она будет реализована в производственной среде.
Помимо высокой доступности, Veeam Backup & Replication v13 предложит впечатляющие возможности, такие как развертывание сервера управления, хранилища, прокси и других компонентов напрямую из Veeam Software Appliance, мгновенное восстановление в Microsoft Azure, расширенное управление доступом на основе ролей (RBAC), а также множество других улучшений.
В Veeam Backup & Replication v13 возможности HA были расширены за счёт внедрения резервного управляющего сервера, готового к моментальному переключению при необходимости. В фоновом режиме репликация базы данных PostgreSQL обеспечивает постоянное дублирование всех конфигурационных данных, что гарантирует готовность системы к любым сбоям. При этом механизм репликации кэша, встроенный в базу данных, непрерывно передаёт данные на резервный сервер, обеспечивая его синхронность с основным узлом. Такая проактивная настройка устраняет время ожидания в случае аварии — резервная машина Veeam Backup & Replication полностью готова к работе и может быть активирована при необходимости.
На первом этапе функция HA будет доступна только для Veeam Backup & Replication на платформе Linux (дистрибутив основан на Rocky Linux). Процесс переключения выполняется вручную и по требованию — администраторы могут инициировать его в нужный момент, так как автоматические триггеры пока не предусмотрены. Архитектура реализована по схеме "активный-пассивный" с двумя узлами, с акцентом на надёжность.
Настройка сервера
После установки Veeam Backup & Replication v13 с помощью Veeam Software Appliance (в формате .ova или .iso), необходимо выполнить несколько базовых шагов конфигурации самого сервера. В этот процесс входят следующие ключевые этапы:
Настройка имени: присвойте виртуальному модулю понятное и информативное имя для его простой идентификации в инфраструктуре.
Сетевые настройки: установите сетевые параметры для надёжной связи с другими компонентами и резервным сервером.
Настройка NTP: укажите сервер синхронизации времени (Network Time Protocol), чтобы обеспечить точное совпадение времени на всех системах. Это критически важно, например, для проверки одноразовых паролей (OTP).
Пароль в соответствии с DISA STIG: создайте безопасный пароль, соответствующий требованиям DISA STIG, чтобы усилить защиту сервера Veeam Backup & Replication.
OTP для администратора и офицера безопасности Veeam: сгенерируйте и настройте одноразовые пароли для ролей администратора и офицера безопасности (Security Officer). Несмотря на то, что для корректной работы OTP требуется точное время, доступ к интернету для их проверки не нужен, что позволяет использовать систему в изолированных средах.
Настройка кластера
Создание кластера и настройка сети - укажите сетевые параметры для надёжной связи с другими компонентами и резервным сервером.
Задайте сетевые параметры основного и резервного узлов. Убедитесь, что оба узла кластера находятся в одной IP-подсети — на этапе бета-тестирования это обязательное условие.
После этого начнется процесс создания и конфигурации кластера.
Если основной узел не отвечает, вы можете инициировать операцию переключения (failover), чтобы ввести в работу резервный узел.
Важным преимуществом такого подхода является то, что нет необходимости импортировать резервную копию конфигурации, заново создавать задания, импортировать бэкапы или повторно вводить учётные данные — Veeam Backup & Replication продолжает работать без перебоев. Мы ещё увидим, какие дополнительные возможности появятся в финальном релизе, запланированном на конец этого года. Возможно, будут добавлены новые функции, но даже на текущем этапе это крайне полезная возможность, которая экономит массу времени в аварийной ситуации.
Хотя процесс переключения не автоматизирован и должен запускаться вручную авторизованным пользователем, появление команд PowerShell в будущих версиях откроет возможность создания и интеграции собственной логики автоматизации — например, с использованием узла-наблюдателя (witness node).
Компания VMware недавно выпустила обновленную версию средства для виртуализации и агрегации сетей NSX 4.2.2, которое предлагает множество новых функций, обеспечивая расширенные возможности виртуализованных сетей и безопасности для частных облаков.
Основные улучшения охватывают следующие направления:
Межсетевой экран vDefend представляет новый высокопроизводительный режим Turbo (SCRX), который повышает производительность распределённой IDS/IPS-системы и механизма обнаружения приложений уровня L7 для распределённого межсетевого экрана. Новый механизм инспекции использует детерминированное распределение ресурсов и расширенные конвейеры обработки пакетов в гипервизоре ESXi, обеспечивая прирост производительности при значительно меньшем потреблении ресурсов памяти и процессора.
Enhanced Data Path (EDP) получил ряд улучшений, включая добавление скрипта, снижающего необходимость ручного вмешательства при включении EDP в кластере, а также улучшения стабильности, совместимости и снижение влияния на операции жизненного цикла.
В этом выпуске VMware NSX включает улучшения платформы Edge, в том числе новую опцию повторного развертывания и улучшенную документацию по API мониторинга Edge.
Скрипт Certificate Analyzer Resolver (CARR) теперь поддерживает проверку сертификатов Compute Manager (vCenter). Он выполняет проверку целостности и восстановление самоподписных сертификатов NSX, а также может заменять сертификаты, срок действия которых истёк или скоро истечёт.
Среди новых улучшений безопасности платформы — предопределённая роль Cloud Admin Partner, увеличение числа поддерживаемых групп LDAP и Active Directory, а также поддержка стандарта FIPS 140-3.
Сетевые возможности
1. Сеть канального уровня (Layer 2 Networking)
Появился скрипт автоматизации включения режима коммутатора EDP для VCF 5.2.x (NSX 4.2.2). В состав NSX Manager добавлен скрипт enable_uens, предназначенный для сокращения ручных действий при включении режима Enhanced Data Path Standard на кластере. Скрипт последовательно выполняет следующие шаги на хостах:
Переводит хост в режим обслуживания
Обновляет режим коммутатора на EDP
Выводит хост из режима обслуживания
Синхронизирует изменения с Transport Node Profile кластера
Он выполняется из той же директории и применяется к одному кластеру за раз, требуя входных данных из JSON-файла. Подробные инструкции приведены в файле readme скрипта.
Скрипт особенно полезен для релизов NSX 4.x, так как смена режима передачи данных на EDP Standard через настройки Transport Node Profile вызывает немедленные изменения на хостах ESXi, что может привести к сетевому простою на несколько секунд на каждом хосте. Метод "Enabling EDP Standard in Active Environments" снижает простой, но требует ручного вмешательства на каждом хосте, что при масштабных развертываниях становится крайне трудоёмким из-за шагов с режимом обслуживания.
2. Повышение надёжности EDP Standard в рамках долгосрочной поддержки (LTS)
NSX 4.2.2 рекомендуется как основная версия для использования Enhanced Data Path во всех развертываниях VMware Cloud Foundation и типах рабочих доменов, включая кластеры NSX Edge и общие вычислительные кластеры (VI Workload Domains).
EDP рекомендован для достижения максимальной производительности обработки сетевого трафика и минимизации затрат ресурсов на сетевую обработку. В этом релизе реализованы улучшения стабильности и совместимости, благодаря чему он рекомендован в качестве версии с долгосрочной поддержкой (LTS) для NSX 4.2.
Основные улучшения надёжности в NSX 4.2.2:
Повышена производительность EDP при масштабных развертываниях.
Улучшена работа EDP в средах на базе vSAN.
Повышена производительность EDP при использовании распределённого межсетевого экрана.
Расширена совместимость с сетевыми адаптерами через механизм driver shimming.
Совместимость EDP с контейнерными платформами (NCP, Antrea).
Повышена доступность (uptime) канала данных EDP Standard при операциях жизненного цикла — время переключения сокращено с десятков секунд до менее чем 3 секунд.
В пользовательском интерфейсе добавлена кнопка Redeploy Edge, позволяющая легко и быстро повторно развернуть узел Edge. Эта операция запускает соответствующий API, как указано в документации: NSX Edge VM Redeploy API.
Это улучшение упрощает процесс повторного развертывания, снижает операционные издержки и улучшает пользовательский опыт, предоставляя возможность настройки параметров Edge при повторном запуске.
Обновлённая документация по API мониторинга NSX Edge теперь предоставляет более понятные и подробные инструкции. В ней содержатся:
Подробные объяснения всех соответствующих API-вызовов с примерами запросов и ответов.
Полные описания возвращаемых мониторинговых данных, включая поэлементную расшифровку каждого поля.
Глубокое разъяснение всех доступных метрик: что они обозначают, как рассчитываются и как их интерпретировать в реальных сценариях.
Безопасность
1. Межсетевой экран (Firewall)
Распределённый межсетевой экран (Distributed Firewall) использует новый высокопроизводительный режим Turbo (SCRX) для фильтрации приложений уровня L7.
NSX Manager теперь поддерживает большее количество сервисов межсетевого экрана для экземпляров класса Extra Large. Подробности см. в разделе Configuration Maximums.
Группировка в межсетевом экране поддерживает большее число активных участников как для конфигураций Large, так и Extra Large. Подробнее — в Configuration Maximums.
2. IDS/IPS
Распределённая система IDS/IPS демонстрирует значительный прирост производительности благодаря новому высокопроизводительному движку Turbo (SCRX). При использовании нового движка возможно достичь скорости анализа трафика до 9 Гбит/с в зависимости от профиля трафика на хосте ESXi.
Показатели производительности и другие операционные метрики Distributed IDS/IPS доступны в реальном времени через Security Services Platform (SSP).
Внимание: новый движок SCRX предъявляет строгие требования к совместимости с версией ESXi, а также имеет особые условия для установки/обновления. См. раздел Getting Started и выполните Turbo Mode Compatibility Pre-Check Script для проверки среды. Дополнительную информацию можно найти в базе знаний (KB) — статья 396277.
Настоятельно рекомендуется запускать скрипт CARR перед обновлением NSX Manager. Цель — убедиться, что срок действия сертификатов Transport Node (TN) не истекает в течение 825 дней. Если срок действия сертификата TN меньше этого значения, скрипт можно повторно запустить для его замены. См. статью Broadcom KB 369034.
2. Управление доступом (RBAC)
Добавлена новая предопределённая роль Cloud Partner Admin — специально для облачных партнёров, которым необходим доступ к функциям сетей и безопасности, но при этом нужно исключить доступ к просмотру лицензий NSX.
3. Аутентификация через LDAP
Увеличено максимальное число поддерживаемых групп LDAP и Active Directory — с 20 до 500.
4. Сертификация платформы
Поддержка стандарта FIPS 140-3: NSX 4.2.2 теперь использует криптографические модули, соответствующие требованиям FIPS 140-3 (Federal Information Processing Standards). NSX работает в режиме соответствия FIPS по умолчанию во всех развертываниях. Подтверждение соответствия стандарту FIPS 140-3 гарантирует, что NSX использует актуальные криптомодули для надёжной защиты рабочих нагрузок. Дополнительная информация о модулях доступна по ссылке в оригинальной документации.
Broadcom Compatibility Guide (ранее VMware Compatibility Guide) — это ресурс, где пользователи могут проверить совместимость оборудования (нового или уже используемого) с программным обеспечением VMware. Вильям Лам написал интересную статью о доступе к BCG через программный интерфейс VMware PowerCLI.
Существует несколько различных руководств по совместимости, которые можно использовать для поиска информации, начиная от процессоров и серверов и заканчивая разнообразными устройствами ввода-вывода, такими как ускорители и видеокарты. Если у вас небольшое количество оборудования, поиск будет достаточно простым. Однако, если необходимо проверить разнообразное оборудование, веб-интерфейс может оказаться не самым быстрым и удобным вариантом.
Хорошая новость в том, что Broadcom Compatibility Guide (BCG) может легко использоваться программно, в отличие от предыдущего VMware Compatibility Guide (VCG), у которого была другая система бэкенда.
Хотя официального API с документацией, поддержкой и обратной совместимостью для BCG нет, пользователи могут взаимодействовать с BCG, используя тот же API, который применяется веб-интерфейсом BCG.
Обе функции предполагают поиск на основе комбинации идентификаторов поставщика (Vendor ID, VID), идентификатора устройства (Device ID, DID) и идентификатора поставщика подсистемы (SubSystem Vendor ID, SVID).
Примечание: BCG предоставляет разнообразные возможности поиска и фильтрации; ниже приведены лишь примеры одного из способов работы с API BCG. Если вам интересны другие методы поиска, ознакомьтесь со справочной информацией в конце документа, где описаны иные опции фильтрации и руководства по совместимости BCG.
Шаг 1 – Загрузите скрипт queryHostPCIInfo.ps1 (который Вильям также обновил, чтобы можно было легко исключить неприменимые устройства с помощью строк исключений), и запишите идентификаторы устройств (VID, DID, SVID), которые вы хотите проверить.
По умолчанию функция возвращает четыре последние поддерживаемые версии ESXi, однако вы можете изменить это, указав параметр ShowNumberOfSupportedReleases:
При проверке SSD-накопителей vSAN через BCG вы также можете указать конкретный поддерживаемый уровень vSAN (Hybrid Cache, All-Flash Cache, All-Flash Capacity или ESA), используя следующие параметры:
Если вы хотите автоматизировать работу с другими руководствами по совместимости в рамках BCG, вы можете определить формат запроса (payload), используя режим разработчика в браузере. Например, в браузере Chrome, перед выполнением поиска в конкретном руководстве по совместимости, нажмите на три точки в правом верхнем углу браузера и выберите "More Tools->Developer Tools", после чего откроется консоль разработчика Chrome. Далее вы можете использовать скриншот, чтобы разобраться, как выглядит JSON-запрос для вызова API "viewResults".
Компания Broadcom официально объявила о запуске средства измерения использования облачных ресурсов VMware Cloud Foundation версии 9.0 (VCF Usage Meter), ранее известного как VMware vCloud Usage Meter. Оно доступно с 7 мая 2025 года.
Обзор VCF Usage Meter
VCF Usage Meter — это виртуальный модуль, развёртываемый на экземпляре сервера vCenter в рамках частного облака VMware Cloud Foundation. Он играет ключевую роль в измерении потребления основных продуктов в средах VMware Cloud Service Provider (VCSP) и создании отчётов об использовании. Этот релиз включает новые возможности измерения, улучшенную безопасность и поддержку VCF 9.0 (после его предстоящего релиза).
VCF Usage Meter 9.0 является обязательным инструментом для всех поставщиков облачных услуг VMware. Он необходим для измерения использования ядер CPU в соответствии с требованиями программы.
Провайдеры VCSP обязаны обновиться до версии VCF Usage Meter 9.0 в течение 90 дней с момента релиза (General Availability). Если обновление не будет завершено в этот срок, Broadcom перестанет принимать данные об использовании со старых версий Usage Meter, а авторизация поставщика как VCSP будет отозвана.
В таких случаях среда партнёра будет помечена как не соответствующая требованиям программы VCSP, что может привести к несоответствиям в выставлении счетов, ограничению поддержки, исключению из участия в программе и другим связанным последствиям.
Чтобы обеспечить бесперебойную работу и соответствие требованиям, рекомендуется начать планирование обновления как можно раньше, чтобы уложиться в 90-дневный срок. У провайдеров есть время до 5 августа 2025 года, чтобы обновить текущие экземпляры Usage Meter до новой версии VCF Usage Meter 9.0 и сохранить соответствие требованиям.
Новые функции, улучшения и обзор
1. Поддержка измерения метрик VCF 9.0
VCF Usage Meter 9.0 полностью готов к измерению использования для предстоящей версии VMware Cloud Foundation 9 — важного этапа на пути к единой и современной платформе частного облака.
Чтобы обеспечить плавный переход для поставщиков облачных услуг VMware (VCSP), процесс измерения в VCF 9.0 максимально схож с предыдущими версиями. Начать работу просто: добавьте конечные точки vCenter в VCF Usage Meter, и измерение начнётся автоматически.
Все знакомые инструменты отчетности — Hourly Usage Report (HUR), Virtual Machine History Report (VMHR) и потоки данных для расчета использования — продолжают предоставлять необходимые вам данные. Эти отчёты полностью интегрированы с консолью VMware Cloud Foundation Business Services (VCF Business Services Console) и поддерживают развертывания VCF 9.0.
Обратите внимание, что лицензионные ключи будут заменены на бесключевым механизмом, активируемым через облако права (entitlements), что упрощает активацию и повышает точность расчётов.
2. Новая аутентификация на основе OAuth-приложения
Broadcom добавила новый уровень безопасности для загрузки данных об использовании в консоль VCF Business Services — авторизация на основе OAuth-приложения для VCF Usage Meter 9.0. Хотя загрузка данных всегда защищалась через HTTPS (и продолжит работать), OAuth позволяет пользователю авторизовать консоль VCF Business Services для доступа к данным измерений, хранящимся в VCF Usage Meter 9.0, без передачи самих учётных данных.
С выходом VCF Usage Meter 9.0 регистрация в консоли VCF Business Services автоматически создаёт выделенное OAuth-приложение и генерирует уникальный токен для каждого экземпляра Usage Meter. Поставщики услуг (VCSP) используют этот токен при установке или обновлении апплаенса VCF Usage Meter 9.0. После установки Usage Meter безопасно обменивается данными с консолью через этот токен OAuth.
Этот шаг обязателен для соответствия требованиям безопасности и не может быть обойдён. VCSP могут управлять своими OAuth-токенами напрямую через консоль VCF Business Services — в том числе отзывать доступ и обновлять токены в соответствии с внутренними политиками безопасности.
Все эти операции доступны в формате самообслуживания через RESTful API. Подробности см. в документации по API.
3. Поддержка измерения и расчёта превышения по vDefend Add-On
Чтобы помочь VCSP в полной мере использовать гибкость модели потребления, Broadcom добавила поддержку измерения и расчёта превышений (overage billing) для дополнений VMware vDefend, которые теперь интегрированы в VCF Usage Meter 9.0.
Как и для основных продуктов VCF, VCSP теперь могут легко использовать следующие дополнения vDefend Firewall по модели с фиксированным контрактом и с учётом превышения:
VMware vDefend Firewall
VMware vDefend Firewall с расширенной защитой от угроз (Advanced Threat Prevention)
Чтобы начать измерение, просто добавьте конечную точку NSX Manager в VCF Usage Meter 9.0. Использование будет отслеживаться и управляться через Hourly Usage Report, доступный в консоли VCF Business Services. Нажмите здесь для получения подробной информации о метеринге vDefend Firewall.
Уже являетесь VCSP с активным контрактом на vDefend? Вы можете немедленно начать измерение, обновившись до VCF Usage Meter 9.0. Убедитесь, что вы используете лицензионные ключи Broadcom, выданные через портал Broadcom Consumption — они необходимы для точного измерения и корректного биллинга.
4. Важное уведомление: соответствие требованиям и точность расчётов с NSX
Устаревшие лицензионные ключи VMware NSX больше не поддерживаются для измерения. Их дальнейшее использование может привести к ошибкам в расчетах и несоответствию требованиям программы VCSP. Также устаревшие версии NSX и просроченные лицензии могут непреднамеренно активировать измерение vDefend из-за существующих конфигураций сетевого экрана.
Чтобы избежать неожиданных начислений и обеспечить корректное измерение в VCF Usage Meter 9.0, настоятельно рекомендуется проверить окружение NSX перед обновлением.
5. Поддержка новой консоли VCF Business Services для управления Usage Meter
Важное обновление для VCSP: управление VCF Usage Meter теперь осуществляется через новую консоль VCF Business Services — единую платформу, созданную для упрощения операций и взаимодействия с поддержкой.
Консоль VCF Business Services тесно интегрирована с экосистемой поддержки Broadcom и предлагает:
Единый вход (SSO) во все сервисы Broadcom
Упрощённое управление пользователями и доступом через Broadcom Site ID
Плавную интеграцию между сайтом и клиентом (tenant), упрощающую управление правами и операциями
6. Новый отчёт Customer Hourly Usage Report (CHUR)
В рамках этого перехода все существующие учётные записи и зарегистрированные конфигурации VCF Usage Meter из текущей консоли VMware Cloud Services будут перенесены в новую платформу VCF Business Services. Сохранятся знакомые процессы регистрации, генерации отчётов и использования API-интеграций — теперь с улучшенным и более масштабируемым интерфейсом.
Почему версия Usage Meter 9.0 так важна для VCSP?
Важно подчеркнуть, что VCF Usage Meter 9.0 полностью поддерживает измерение использования ресурсов (Core Utilization) в частном облаке VMware Cloud Foundation с использованием лицензионных ключей Broadcom — его использование абсолютно необходимо для корректного измерения среды. Поэтому критически важно либо обновить ваш текущий экземпляр Usage Meter до версии VCF Usage Meter 9.0, либо развернуть новый экземпляр, работающий на этой версии.
Для соблюдения требований у вас есть 90 дней — до 5 августа 2025 года, чтобы обновить все экземпляры Usage Meter до новой версии VCF Usage Meter 9.0.
Другие важные обновления
1. Миграция в консоль VCF Business Services
Одновременно с выходом VCF Usage Meter 9.0 в статус General Availability (GA), станет доступной новая консоль VCF Business Services. Более подробную информацию можно найти на странице портала VCSP, в разделе "VCF Cloud Console Migration Updates".
Пожалуйста, ознакомьтесь со следующими материалами:
Примечание: если у вас возникают проблемы с доступом, войдите в партнёрский портал Broadcom через вашу учётную запись OKTA, затем перейдите в "Learning@Broadcom" и выполните поиск по запросу "Cloud Console training for VCSP Pinnacle and Premier Partners", как показано на скриншоте ниже:
Обновление лимита на количество ядер (Core Cap Update)
Начиная с 12 мая 2025 года, для всех поставщиков облачных услуг VMware (VCSP) количество загружаемых лицензионных ключей будет ограничено максимумом в 200% от заявленного объема (commit), чтобы сохранить гибкость бизнес-моделей и возможность сверхнормативного использования (overage).
Пример: если вы законтрактованы на 10 000 ядер VMware Cloud Foundation (VCF), то с 12 мая общее количество созданных лицензионных ключей по данному обязательству будет ограничено 20 000 ядрами VCF.
Это изменение не повлияет на уже сгенерированные ядра, но будет препятствовать генерации дополнительных лицензий, если установленный лимит по конкретному контракту достигнут.
Путь обновления до VCF Usage Meter v9.0
Проверьте возможные пути обновления до VCF Usage Meter 9.0 по этой ссылке.
Другие полезные ресурсы
Чтобы узнать больше о VCF Usage Meter 9.0, воспользуйтесь следующими материалами:
Агентный ИИ (Agentic AI) больше не футуристическая мечта — он уже здесь и стремительно становится необходимостью для компаний, стремящихся ускорить инновации, повысить эффективность и обогнать конкурентов. Согласно исследованию IDC, более 50% корпоративного рынка приложений уже используют AI-ассистентов или советников, а около 20% — полноценных AI-агентов.
Компании, ранее воспользовавшиеся возможностями генеративного AI (GenAI) по обработке запросов, теперь переключают внимание на агентный AI — системы, которые автономно выполняют задачи в заданных рамках, повышая эффективность и снижая издержки. Однако реализация таких решений пока остаётся сложной. Один из опросов показал, что 46% проектов на стадии концепции так и не доходят до промышленного внедрения. Причина? Корпоративный AI требует интеграции с трудносовместимыми компонентами: разрозненными источниками данных и устоявшимися бизнес-процессами. Создание действительно полезных инструментов, таких как виртуальные помощники корпоративного уровня, требует координации этой сложной экосистемы данных, инструментов, моделей и систем управления — непростая задача для компаний, только начинающих осваивать AI.
Платформа Tanzu решает эту задачу, упрощая разработку и развёртывание приложений за счёт встроенного доступа и контроля к ключевым сервисам данных, инструментам для разработчиков, системам управления и брокерам моделей. Эта платформа как услуга (PaaS), оптимизированная под частные облака, позволяет предприятиям использовать возможности GenAI и агентного AI. С Tanzu предприятия могут дополнять критически важные бизнес-приложения информированными, обоснованными ответами на естественном языке или быстро создавать новые приложения и агентов, безопасно интегрируя собственные данные и системы. Это стало возможным благодаря продвинутым AI-функциям Tanzu, таким как планирование, использование инструментов, память и цепочки действий, позволяющим превращать идеи в готовый к развёртыванию код за считанные минуты.
В результате предприятия получают простой способ создать более безопасные и масштабируемые решения на базе GenAI и агентного AI, соответствующие корпоративным требованиям и стандартам комплаенса. На недавнем мероприятии Racing Toward AI App Delivery with Tanzu: Navigating the Fast Lane with Intelligence сотрудники VMware обсудили последние тренды в сфере AI:
Перспективы агентного AI
Начнём с определения агентного AI. Это тип искусственного интеллекта, который не просто отвечает на запросы, но и способен автономно выполнять задачи и предпринимать действия на основе пользовательского ввода или условий окружающей среды. В то время как традиционный генеративный AI работает по модели «только для чтения» — то есть выдаёт ответы, предложения или прогнозы — агентный AI поднимает взаимодействие на новый уровень, выполняя задачи самостоятельно.
Агентный AI становится возможным благодаря добавлению к генеративному AI дополнительного уровня интеллекта. Когда поступает запрос, агентный AI проходит многоэтапный процесс, используя доступные знания и инструменты. Сначала система анализирует запрос и разбивает его на мелкие, выполнимые задачи; затем она самостоятельно выполняет эти задачи — вызывая API, обращаясь к микросервисам или исполняя код; в завершение AI оценивает результаты своих действий (часто с участием человека в процессе) и при необходимости вносит корректировки, чтобы добиться нужного результата.
Например, представим сценарий с использованием агентного AI при обработке страхового случая: при подаче заявления агент координирует работу нескольких AI-модулей — один использует компьютерное зрение для анализа фотографий повреждений, другой применяет обработку естественного языка (NLP) для извлечения данных из форм и отчётов об аварии.
Инновационность этого подхода заключается в способности агента самостоятельно решать, к каким корпоративным системам обратиться для получения информации о полисе, как интерпретировать сложные правила покрытия и когда применять определённую бизнес-логику. Система активирует движок принятия решений, который сопоставляет параметры полиса с данными о происшествии, а также задействует AI для выявления мошенничества, сравнивая случай с тысячами исторических паттернов. В простых, стандартных случаях агент сам принимает решение об одобрении, рассчитывает выплаты с использованием предиктивных моделей и инициирует процесс оплаты — при этом на каждом этапе сохраняется возможность участия человека для проверки или вмешательства. Такой подход с участием человека в процессе («human-in-the-loop») обеспечивает контроль, при этом позволяя AI эффективно обрабатывать рутинные случаи от начала до конца.
Для достижения такой продвиной функциональности агентному AI необходимо больше, чем просто базовый генеративный инструментарий. Приложения с агентным AI требуют фреймворка для управления контекстом и памятью между сессиями, а также системы для управления API-запросами и интеграции различных сервисов — всё это предоставляет платформа VMware Tanzu.
Чтобы повысить доступность и масштабируемость разработки агентных решений для корпоративных клиентов, осенью 2024 года компания Anthropic, один из лидеров в области AI, опубликовала Model Context Protocol (MCP) — стандарт, описывающий, как AI-модели могут взаимодействовать с внешними инструментами и источниками данных. Вскоре после этого команда Tanzu Spring создала MCP Java SDK — реализацию MCP на Java. Этот SDK стал официальной реализацией MCP на Java.
В результате разработчики на Java теперь могут создавать или использовать существующие сторонние MCP-серверы, с которыми смогут взаимодействовать агентные системы. Это устраняет необходимость в сложных, кастомных и жёстко прописанных связях между системами, которые могли бы добавлять месяцы к срокам разработки.
Начинайте уже сейчас c теми разработчиками, что есть
Многие руководители обеспокоены нехваткой навыков программирования AI в своих организациях. VMware старается решать эту вполне реальную проблему, не требуя от корпоративных разработчиков переобучения, а приходя к ним на том уровне, где они уже находятся.
В течение последнего года в VMware внедряли новейшие технологии AI для корпоративных Java-разработчиков с помощью Spring AI — неотъемлемой части платформы Tanzu. Поскольку многие Java-разработчики используют Spring, Spring AI играет ключевую роль в реализации бизнес-ценности: разработчики могут добавлять AI-возможности в свои приложения, не изучая новые языки или инструменты. Можно сказать, что VMware превращает Java-разработчиков в разработчиков агентных систем. Компания предоставляет все возможности проверенной и зрелой PaaS-платформы, помогая быстро переходить от идеи к коду и далее — к продакшену, при этом инструменты для обеспечения безопасности, соответствия требованиям и масштабируемости уже встроены. Это означает более быстрые итерации, меньше доработок и более быструю окупаемость.
Разработка AI-приложений — это глубоко итеративный процесс, поэтому те, кто начинает раньше, быстрее получают важные инсайты, могут добавлять продвинутые AI-функции в приложения и сохранять лидерство за счёт постоянных инноваций.
Но для инноваций нужна прочная основа. Без платформы, которая берёт на себя AI-операции второго уровня — такие как безопасность, контроль и масштабируемость — разработчики вынуждены тратить время на рутинные задачи. Tanzu Platform помогает снять это бремя, чтобы разработчики могли сосредоточиться на главном: превращении идей в код и доставке этого кода в продакшен.
Платформа Tanzu помогает бизнесу идти в ногу с эволюцией AI
Агентный AI стремительно развивается и преобразует как бизнес, так и клиентский опыт. Средствами платформы Tanzu компания VMware предлагает клиентам способ быстро начать работу, чтобы они могли экспериментировать, учиться и развивать свою стратегию создания AI-приложений. Ключ к успеху — это быстрая доставка и обучение через практику. Такой подход не только помогает находить ценные инсайты, но и способствует перестройке организационных процессов для более глубокой и эффективной интеграции AI.
Многие клиенты VMware уже имеют доступ к этим возможностям — через Spring AI или GenAI Tile, в зависимости от текущих условий их подписки. Загляните на сайт Tanzu AI Solutions, чтобы узнать больше.
Возможно, вас смутило выражение «ВМ на голом железе» в заголовке. Но это не опечатка: в этом посте мы расскажем о двух ключевых вещах, а основная тема, которую мы рассмотрим — это запуск виртуальных машин (ВМ) как контейнеров в среде Kubernetes. Поэтому в этой статье будет две основные цели:
Раскрыть преимущества запуска ВМ и контейнеров на единой платформе. Да, этой единой платформой является служба vSphere Kubernetes Service в VMware Cloud Foundation.
Объяснить, почему запуск ВМ и контейнеров на «голом железе» имеет реальные недостатки для предприятий, чтобы вы могли сделать собственные выводы. Мы приведем факты, которые вы сможете проверить независимо от каких-либо поставщиков.
Начнём с того, что разберёмся, что такое служба vSphere Kubernetes Service (далее — VKS) и что она предлагает.
Что такое VKS?
VKS — это промышленный Kubernetes-рантайм от VMware, сертифицированный и совместимый с CNCF (Cloud Native Computing Foundation). Он включён в состав VMware Cloud Foundation (то есть доплачивать за него не нужно), поддерживается и уже доступен.
Если вы сейчас используете Kubernetes у одного из крупных облачных провайдеров или раньше пробовали запускать Kubernetes на vSphere, VKS стоит вашего внимания. Он изначально разрабатывался с учётом потребностей крупных предприятий — включая более простой процесс установки, возможности самообслуживания и наличие всех привычных компонентов, которые ожидают пользователи Kubernetes.
Это даёт клиентам беспрецедентные возможности запускать промышленный Kubernetes у себя на площадке — в более удобной и масштабируемой форме.
Кроме того, для приверженцев философии FOSS (свободного и открытого ПО) есть над чем задуматься:
За последнее десятилетие VMware входила в тройку крупнейших участников по объёму вклада в исходный код Kubernetes.
Соответствие стандарту CNCF означает, что VMware придерживается открытых стандартов. Это важно, поскольку вы получаете гибкость и можете рассчитывать на определённый набор компонентов в платформе, не попадая в ловушку специфических для конкретного вендора решений и ограничений.
VKS развивался с тех пор, как VMware приобрела компанию Pivotal в 2019 году, так что это далеко не «версия 1.0».
Несколько слов о vSphere Supervisor
Чтобы начать использовать VKS, вам нужно установить vSphere Supervisor. Он предоставляет, помимо прочего, возможность использовать все преимущества VMware, а также предлагает компоненты, совместимые с Kubernetes.
Один из примеров: как только vSphere Supervisor будет запущен, вы создаёте пространство имен Kubernetes Namespace, которое будет сопоставлено с пулом ресурсов vSphere. Внутри кластера Kubernetes Namespace будет вести себя так, как и положено, но при этом его ресурсами можно также управлять через интерфейс vSphere для пулов ресурсов.
Другой пример: управляющие и рабочие узлы Kubernetes в буквальном смысле являются виртуальными машинами (ВМ). Это важно для следующего момента, который будет раскрыт далее.
Обратите внимание: «традиционные» виртуальные машины продолжают работать бок о бок с вашими кластерами Kubernetes. Именно такую возможность даёт VKS в составе VMware Cloud Foundation (VCF).
Если вы запомните только одну вещь из этого поста, пусть это будет следующее:
Вашим текущим инженерам VMware не нужно обладать специальными знаниями о Kubernetes, чтобы управлять как виртуальными машинами, так и потребляемыми компонентами Kubernetes или самими кластерами. Инженеры платформ или разработчики могут получать доступ через инструменты самообслуживания, а инженеры по виртуализации продолжают управлять инфраструктурой так же, как и раньше.
Развенчиваем миф о запуске ВМ и контейнеров на «голом железе»
Интересный факт: когда вы разворачиваете кластер Kubernetes у гиперскейлера (большой публичный облачный провайдер), этот кластер на самом деле работает на наборе виртуальных машин под управлением гипервизора. Это справедливо для всех гиперскейлеров на момент написания статьи. Контейнеры, в итоге, не работают напрямую на голом железе — такого просто не существует. VMware подчеркивает это, потому что они видели, как и C-level руководители, и разработчики, и даже инженеры платформ (которые вроде бы должны это знать) были поражены этим фактом.
Более того, не упомянуть ещё один момент было бы упущением: когда вы создаёте виртуальную машину у гиперскейлера, она тоже работает на гипервизоре. То, что вы его не видите — не значит, что его нет.
В результате организации начинают задумываться о:
запуске контейнеров напрямую на голом железе;
запуске традиционных ВМ в виде контейнеров на голом железе.
Начнём с первого: запуск контейнеров на голом железе мог бы быть темой горячих споров… если бы сейчас был 2017 год. Эта дискуссия в индустрии уже была, и виртуализированная платформа с Kubernetes одержала убедительную победу.
Почему? В числе причин: более простое управление, масштабируемость, гибкость, меньшая стоимость и практически полное отсутствие потерь в производительности. Не сказать, что у контейнеров на железе совсем нет применения, но для 98% организаций запуск контейнеров на гипервизоре оказался более выгодным решением.
Простой пример: вспомните, какие возможности даёт вам архитектура отказоустойчивости vSphere HA — ваши контейнеры в виде ВМ отлично вписываются в эту архитектуру уже на этом одном примере.
Или другими словами: запуск контейнеров рядом с ВМ на VMware обходится дешевле, при этом вы сохраняете тот же уровень отказоустойчивости, надёжности и высокой производительности, к которому вы привыкли для технологий VMware.
А как насчёт запуска ВМ как контейнеров? Во-первых, у VMware есть доказательства того, что их платформа обеспечивает лучшую производительность и масштабируемость. Например, при создании ВМ через VM Service, инженеру не нужно разбираться в деталях и компонентах Kubernetes. Обычно это лучшее решение, потому что командам не нужно проходить дорогостоящее переобучение или нанимать более дорогих специалистов, чтобы запускать ВМ внутри кластера Kubernetes.
Когда вы увидите, насколько просто получить низкую совокупную стоимость владения (TCO) с промышленной виртуализацией, которую легко внедрить (и снова напомним про vSphere HA, которая настраивается буквально двумя кликами), становится очевидно: запуск VKS в составе VCF — разумное и эффективное решение.
1. Увеличение минимального объёма лицензии к закупке до 72 ядер и откат обратно к 16
Broadcom продолжает переход на модель подписки для продуктов VMware (не все крупные копании еще перешли на эту модель). Также теперь лицензии предоставляются на основе количества ядер процессора, а не сокетов сервера. При этом минимальный объём лицензии на продукт VMware vSphere Foundation (VVF) недавно должен был быть увеличен с 16 до 72 ядер (то есть минимальный объем заказа). Это означало бы, что даже если у клиента, например, 3 односокетных сервера с 16 ядрами в каждом процессоре, он был бы вынужден приобрести лицензию на 72 ядра, а не 48 как раньше (минимально можно было купить лицензию на 16 ядер на каждый из сокетов серверов). Для небольших компаний и удалённых офисов это привело бы к значительному увеличению затрат.
Напомним основные правила лицензирования VMware vSphere Foundation, которые продолжают действовать:
1. Минимальный объем лицензий на один сокет сервера - 16 ядер.
2. Если на каждом сервере 2 сокета по 12 ядер (24 ядра на сервер) и таких серверов у вас 3, то нужно будет 6 лицензий на 16 ядер каждая (то есть, 96).
3. Если у вас в процессорах серверов более 16 ядер, то вам нужно число процессоров просто умножить на число ядер, чтобы получить необходимое количество лицензий.
4. Если у вас, например, лицензированы 10 односокетных хостов, и вы заменили 16-ядерные CPU на 24 ядерные, то вам нужно докупить (24-16)*10=80 лицензий.
После объявления о повышении минимального количества ядер до 72, Broadcom столкнулась с критикой со стороны клиентов и партнёров. Многие выражали обеспокоенность тем, что это изменение негативно скажется на малом и среднем бизнесе. В результате компания то ли отменила это решение, то ли его и не было (см. комментарии) и сохранила прежний минимум в 16 ядер (в Broadcom отрицают, что вообще анонсировали это). Но мы еще подождем официальных анонсов на эту тему.
2. Штраф за просрочку продления лицензии
Теперь за несвоевременное продление лицензии предусмотрен штраф в размере 20% от стоимости первого года подписки. Этот штраф применяется ретроспективно, что может привести к неожиданным дополнительным расходам для клиентов.
Партнёры и клиенты выражают обеспокоенность новыми условиями. Многие рассматривают альтернативы, такие как Microsoft Hyper-V, Proxmox и Scale Computing, особенно для небольших и средних предприятий. Партнёры VMware отмечают, что новые условия могут оттолкнуть клиентов с небольшими инфраструктурами, которые ранее были основой клиентской базы VMware.
Кстати, смотрите, как выглядит сайт Scale Computing:
VMware Cloud Foundation (VCF) — это полноценное решение для частного облака, которое интегрирует программно-определяемые вычисления, хранилища данных и сетевые ресурсы вместе с инструментами автоматизации и управления облаком. Компонент VCF — VMware Cloud Foundation Operations (VCF Operations) — предоставляет организациям возможность видеть свою инфраструктуру, оптимизировать планирование емкости и ресурсов, отслеживать производительность и контролировать состояние инфраструктуры.
Для поставщиков облачных сервисов VMware Cloud Service Providers (VCSP) крайне важно сохранять финансовую прозрачность перед своими клиентами, одновременно оптимизируя операционные расходы. VMware Chargeback, который теперь является частью VCF Operations (ранее известного как VMware Aria Operations), позволяет провайдерам VCSP распределять и возмещать стоимость облачных ресурсов и услуг между пользователями или подразделениями, которые их используют. VMware Cloud Director (VCD) помогает VCSP управлять несколькими арендаторами на одной и той же инфраструктуре. Chargeback использует эту структуру на уровне арендаторов для точного учета затрат.
О продукте VMware Chargeback
VMware Chargeback разработан, чтобы помочь провайдерам VCSP отслеживать использование ресурсов и применять точные модели расчета стоимости для выставления счетов арендаторам. Он бесшовно интегрируется с VCD и другими многопользовательскими средами, обеспечивая точную финансовую отчетность. Chargeback помогает управлять затратами на ИТ-ресурсы и выставлять счета для различных подразделений, бизнес-единиц и клиентов. Благодаря поддержке мощных инструментов и четко определенных политик, он обеспечивает прозрачное, справедливое и легко понимаемое управление расходами на облачные сервисы.
Ключевые возможности:
Автоматизированное распределение затрат: Chargeback назначает стоимость на основе фактического потребления вычислительных ресурсов, хранилищ данных и сетевых ресурсов каждым арендатором, позволяя им отслеживать свои ИТ-расходы и подтверждать начисления через анализ использования. Отчеты можно настроить для отображения затрат на виртуальную машину, приложение или услугу.
Поддержка многопользовательских сред: VCSP могут предлагать своим арендаторам различные модели биллинга, что усложняет процесс отслеживания, распределения и выставления счетов. Chargeback помогает согласовать разные ценовые модели и обеспечить корректное распределение затрат на уровне арендаторов в VMware Cloud Director. Администраторы могут включить для арендаторов дэшборды самообслуживания, где те будут видеть только свои виртуальные машины, рабочие нагрузки и компоненты инфраструктуры.
Гибкие модели ценообразования: Chargeback поддерживает фиксированную, переменную и многоуровневую структуры цен:
Фиксированная модель: стоимость заранее определена и не зависит от объема использования ресурсов, что обеспечивает предсказуемость бюджета.
Переменная модель: стоимость зависит от фактического использования ресурсов, стимулируя эффективное потребление.
Многоуровневая модель: предполагает скидки при увеличении потребления ресурсов, что выгодно при масштабировании.
Пользовательские отчеты и панели: Chargeback позволяет использовать готовые шаблоны или создавать собственные отчеты для отслеживания нужных метрик, а также настраивать их плановое создание. В реальном времени доступны визуальные дэшборды с графиками, диаграммами, тепловыми картами и т.д., что помогает выявлять тенденции в данных. Можно настраивать оповещения на основе пороговых значений для отдельных арендаторов. Поддерживается мониторинг на уровне кластера с агрегированным использованием ресурсов. Среди доступных инструментов — дэшборды памяти, хранилищ, использования сети, виртуальных машин, сводные дэшборды арендаторов и другие.
Интеграция со сторонними системами: Chargeback интегрируется с внешними платформами биллинга, такими как SAP, Oracle и другими, через API для автоматизации создания биллинговых тикетов и счетов. Организации могут извлекать данные из Chargeback для своих систем аналитики или передавать туда запросы. Пакеты управления позволяют интегрировать внешние среды вроде AWS, Azure и другие, чтобы активировать возможности Chargeback в рамках VCF Operations и отслеживать затраты.
Основные моменты интеграции Chargeback
Оптимизация настроек управления арендаторами: VCSP должны убедиться, что плагин Aria Operations включен для их арендаторов. Он обеспечивает видимость операций в облаке и дает арендаторам инструменты для мониторинга, управления и оптимизации своей деятельности. После активации появляется возможность настраивать пользовательский опыт арендаторов.
Тонкая настройка пользовательского опыта: администраторы могут настраивать представление данных и доступные метрики для арендаторов, чтобы показывать только релевантную информацию и минимизировать «шум». Они также управляют доступом к страницам и задают периоды хранения данных для соблюдения политик хранения.
Управление уведомлениями для арендаторов: функция настройки электронной почты позволяет VCSP создавать уведомления, оповещения и отчеты для арендаторов.
Упрощенное управление политиками: инструмент создания политик облегчает разработку и управление стратегиями ценообразования, делая биллинг арендаторов эффективным и точным. VCSP могут интуитивно определять и адаптировать политики ценообразования в зависимости от своих целей и ожиданий клиентов.
Автоматизация биллинга для финансовой точности: автоматизация процессов выставления счетов повышает точность, согласованность и эффективность расчетов. Счета могут отправляться по установленному расписанию, которое стоит регулярно пересматривать в зависимости от изменяющихся потребностей арендаторов.
Оповещения и отчеты в реальном времени: VCSP могут задавать условия для срабатывания оповещений, привязывать их к профилям арендаторов, определять каналы оповещения (email, SMS) и частоту отправки. Отчеты помогают делиться аналитикой VCD с арендаторами.
Анализ затрат для сравнительного ценообразования: пользователи могут сравнивать метрики расходов VMware Cloud между объектами, группами, приложениями и арендаторами, визуализировать данные в виде графиков и таблиц, а также сохранять результаты для дальнейшего использования.
Почему VMware Chargeback необходим VCSP
Для поставщиков услуг инфраструктура VMware Cloud Director предлагает полный набор инструментов, включая возможности настройки интеграции, управления доступом арендаторов, настройки входящих/исходящих писем арендаторов и отправки отчетов и уведомлений.
Интегрируя ключевые платформы, такие как vCenter, VCD, Cloud Director Availability и NSX, поставщики услуг могут создать целостную среду, которая упрощает и повышает точность процедур расчёта затрат (chargeback). VCSP могут использовать пакеты управления как для этих платформ, так и для других решений, соответствующих их облачной инфраструктуре управления.
1. Оптимизированное возмещение затрат и повышение прибыльности
Одна из главных задач для VCSP — обеспечить, чтобы все инфраструктурные и операционные расходы были корректно распределены между клиентами. VMware Chargeback устраняет потери дохода, предоставляя точную и автоматизированную систему распределения затрат, что обеспечивает прибыльность. Это позволяет избежать ошибок, связанных с ручным отслеживанием, и разделять затраты по отделам или клиентам. Облачные провайдеры могут дополнительно монетизировать свои предложения, используя VMware Chargeback для взимания повышенных ставок за премиальные ресурсы, такие как сети с низкой задержкой или выделенные процессорные мощности (модель ценообразования на основе выделения ресурсов).
2. Прозрачность и доверие со стороны клиентов
Клиенты ожидают получать подробную информацию о своем использовании ресурсов и начисленных платежах. VMware Chargeback предоставляет детализированные отчеты, показывающие, сколько именно стоит каждый используемый ресурс, что помогает VCSP обосновывать начисления и укреплять доверие клиентов, устраняя скрытые расходы и снижая количество споров по счетам. Арендаторы получают доступ к данным биллинга в реальном времени, что позволяет избежать неожиданных расходов. Так как оплата производится на основе фактического использования ресурсов, это способствует сокращению избыточных затрат, оптимизации рабочих нагрузок и помогает клиентам избегать расходов на неиспользуемые ресурсы.
3. Операционная эффективность и автоматизация
Ручное отслеживание затрат требует много времени и подвержено ошибкам. VMware Chargeback автоматизирует измерение использования ресурсов, снижая административную нагрузку и позволяя поставщикам услуг сосредоточиться на предоставлении дополнительных сервисов с высокой добавленной стоимостью. Это также упрощает процесс выставления счетов для большого количества клиентов. Поставщики могут более точно планировать емкость ресурсов, анализируя исторические данные из отчетов.
4. Мониторинг за пределами виртуальных машин
Пользователи могут отслеживать производительность на уровне приложений, анализируя время отклика API, нагрузку на веб-серверы и зависимости приложений, чтобы увидеть, как рабочие нагрузки взаимодействуют с VCF Operations. Также доступен мониторинг Kubernetes и контейнеров — можно отслеживать состояние узлов, сервисов и кластеров. Мониторинг сети и безопасности помогает анализировать микро-сегментацию и отслеживать сетевой трафик, задержки и другие параметры для каждого арендатора. Такая полноуровневая наблюдаемость крайне важна для VCSP при планировании и расчете затрат.
5. Поддержка частного облака
Для VCSP, предоставляющих решения частного облака, VMware Chargeback расширяет возможности частного облака, обеспечивая единое распределение затрат в таких средах, а также финансовую прозрачность и отчетность при внутреннем биллинге.
Заключение
Прозрачность облачных затрат имеет решающее значение для любой организации, а интеграция системы распределения затрат в бизнес-модель VCSP становится важнейшим фактором масштабируемости и роста. Это позволяет клиентам гибко регулировать потребление ресурсов в зависимости от спроса и платить только за фактическое использование. Пользователи могут отслеживать производительность, затраты и емкость ресурсов, что помогает им оптимизировать инвестиции в инфраструктуру. Chargeback позволяет VCSP удовлетворять потребности широкой клиентской базы, предлагая различные модели ценообразования. Арендаторы получают доступ к самообслуживаемым дэшбордам, отчетам и оповещениям, что улучшает их пользовательский опыт. Грамотно реализованная система распределения затрат становится конкурентным преимуществом для VCSP.
Узнать больше о продукте VMware Chargeback можно здесь.
vRO Code Editor Resizer — это лёгкое и полезное расширение для Google Chrome, созданное для разработчиков, работающих с VMware vRealize Orchestrator (vRO) / Aria Orchestrator и VCF Orchestrator. Оно решает распространённую проблему ограниченного пространства в редакторе скриптов, позволяя расширить область кода на весь экран и тем самым повысить удобство и продуктивность при написании и отладке скриптов.
Основные возможности
Максимизация редактора: после установки расширения на странице редактирования vRO появляется кнопка в правом нижнем углу, позволяющая развернуть редактор скриптов на весь экран. Больше пространства для кода означает меньше прокрутки и лучшую видимость, что особенно полезно при работе с длинными скриптами.
Восстановление исходного размера: кнопка также позволяет вернуть редактор к его первоначальному размеру.
Простота использования: установка и использование не требуют дополнительных настроек — достаточно установить расширение и начать работу. Разработчики отмечают, что возможность расширить редактор значительно ускоряет процесс написания и отладки кода.
Расширение весит всего около 9 КБ и не собирает пользовательские данные, что делает его безопасным и ненавязчивым инструментом.
Разбор сложного HTML — это, безусловно, непростая задача, даже с PowerShell. Вильям Лам недавно пытался использовать бесплатную версию ChatGPT и новую модель 4o, чтобы сделать функцию на PowerShell для парсинга HTML, но он постоянно сталкивался с системными ограничениями, а AI часто неправильно понимал, чего от него хотят.
По запросу одного из пользователей он пытался расширить свою статью в блоге за 2017 год об автоматизации глобальных прав vSphere и добавить поддержку их вывода через PowerCLI.
Оказалось, что получить список всех текущих глобальных прав окружения VMware vSphere через приватный API vSphere Global Permissions с помощью vSphere MOB крайне трудно из-за сложного HTML, который рендерит этот интерфейс. На самом деле, Вильяму понадобилось 25 итераций, прежде чем он нашёл рабочее решение с помощью модели ChatGPT 4o. В нескольких попытках прогресс даже откатывался назад — и это было довольно раздражающе.
В итоге, теперь есть файл GlobalPermissions.ps1, который содержит новую функцию Get-GlobalPermission. Эта функция извлекает все глобальные права vSphere, включая имя субъекта (principal), назначенную роль vSphere и то, где именно эта роль определена (глобальное право или право в рамках inventory сервера vCenter).
Ниже приведён пример использования новой функции — перед этим потребуется выполнить Connect-VIServer, чтобы можно было сопоставить ID роли vSphere, полученный из функции, с её реальным именем, которое возвращается встроенным командлетом PowerCLI.
Начиная с ноября 2024 года, VMware vSphere Foundation (VVF) начала включать 0,25 ТиБ ёмкости vSAN на одно ядро для всех новых лицензий VVF. С выходом обновления vSphere 8.0 U3e это преимущество распространяется и на существующих клиентов — теперь им также доступна ёмкость vSAN из расчёта 0,25 ТиБ (аналог терабайта) на ядро. Это новое право на использование включает дополнительные преимущества, которые повышают ценность vSAN в составе VVF.
Вот как это работает:
Ёмкость vSAN агрегируется по всей инфраструктуре, что позволяет перераспределять неиспользованные ресурсы с кластеров, содержащих только вычислительные узлы, на кластеры с включённым vSAN. Это помогает оптимизировать использование ресурсов в рамках всей инфраструктуры.
Новые преимущества для текущих клиентов:
Больше никаких ограничений пробной версии: включённые 0,25 ТиБ на ядро теперь полностью предоставлены по лицензии, а не в рамках пробного периода.
Агрегация ёмкости: объединяйте хранилище между кластерами и используйте его там, где это нужнее всего.
Упрощённое масштабирование: если требуется больше хранилища, чем предусмотрено по включённой норме — достаточно просто докупить нужный объём сверх этой квоты.
Почему это важно
Благодаря этому обновлению VMware vSphere Foundation становится ещё более привлекательным решением для организаций, стремящихся модернизировать и унифицировать свою ИТ-инфраструктуру. Поддерживая как виртуальные машины, так и контейнеры, vSAN добавляет возможности гиперконвергентной инфраструктуры (HCI) корпоративного уровня. Интеграция вычислений, хранения и управления в единую платформу упрощает операционные процессы, снижает сложность и обеспечивает комплексное решение с встроенной безопасностью и масштабируемостью.
Дополнительная ёмкость vSAN в составе VMware vSphere Foundation значительно повышает ценность платформы — будь то оптимизация частного облака, повышение гибкости разработки или упрощение ИТ-операций. Это даёт больше контроля и гибкости над инфраструктурой, снижая совокупную стоимость владения и минимизируя операционные издержки.
Чтобы начать пользоваться бесплатной лицензией VMware vSAN загрузите патч vSphere 8.0 Update 3e по этой ссылке.
Генеративный искусственный интеллект (Gen AI) стремительно трансформирует способы создания контента, коммуникации и решения задач в различных отраслях. Инструменты Gen AI расширяют границы возможного для машинного интеллекта. По мере того как организации внедряют модели Gen AI для задач генерации текста, синтеза изображений и анализа данных, на первый план выходят такие факторы, как производительность, масштабируемость и эффективность использования ресурсов. Выбор подходящей инфраструктуры — виртуализированной или «голого железа» (bare metal) — может существенно повлиять на эффективность выполнения AI-нагрузок в масштабах предприятия. Ниже рассматривается сравнение производительности виртуализованных и bare-metal сред для Gen AI-нагрузок.
Broadcom предоставляет возможность использовать виртуализованные графические процессоры NVIDIA на платформе частного облака VMware Cloud Foundation (VCF), упрощая управление AI-accelerated датацентрами и обеспечивая эффективную разработку и выполнение приложений для ресурсоёмких задач AI и машинного обучения. Программное обеспечение VMware от Broadcom поддерживает оборудование от разных производителей, обеспечивая гибкость, возможность выбора и масштабируемость при развертывании.
Broadcom и NVIDIA совместно разработали платформу Gen AI — VMware Private AI Foundation with NVIDIA. Эта платформа позволяет дата-сайентистам и другим специалистам тонко настраивать LLM-модели, внедрять рабочие процессы RAG и выполнять инференс-нагрузки в собственных дата-центрах, решая при этом задачи, связанные с конфиденциальностью, выбором, стоимостью, производительностью и соответствием нормативным требованиям. Построенная на базе ведущей частной облачной платформы VCF, платформа включает компоненты NVIDIA AI Enterprise, NVIDIA NIM (входит в состав NVIDIA AI Enterprise), NVIDIA LLM, а также доступ к открытым моделям сообщества (например, Hugging Face). VMware Cloud Foundation — это полнофункциональное частное облачное решение от VMware, предлагающее безопасную, масштабируемую и комплексную платформу для создания и запуска Gen AI-нагрузок, обеспечивая гибкость и адаптивность бизнеса.
Тестирование AI/ML нагрузок в виртуальной среде
Broadcom в сотрудничестве с NVIDIA, Supermicro и Dell продемонстрировала преимущества виртуализации (например, интеллектуальное распределение и совместное использование AI-инфраструктуры), добившись впечатляющих результатов в бенчмарке MLPerf Inference v5.0. VCF показала производительность близкую к bare metal в различных областях AI — компьютерное зрение, медицинская визуализация и обработка естественного языка — на модели GPT-J с 6 миллиардами параметров. Также были достигнуты отличные результаты с крупной языковой моделью Mixtral-8x7B с 56 миллиардами параметров.
На последнем рисунке в статье показано, что нормализованная производительность в виртуальной среде почти не уступает bare metal — от 95% до 100% при использовании VMware vSphere 8.0 U3 с виртуализованными GPU NVIDIA. Виртуализация снижает совокупную стоимость владения (TCO) AI/ML-инфраструктурой за счёт возможности совместного использования дорогостоящих аппаратных ресурсов между несколькими клиентами практически без потери производительности. См. официальные результаты MLCommons Inference 5.0 для прямого сравнения запросов в секунду или токенов в секунду.
Производительность виртуализации близка к bare metal — от 95% до 100% на VMware vSphere 8.0 U3 с виртуализированными GPU NVIDIA.
Аппаратное и программное обеспечение
В Broadcom запускали рабочие нагрузки MLPerf Inference v5.0 в виртуализованной среде на базе VMware vSphere 8.0 U3 на двух системах:
Для виртуальных машин, использованных в тестах, было выделено лишь часть ресурсов bare metal.
В таблицах 1 и 2 показаны аппаратные конфигурации, использованные для запуска LLM-нагрузок как на bare metal, так и в виртуализованной среде. Во всех случаях физический GPU — основной компонент, определяющий производительность этих нагрузок — был одинаков как в виртуализованной, так и в bare-metal конфигурации, с которой проводилось сравнение.
Бенчмарки были оптимизированы с использованием NVIDIA TensorRT-LLM, который включает компилятор глубокого обучения TensorRT, оптимизированные ядра, шаги пред- и постобработки, а также средства коммуникации между несколькими GPU и узлами — всё для достижения максимальной производительности в виртуализованной среде с GPU NVIDIA.
Конфигурация оборудования SuperMicro GPU SuperServer SYS-821GE-TNRT:
Конфигурация оборудования Dell PowerEdge XE9680:
Бенчмарки
Каждый бенчмарк определяется набором данных и целевым показателем качества. В следующей таблице приведено краткое описание бенчмарков в этой версии набора:
В сценарии Offline генератор нагрузки (LoadGen) отправляет все запросы в тестируемую систему в начале запуска. В сценарии Server LoadGen отправляет новые запросы в систему в соответствии с распределением Пуассона. Это показано в таблице ниже:
Сравнение производительности виртуализованных и bare-metal ML/AI-нагрузок
Рассмотренные SuperMicro SuperServer SYS-821GE-TNRT и сервера Dell PowerEdge XE9680 с хостом vSphere / bare metal оснащены 8 виртуализованными графическими процессорами NVIDIA H100.
На рисунке ниже представлены результаты тестовых сценариев, в которых сравнивается конфигурация bare metal с виртуализованной средой vSphere на SuperMicro GPU SuperServer SYS-821GE-TNRT и Dell PowerEdge XE9680, использующими группу из 8 виртуализованных GPU H100, связанных через NVLink. Производительность bare metal принята за базовую величину (1.0), а виртуализованные результаты приведены в относительном процентном соотношении к этой базе.
По сравнению с bare metal, среда vSphere с виртуализованными GPU NVIDIA (vGPU) демонстрирует производительность, близкую к bare metal, — от 95% до 100% в сценариях Offline и Server бенчмарка MLPerf Inference 5.0.
Обратите внимание, что показатели производительности Mixtral-8x7B были получены на Dell PowerEdge XE9686, а все остальные данные — на SuperMicro GPU SuperServer SYS-821GE-TNRT.
Вывод
В виртуализованных конфигурациях используется всего от 28,5% до 67% CPU-ядер и от 50% до 83% доступной физической памяти при сохранении производительности, близкой к bare metal — и это ключевое преимущество виртуализации. Оставшиеся ресурсы CPU и памяти можно использовать для других рабочих нагрузок на тех же системах, что позволяет сократить расходы на инфраструктуру ML/AI и воспользоваться преимуществами виртуализации vSphere при управлении дата-центрами.
Помимо GPU, виртуализация также позволяет объединять и распределять ресурсы CPU, памяти, сети и ввода/вывода, что значительно снижает совокупную стоимость владения (TCO) — в 3–5 раз.
Результаты тестов показали, что vSphere 8.0.3 с виртуализованными GPU NVIDIA находится в «золотой середине» для AI/ML-нагрузок. vSphere также упрощает управление и быструю обработку рабочих нагрузок с использованием NVIDIA vGPU, гибких соединений NVLink между устройствами и технологий виртуализации vSphere — для графики, обучения и инференса.
Виртуализация снижает TCO AI/ML-инфраструктуры, позволяя совместно использовать дорогостоящее оборудование между несколькими пользователями практически без потери производительности.
Виртуальная тестовая лаборатория — незаменимый инструмент для любого специалиста, который стремится быть в курсе последних возможностей платформ виртуализации. Поэтому VMware рекомендует всем сертифицированным специалистам VMware Cloud Foundation (VCF) или VMware vSphere Foundation (VVF) скачать бесплатную лицензию VMware vSphere Standard для личного использования в виртуальной лаборатории. Это прекрасная возможность углубить свои знания о технологиях VMware в собственной среде без дополнительных затрат.
Что это значит для вас? В сегодняшнем быстро меняющемся мире ИТ особенно важен практический опыт. Вы сможете изучать сложные концепции, тестировать конфигурации и оттачивать навыки устранения неисправностей, не подвергая риску рабочую среду, и уверенно решать реальные задачи. Более того, этот бонус к сертификации позволяет продолжать профессиональное развитие за пределами учебного класса.
Значимость ИТ-сертификатов на современном рынке
В современной реальности облачных технологий и виртуализации, чтобы выделиться, нужно не только иметь опыт, но и обладать признанными отраслевыми сертификатами. Сертификации VMware, такие как VMware Certified Professional – VMware vSphere Foundation Administrator (VCP-VVF Admin), VMware Certified Professional – VMware Cloud Foundation Administrator (VCP-VCF Admin) и VMware Certified Professional – VMware Cloud Foundation Architect (VCP-VCF Architect), являются весомым подтверждением вашей квалификации в области частных облачных решений VMware.
Эти сертификаты подтверждают вашу компетенцию в различных ключевых направлениях — будь то виртуализация, облачная инфраструктура или управление сложными ИТ-средами. Получив сертификат, вы демонстрируете способность эффективно управлять виртуальной инфраструктурой, тем самым выделяясь на конкурентном рынке ИТ-специалистов.
Как начать
Шаг 1: Сдайте один из следующих сертификационных экзаменов VCP, чтобы получить доступ к VMware vSphere Standard Edition на 32 ядра сроком на 1 год:
Шаг 3: После входа вы увидите список доступных лицензий на продукты. Изначально будет отображаться статус, что лицензии пока не запрашивались. Чтобы запросить лицензию, просто нажмите на значок «Not Requested» («Не запрошено») в верхнем правом углу каждого продукта.
После нажатия значок изменится на «Pending» («Ожидает обработки»), и ваш запрос будет обработан. На ваш email придёт письмо с подтверждением покупки. После получения этого письма подождите 4–6 часов, прежде чем лицензия станет доступна для скачивания.
Шаг 4: Загрузите лицензионные ключи и образы продуктов. Когда переходный период завершится и вы получите письмо с подтверждением заказа, перейдите на портал. В нижнем правом углу каждого продукта расположены две иконки. Здесь вы найдёте свои лицензионные ключи и область для загрузки. Чтобы получить лицензионные ключи и скачать необходимые продукты, выберите соответствующие пункты.
Прокачайте свою виртуальную лабораторию с лицензией VCF
Ищете полнофункциональные лицензии VCF для личного использования, чтобы развить экспертизу в этой технологии и продвинуться в профессии? Присоединяйтесь к сообществу единомышленников и подумайте о вступлении в программу VMUG Advantage. Став участником, вы можете приобрести и поддерживать членство в VMUG Advantage, сдать экзамен VCP-VCF Administrator или Architect, и получить бесплатные лицензии VCF для личного использования сроком до трёх лет.
Преимущества VMUG Advantage включают:
Доступ к эксклюзивным мероприятиям
Технические материалы и живые вебинары
Специальные скидки на обучение и участие в ивентах
Для действующих участников VMUG Advantage
Пожалуйста, убедитесь, что вы используете один и тот же адрес электронной почты при регистрации на Broadcom и в VMUG Advantage — это необходимо для корректной привязки сертификата к вашему членству.
Важно: Чтобы учётные записи VMUG Advantage и Broadcom Certification были связаны, проверьте, что в обеих используется одинаковый email. Если нужно изменить email в VMUG, напишите на: advantage@vmug.com.
Для обновления email в системе Broadcom — свяжитесь с поддержкой по вашему региону:
Intel недавно представила новое поколение серверных процессоров — Intel Xeon 6 с производительными ядрами (Performance-cores), которые отличаются увеличенным числом ядер и более высокой пропускной способностью памяти. Чтобы продемонстрировать производительность и масштабируемость этих процессоров, VMware опубликовала новые результаты тестов VMmark 4, полученных при участии двух ключевых партнёров — Dell Technologies и Hewlett Packard Enterprise. Конфигурация Dell представляет собой пару узлов в режиме «Matched Pair», а результат HPE получен на четырёхузловом кластере VMware vSAN. Оба результата основаны на VMware ESXi 8.0 Update 3e — первой версии, поддерживающей эти процессоры. Новые данные уже доступны на странице результатов VMmark 4.
Сравнение производительности: «Granite Rapids» и «Emerald Rapids»
В качестве примера, иллюстрирующего высокую производительность и масштабируемость, ниже приводится таблица с двумя результатами VMmark 4, позволяющая сравнить процессоры предыдущего поколения “Emerald Rapids” с новыми “Granite Rapids” серии 6700.
В последнее время в индустрии виртуализации наблюдалась тревожная тенденция — крупнейшие игроки начали отказываться от бесплатных версий своих гипервизоров. После покупки VMware компанией Broadcom одной из первых резонансных новостей стало прекращение распространения бесплатного гипервизора VMware ESXi (ранее известного как vSphere Hypervisor). Это решение вызвало волну недовольства в сообществе, особенно среди ИТ-специалистов и малых компаний, использующих ESXi в тестовых или домашних лабораториях.
Ранее: Broadcom, завершив поглощение VMware, прекратила предоставление бесплатной версии vSphere Hypervisor. Это вызвало резкую критику и обеспокоенность среди пользователей, привыкших использовать ESXi в учебных, тестовых или малобюджетных инфраструктурах.
Теперь: В составе релиза ESXi 8.0 Update 3e появилась entry-level редакция гипервизора, которая предоставляется бесплатно, как указано в разделе "What's New" официальной документации Broadcom. Хотя точных технических ограничений этой редакции пока не раскрыто в деталях, уже ясно, что она рассчитана на начальный уровень использования и доступна без подписки.
Почему это важно?
Возвращение бесплатной версии гипервизора от Broadcom означает, что:
Независимые администраторы и энтузиасты снова могут использовать ESXi в личных или образовательных целях.
Организации с ограниченным бюджетом могут рассматривать VMware как вариант для пилотных проектов.
Broadcom, вероятно, отреагировала на давление сообщества и рынка.
Новые возможности VMware 8.0 Update 3e:
1. Поддержка протокола CDC-NCM (Communication Device Class Network Control Model) в USB-драйвере ESXi
Начиная с версии ESXi 8.0 Update 3e, USB-драйвер ESXi поддерживает протокол CDC-NCM для обеспечения совместимости с виртуальным сетевым адаптером HPE Gen12 iLO (iLO Virtual NIC) и взаимодействия с такими инструментами, как HPE Agentless Management (AMS), Integrated Smart Update Tools (iSUT), iLORest (инструмент настройки), Intelligent Provisioning, а также DPU.
2. ESXi 8.0 Update 3e добавляет поддержку технологии vSphere Quick Boot для следующих драйверов:
Intel vRAN Baseband Driver
Intel Platform Monitoring Technology Driver
Intel Data Center Graphics Driver
Драйвер серии AMD Instinct MI
Вывод
Хотя отказ от бесплатной версии ESXi вызвал разочарование и обеспокоенность, возвращение entry-level редакции в составе ESXi 8.0 Update 3e — это шаг в сторону компромисса. Broadcom, похоже, услышала голос сообщества и нашла способ вернуть гипервизор в открытый доступ, пусть и с оговорками. Теперь остаётся дождаться подробностей о лицензировании и технических возможностях этой редакции.
Компания VMware недавно пригласила пользователей подать заявку на участие в бета-программе VMware vSphere Foundation 9.0. Это шанс опробовать новые функции и возможности версии vSphere и ESXi 9.0 до их официального релиза, а также повлиять на развитие продукта, предоставив обратную связь. Если вы будете выбраны в число участников, вы окажетесь в авангарде новейших технологий VMware.
Зачем участвовать в бета-программе VMware vSphere Foundation 9.0?
Ранний доступ: тестируйте и оценивайте новые функции и улучшения до их выхода в общий доступ.
Прямая обратная связь: повлияйте на продукт, делясь своими мыслями о функциональности, удобстве и производительности.
Формирование будущих возможностей: участвуйте в разработке будущих функций, учебных материалов, документации и многого другого.
Сотрудничество с коллегами: общайтесь с другими техническими специалистами в закрытом онлайн-пространстве.
Как подать заявку
Ознакомьтесь с документацией бета-версии VMware vSphere Foundation 9.0, чтобы узнать об основных функциях и известных проблемах.
Отправьте запрос на участие в бета-программе по этой ссылке. Подтверждённые участники получат уведомление по электронной почте.
Примечание: Партнёры по технологическому альянсу получают доступ к бета-версии vSphere Foundation 9.0 в рамках членства в программе Technology Alliance Program (TAP).
Если вас одобрят как участника, скачайте предварительную версию ПО и начните знакомство с новыми возможностями.
Следуйте рекомендуемым сценариям использования и заполняйте опросы по функциям, чтобы помочь нам в улучшении продукта.
Найдите решения распространённых проблем на портале Beta Communities или при необходимости откройте заявку в службу поддержки.
Важно: VMware может одобрить только заявки, поданные с корпоративных адресов электронной почты. Личные адреса (например, Gmail, Yahoo! и др.) приниматься не будут.
В видеоролике ниже рассматривается то, как включить Virtualization-Based Security (VBS) в гостевых операционных системах Windows, работающих в среде VMware Cloud Foundation и vSphere:
Что такое Virtualization-Based Security (VBS)?
VBS — это технология безопасности от Microsoft, использующая возможности аппаратной виртуализации и изоляции для создания защищённой области памяти. Она используется для защиты критически важных компонентов операционной системы, таких как Credential Guard и Device Guard.
Предварительные требования
Перед тем как включить VBS, необходимо убедиться в выполнении следующих условий:
Active Directory Domain Controller
Необходим для настройки групповой политики. В демонстрации он уже создан, но пока выключен.
Загрузка через UEFI (EFI)
Виртуальная машина должна использовать загрузку через UEFI, а не через BIOS (legacy mode).
Secure Boot
Желательно включить Secure Boot — это обеспечивает дополнительную защиту от вредоносных программ на стадии загрузки.
Модуль TPM (Trusted Platform Module)
Не обязателен, но настоятельно рекомендуется. Большинство руководств по безопасности требуют его наличия.
Настройка VBS в VMware
Перейдите к параметрам виртуальной машины в Edit Settings.
Убедитесь, что:
Используется UEFI и включен Secure Boot.
Включена опция "Virtualization-based security" в VM Options.
Виртуализация ввода-вывода (IO MMU) и аппаратная виртуализация будут активированы после перезагрузки.
Важно: Если переключаться с legacy BIOS на EFI, ОС может перестать загружаться — будьте осторожны.
Настройка VBS внутри Windows
После включения параметров на уровне гипервизора нужно активировать VBS в самой Windows:
Turn on Virtualization Based Security – активировать.
Secure Boot and DMA Protection – да.
Virtualization-based protection of Code Integrity – включить с UEFI Lock.
Credential Guard – включить.
Secure Launch Configuration – включить.
Примечание: Если вы настраиваете контроллер домена, обратите внимание, что Credential Guard не защищает базу данных AD, но защищает остальную ОС.
Перезагрузите виртуальную машину.
Проверка работоспособности VBS
После перезагрузки:
Откройте System Information и убедитесь, что:
Virtualization Based Security включена.
MA Protection работает.
redential Guard активен.
В Windows Security проверьте:
Включена ли Memory Integrity.
Активна ли защита от вмешательства (Tamper Protection).
Заключение
Теперь у вас есть полностью защищённая Windows-гостевая ОС с включённой Virtualization-Based Security, Credential Guard и другими функциями. Это отличный способ повысить уровень безопасности в вашей инфраструктуре VMware.
Для получения дополнительной информации смотрите ссылки под видео.
После слияния с Broadcom, компания VMware завершила перенос своего сообщества пользователей на новую платформу. Теперь все форумы, блоги, группы и база знаний VMware доступны по новому адресу: https://community.broadcom.com/vmware. Портал сохранил ключевые функции, став при этом более интегрированным с экосистемой Broadcom. Ниже расскажем о том, что нового появилось, и как теперь ориентироваться на обновлённом ресурсе.
Главное об обновлённом портале
Новый адрес:
Портал VMware Community теперь расположен в разделе Broadcom Communities — по ссылке: community.broadcom.com/vmware
Объединение ресурсов:
Платформа объединила в себе ресурсы для пользователей решений как от VMware, так и Broadcom, обеспечив единую точку входа для общения, поиска решений и публикации знаний.
Основные разделы портала
На новом сайте доступны следующие ключевые разделы:
Discussion Forums
- форумы по различным продуктам VMware, включая vSphere, NSX, vSAN, Horizon и другие. Пользователи могут задавать вопросы, делиться опытом и получать ответы от коллег и специалистов.
Knowledge Base & Resources - база знаний содержит статьи, инструкции, FAQ и полезные материалы по решению типовых проблем. Теперь она интегрирована с документацией Broadcom, что облегчает навигацию.
Blogs & Insights - публикации экспертов, анонсы обновлений, рекомендации по лучшим практикам и кейсы внедрения. Здесь же публикуются технические новости от разработчиков VMware.
Groups & User Communities - темы по интересам, региональные сообщества, профессиональные группы — всё это позволяет находить единомышленников и обмениваться опытом в более неформальной атмосфере.
Events & Webinars - афиша онлайн-мероприятий, тренингов, вебинаров и технических сессий. Поддержка календаря мероприятий и возможности подписки на него.
Новые и улучшенные функции
Унифицированная учётная запись - вход теперь осуществляется через Broadcom ID, который даёт доступ ко всем связанным сервисам Broadcom, включая техподдержку и загрузки.
Новая система уведомлений: гибкие настройки подписок и уведомлений позволяют получать только актуальные для вас темы.
Современный интерфейс: адаптивный дизайн, улучшенная навигация, расширенный поиск и фильтры.
Интеграция с поддержкой Broadcom: возможность сразу переходить от обсуждений к созданию тикетов и проверке статуса обращений.
Переезд VMware Community на платформу Broadcom — логичный шаг после объединения компаний. Новый портал предоставляет привычные возможности в обновлённом и более масштабном окружении. Несмотря на смену адреса и интерфейса, главное — сообщество экспертов и пользователей VMware — осталось на месте и продолжает развиваться.
В начале 2025 года в индустрии информационной безопасности стали появляться заявления о том, что «эра программ-вымогателей подошла к концу». Такие утверждения подкреплялись новостями о задержаниях ключевых членов известных кибергруппировок и о значительном снижении общих объемов выкупов, выплаченных жертвами. Однако реальная картина куда сложнее. Несмотря на частичный успех правоохранительных органов, говорить о полном искоренении вымогателей пока рано.
Реальные успехи: что удалось сделать
Бесспорно, 2024 и начало 2025 года стали весьма продуктивными в борьбе с киберпреступностью:
Задержания участников группировки Phobos. В феврале 2025 года Европол сообщил об аресте четырёх предполагаемых участников кибергруппировки Phobos. Эта группировка специализировалась на атаках на малые и средние бизнесы, используя шифровальщики с классическими методами социальной инженерии и RDP-брутфорс.
Уничтожение 8Base. Одновременно с операцией против Phobos, ФБР и международные партнёры провели успешную операцию по деактивации группы 8Base — относительно молодой, но весьма агрессивной группировки, использовавшей методы двойного вымогательства: шифрование данных плюс угроза их публикации.
Снижение объёмов выкупов. По данным Chainalysis, в 2024 году совокупная сумма выкупов, выплаченных киберпреступникам, снизилась на треть по сравнению с предыдущим годом. Это объясняется как ростом отказов платить со стороны компаний, так и усилившейся эффективностью мер реагирования.
Почему «победа» — преждевременное заявление
Несмотря на вышеуказанные достижения, эксперты в области кибербезопасности предупреждают: вымогатели никуда не исчезли. Вот ключевые факторы, свидетельствующие о продолжающейся угрозе:
1. Адаптация тактик и технологий
Киберпреступники постоянно модернизируют свои подходы. Один из ярких примеров — активное внедрение искусственного интеллекта в арсенал злоумышленников. AI помогает:
создавать правдоподобные фишинговые письма;
автоматизировать выбор целей на основе уязвимостей;
маскировать вредоносный код от систем обнаружения.
Это делает вымогателей менее заметными и более «эффективными» в смысле проникновения в защищённые сети.
2. Расширение каналов атак
Если раньше основными векторами были RDP и фишинг, то сегодня наблюдается рост атак через:
Уязвимости в популярных продуктах (например, недавно эксплуатировались дыры в MOVEit, Ivanti и Confluence)
Сторонние подрядчики и цепочки поставок
Скомпрометированные обновления программного обеспечения
Таким образом, даже хорошо защищённые компании могут стать жертвами через своих партнёров.
3. Географическая миграция
После давления со стороны западных спецслужб часть группировок сменила географию своей активности. Наблюдается усиление атак на организации в Южной Америке, Азии и Африке, где уровень готовности к киберугрозам часто ниже, чем в США и ЕС.
Тенденции и прогнозы
На основе анализа текущей ситуации можно выделить несколько ключевых трендов:
Рост Ransomware-as-a-Service (RaaS). Преступные группировки предоставляют шифровальщики и инфраструктуру «в аренду» менее опытным хакерам. Это способствует широкому распространению атак, даже со стороны непрофессиональных злоумышленников.
Двойное и тройное вымогательство. Помимо шифрования и угроз публикации, злоумышленники стали использовать метод давления на клиентов атакуемых компаний — рассылая им угрозы или раскрывая утечку напрямую.
Обход систем EDR/XDR. Новые версии вредоносных программ разрабатываются с учётом слабых мест современных средств обнаружения угроз, что требует от ИБ-команд постоянной адаптации.
Что делать специалистам по информационной безопасности?
Чтобы не стать жертвой программ-вымогателей, технические специалисты должны применять многоуровневый подход:
1. Укрепление периметра
Отключение неиспользуемых RDP-доступов
Применение многофакторной аутентификации
Ограничение доступа по принципу наименьших привилегий (PoLP)
2. Контроль над уязвимостями
Регулярный скан уязвимостей (в том числе внутренних)
Быстрое закрытие критических CVE (особенно в веб-интерфейсах и шлюзах)
3. Разделение инфраструктуры
Использование сетевых сегментов
Ограничение доступа между подразделениями
Изоляция критичных серверов от общего доступа
4. Подготовка к инцидентам
Наличие чётких процедур IRP (incident response plan)
Регулярные учения с симуляцией атак (tabletop exercises)
Проверка работоспособности бэкапов и времени восстановления
Использование immutable (неизменяемых) резервных копий
Вывод
Несмотря на оптимистичные заявления, программа-вымогатели остаются значительной угрозой для организаций всех масштабов. Да, международные операции наносят удары по крупным группировкам. Да, суммы выкупов снижаются. Но сама модель кибервымогательства — децентрализованная, легко копируемая и всё ещё прибыльная — продолжает жить и развиваться.
Техническим специалистам и командам информационной безопасности нельзя терять бдительность. Актуальные знания, автоматизация защиты и постоянное совершенствование практик — ключевые условия выживания в условиях современных киберугроз.
Пару лет назад Дункан Эппинг писал о функции Witness Resilience - это функция повышения устойчивости к сбоям свидетеля (Witness Failure Resilience) в конфигурациях растянутых кластеров vSAN 7.0 Update 3 (stretched clusters). Эта функция направлена на обеспечение доступности виртуальных машин даже при одновременном выходе из строя одного из дата-центров и узла-свидетеля (Witness). Мы ее детально описывали вот тут.
В традиционной конфигурации растянутого кластера данные реплицируются между двумя сайтами, а узел-свидетель размещается в третьей локации для обеспечения кворума. При отказе одного из сайтов кворум сохраняется за счет оставшегося сайта и узла-свидетеля. Однако, если после этого выходит из строя узел-свидетель, оставшийся сайт терял кворум, что приводило к недоступности машин.
С введением функции устойчивости к сбоям свидетеля в vSAN 7.0 Update 3, при отказе одного из сайтов система автоматически перераспределяет голоса (votes) компонентов данных. Компоненты на оставшемся сайте получают дополнительные голоса, а голоса компонентов на узле-свидетеле — уменьшаются. Это означает, что если после отказа сайта выходит из строя и узел-свидетель, оставшийся сайт все еще имеет достаточное количество голосов для поддержания кворума и обеспечения доступности ВМ.
Важно отметить, что процесс перераспределения голосов занимает некоторое время (обычно около 3 минут), в течение которого система адаптируется к новой конфигурации. После восстановления отказавшего сайта и узла-свидетеля система возвращает исходное распределение голосов для нормальной работы.
Таким образом, функция устойчивости к сбоям свидетеля значительно повышает надежность и отказоустойчивость растянутых кластеров, позволяя ВМ оставаться доступными даже при одновременном отказе одного из сайтов и узла-свидетеля.
Недавно Дункан снова поднял тонкий вопрос на эту тему. Он провёл несколько тестов и решил написать продолжение прошлой статьи. В данном случае мы говорим о конфигурации с двумя узлами, но это также применимо и к растянутому кластеру (stretched cluster).
В случае растянутого кластера или конфигурации с двумя узлами, когда сайт с данными выходит из строя (или переводится в режим обслуживания), автоматически выполняется перерасчёт голосов для каждого объекта/компонента. Это необходимо для того, чтобы при последующем выходе из строя Witness объекты/виртуальные машины оставались доступными.
А что если сначала выйдет из строя Witness, а только потом сайт с данными?
Это объяснить довольно просто — в таком случае виртуальные машины станут недоступными. Почему? Потому что в этом сценарии перерасчёт голосов уже не выполняется. Конечно же, он протестировал это, и ниже представлены скриншоты, которые это подтверждают.
На этом скриншоте показано, что Witness отсутствует (Absent), и оба компонента с данными имеют по одному голосу. Это значит, что если один из хостов выйдет из строя, соответствующий компонент станет недоступным. Давайте теперь отключим один из хостов и посмотрим, что покажет интерфейс.
Как видно на скриншоте ниже, виртуальная машина теперь недоступна. Это произошло из-за того, что больше нет кворума — 2 из 3 голосов недействительны:
Это говорит нам о том, что нужно обязательно следить за доступностью хоста Witness, который очень важен для контроля кворума кластера.
Компания VMware в марте обновила технический документ под названием «VMware vSphere 8.0 Virtual Topology - Performance Study» (ранее мы писали об этом тут). В этом исследовании рассматривается влияние использования виртуальной топологии, впервые представленной в vSphere 8.0, на производительность различных рабочих нагрузок. Виртуальная топология (Virtual Topology) упрощает назначение процессорных ресурсов виртуальной машине, предоставляя соответствующую топологию на различных уровнях, включая виртуальные сокеты, виртуальные узлы NUMA (vNUMA) и виртуальные кэши последнего уровня (last-level caches, LLC). Тестирование показало, что использование виртуальной топологии может улучшить производительность некоторых типичных приложений, работающих в виртуальных машинах vSphere 8.0, в то время как в других случаях производительность остается неизменной.
Настройка виртуальной топологии
В vSphere 8.0 при создании новой виртуальной машины с совместимостью ESXi 8.0 и выше функция виртуальной топологии включается по умолчанию. Это означает, что система автоматически настраивает оптимальное количество ядер на сокет для виртуальной машины. Ранее, до версии vSphere 8.0, конфигурация по умолчанию предусматривала одно ядро на сокет, что иногда приводило к неэффективности и требовало ручной настройки для достижения оптимальной производительности.
Влияние на производительность различных рабочих нагрузок
Базы данных: Тестирование с использованием Oracle Database на Linux и Microsoft SQL Server на Windows Server 2019 показало улучшение производительности при использовании виртуальной топологии. Например, в случае Oracle Database наблюдалось среднее увеличение показателя заказов в минуту (Orders Per Minute, OPM) на 8,9%, достигая максимума в 14%.
Инфраструктура виртуальных рабочих столов (VDI): При тестировании с использованием инструмента Login VSI не было зафиксировано значительных изменений в задержке, пропускной способности или загрузке процессора при включенной виртуальной топологии. Это связано с тем, что создаваемые Login VSI виртуальные машины имеют небольшие размеры, и виртуальная топология не оказывает значительного влияния на их производительность.
Тесты хранилищ данных: При использовании бенчмарка Iometer в Windows наблюдалось увеличение использования процессора до 21% при включенной виртуальной топологии, несмотря на незначительное повышение пропускной способности ввода-вывода (IOPS). Анализ показал, что это связано с поведением планировщика задач гостевой операционной системы и распределением прерываний.
Сетевые тесты: Тестирование с использованием Netperf в Windows показало увеличение сетевой задержки и снижение пропускной способности при включенной виртуальной топологии. Это связано с изменением схемы планирования потоков и прерываний сетевого драйвера, что приближает поведение виртуальной машины к работе на физическом оборудовании с аналогичной конфигурацией.
Рекомендации
В целом, виртуальная топология упрощает настройки виртуальных машин и обеспечивает оптимальную конфигурацию, соответствующую физическому оборудованию. В большинстве случаев это приводит к улучшению или сохранению уровня производительности приложений. Однако для некоторых микробенчмарков или специфических рабочих нагрузок может наблюдаться снижение производительности из-за особенностей гостевой операционной системы или архитектуры приложений. В таких случаях рекомендуется либо использовать предыдущую версию оборудования, либо вручную устанавливать значение «ядер на сокет» равным 1.
Для получения более подробной информации и рекомендаций по настройке виртуальной топологии в VMware vSphere 8.0 рекомендуется ознакомиться с полным текстом технического документа.
В течение последнего года Broadcom проводила сокращения персонала, включая увольнения в отделе продаж VMware в октябе и в команде профессиональных услуг на прошлой неделе, по данным нынешних и бывших сотрудников, а также публикаций в LinkedIn. Кроме того, за последние несколько месяцев Broadcom сократила штат и в других подразделениях или офисах.
Согласно документам для регулирующих органов, в феврале 2023 года штат VMware насчитывал более 38 тысяч сотрудников, однако многие работники и руководители покинули компанию еще до завершения сделки. Дополнительным фактором сокращения численности персонала стала естественная текучесть кадров.
По данным двух источников, к январю текущего года в VMware осталось примерно 16 тысяч сотрудников. За последние несколько месяцев были сокращены сотрудники в отделах маркетинга, партнерств, а также подразделения VMware Cloud Foundation, согласно информации бывших сотрудников и публикациям в LinkedIn.
Помимо этого, Broadcom внедрила в VMware другие изменения, включая требование о возвращении сотрудников в офис. Один бывший сотрудник сообщил, что в случаях, когда недостаточное количество работников регулярно отмечалось в определенных офисах, Broadcom закрывала эти офисы и сокращала сотрудников, которые там работали.
Также Хок Тан сосредоточился на крупнейших клиентах VMware и перевел бизнес-модель компании с продажи бессрочных лицензий на подписную модель. Недавно во время телефонной конференции по финансовым результатам он заявил, что к настоящему времени на новую модель перешли 60% клиентов.
Компания также повысила цены. Клиенты VMware сообщили, что столкнулись со значительным ростом затрат из-за пакетных предложений, когда несколько продуктов объединяются в один комплект, вынуждая клиентов платить за них все сразу.
При этом
акции Broadcom выросли примерно на 40% за последний год. В декабре рыночная капитализация Broadcom достигла 1 триллиона долларов. Аналитики в основном положительно оценивают подход Broadcom к интеграции VMware после слияния.
«Фактор VMware продолжает оправдывать себя, что неудивительно, учитывая опыт Хока Тана и его проверенную стратегию многократного успешного повторения сделок по слияниям и поглощениям», — заявил Дэйв Вагнер, управляющий портфелем в Aptus Capital Advisors, накануне публикации впечатляющих квартальных результатов компании.
Аналитики компании William Blair назвали VMware «звездой на рынке программного обеспечения», подчеркнув, что это «возможность для Broadcom добиться устойчивого роста в софте и потенциально снизить негативные последствия усиленной текучести клиентов к 2027 году».
Компания Broadcom сообщает, что с 24 марта 2025 года произойдёт важное изменение в процессе загрузки бинарных файлов ПО VMware (включая обновления и исправления) для продуктов VMware Cloud Foundation (VCF), vCenter, ESXi и служб vSAN. Это обновление упростит доступ и приведёт его в соответствие с текущими передовыми практиками отрасли.
Ниже представлена вся необходимая информация о грядущих изменениях и их влиянии на вас.
Что именно изменится?
С 24 марта 2025 года текущий процесс загрузки бинарных файлов будет заменён новым методом. Данное изменение предполагает:
Централизация на едином ресурсе: бинарные файлы программного обеспечения будут доступны для загрузки с единого сайта, а не с нескольких различных ресурсов, как ранее. Это будет доступно как для онлайн-сред, так и для изолированных («air-gapped») систем.
Проверка загрузок: загрузка будет авторизована с помощью уникального токена. Новые URL-адреса будут содержать этот токен, подтверждающий, что именно вы являетесь авторизованным пользователем или стороной, осуществляющей загрузку файла.
Примечание: текущие URL-адреса для загрузки будут доступны в течение одного месяца для облегчения переходного периода. С 24 апреля 2025 года текущие URL-адреса перестанут действовать.
Что это значит для вас?
Вам необходимо выполнить следующие действия:
Получите токен загрузки: войдите на сайт support.broadcom.com, чтобы получить уникальный токен.
Изучите техническую документацию: ознакомьтесь с KB-статьями, в которых изложены требования и пошаговые инструкции.
Обновите URL-адреса в продуктах: Broadcom предоставит скрипт, который автоматизирует замену текущих URL-адресов в продуктах ESXi, vCenter и SDDC Manager.
Обновите скрипты автоматизации (если применимо): Если у вас есть собственные скрипты, обновите URL-адреса согласно рекомендациям из KB-статей.
Где получить дополнительную информацию?
Рекомендуемые материалы для успешного перехода на новую систему:
Компания Veeam выпустила исправление для критической уязвимости удалённого выполнения кода (RCE) под идентификатором CVE-2025-23120, обнаруженной в программном обеспечении Veeam Backup & Replication. Уязвимость затрагивает развертывания, где сервер резервного копирования работает в составе домена AD.
Информация об уязвимости была опубликована около недели назад - она затрагивает версию Veeam Backup & Replication 12.3.0.310 и все более ранние сборки 12-й версии. Компания устранила проблему в версии 12.3.1 (сборка 12.3.1.1139), которая была выпущена несколько дней назад.
Согласно техническому отчёту от компании watchTowr Labs, которая обнаружила данную ошибку, CVE-2025-23120 представляет собой уязвимость десериализации в .NET-классах Veeam.Backup.EsxManager.xmlFrameworkDs и Veeam.Backup.Core.BackupSummary.
Уязвимость десериализации возникает, когда приложение неправильно обрабатывает сериализованные данные, позволяя злоумышленникам внедрять вредоносные объекты («гаджеты»), способные запускать опасный код.
В прошлом году компания Veeam исправляла похожую уязвимость удалённого выполнения кода (RCE), обнаруженную исследователем Флорианом Хаузером. Чтобы устранить проблему, Veeam внедрила чёрный список известных классов или объектов, которые могли использоваться для атак.
Однако специалисты компании watchTowr смогли найти другую цепочку гаджетов, не включённую в чёрный список, что позволило им снова добиться удалённого выполнения кода.
«В общем, вы, наверное, уже догадались, к чему всё идёт — похоже, что Veeam, несмотря на то, что остаётся любимой игрушкой группировок, распространяющих программы-вымогатели, не усвоила урок после исследования, опубликованного Frycos. Как вы уже поняли — они вновь исправили проблемы десериализации, просто добавив новые записи в свой чёрный список десериализации.»
Хорошая новость в том, что эта уязвимость затрагивает только те установки Veeam Backup & Replication, которые присоединены к домену. Плохая — любой доменный пользователь способен эксплуатировать данную уязвимость, что делает её особенно опасной в таких конфигурациях.
К сожалению, многие компании всё ещё подключают свои серверы Veeam к доменам Windows, игнорируя давно рекомендованные разработчиком правила безопасности.
Представители группировок, использующих программы-вымогатели, ранее уже сообщали, что серверы Veeam Backup & Replication всегда являются их целью, так как обеспечивают удобный способ похищать данные и препятствовать восстановлению систем, удаляя резервные копии. Эта новая уязвимость ещё больше повышает привлекательность серверов Veeam для злоумышленных группировок, так как она значительно упрощает взлом таких серверов.
Несмотря на отсутствие на текущий момент сообщений о реальных случаях эксплуатации уязвимости, watchTowr уже раскрыла достаточное количество технических деталей, поэтому в ближайшее время вполне вероятно появление общедоступного эксплойта (PoC). Компании, использующие Veeam Backup & Replication, должны максимально оперативно обновиться до версии 12.3.1.
Также, учитывая пристальное внимание группировок-вымогателей к данному приложению, настоятельно рекомендуется пересмотреть лучшие практики безопасности Veeam Backup и отключить серверы от домена.
Благодаря этому, у пользователей появляется ещё больше возможностей использовать подход Private AI для запуска моделей искусственного интеллекта и машинного обучения в непосредственной близости от приватных данных, как локально (on-premises), так и в облаке Azure VMware Solution.
Высокоуровневые компоненты данного решения представлены ниже:
Для получения подробных технических рекомендаций по интеграции Azure Machine Learning (AML) с VMware Cloud Foundation (VCF), пожалуйста, обратитесь к недавно опубликованной архитектуре решения.
Общие клиенты Broadcom и Microsoft признают, что гибридные решения в области искусственного интеллекта, сочетающие преимущества публичного облака и локальной (on-premises) или периферийной (edge) инфраструктуры, являются важнейшей частью их текущих и будущих архитектурных планов. Совместно с Microsoft компания Broadcom упрощает для организаций задачу обеспечения единого входа в Azure для разработчиков и специалистов по данным при планировании сервисов машинного обучения, таких как классификация данных или компьютерное зрение, и при этом дает возможность развертывать их на платформе VCF в любой точке присутствия бизнеса.
Сегодня искусственный интеллект преобразует бизнес во всех отраслях, однако компании сталкиваются с проблемами, связанными со стоимостью, безопасностью данных и масштабируемостью при запуске задач инференса (производительной нагрузки) в публичных облаках. VMware и NVIDIA предлагают альтернативу — платформу VMware Private AI Foundation with NVIDIA, предназначенную для эффективного и безопасного размещения AI-инфраструктуры непосредственно в частном датацентре. В документе "VMware Private AI Foundation with NVIDIA on HGX Servers" подробно рассматривается работа технологии Private AI на серверном оборудовании HGX.
Зачем бизнесу нужна частная инфраструктура AI?
1. Оптимизация использования GPU
На практике графические ускорители (GPU), размещенные в собственных датацентрах, часто используются неэффективно. Они могут простаивать из-за неправильного распределения или чрезмерного резервирования. Платформа VMware Private AI Foundation решает эту проблему, позволяя динамически распределять ресурсы GPU. Это обеспечивает максимальную загрузку графических процессоров и существенное повышение общей эффективности инфраструктуры.
2. Гибкость и удобство для специалистов по AI
Современные сценарии работы с AI требуют высокой скорости и гибкости в работе специалистов по данным. Платформа VMware обеспечивает привычный облачный опыт работы, позволяя командам специалистов быстро разворачивать AI-среды, при этом сохраняя полный контроль инфраструктуры у ИТ-команд.
3. Конфиденциальность и контроль за данными
Публичные облака вызывают беспокойство в вопросах приватности, особенно когда AI-модели обрабатывают конфиденциальные данные. Решение VMware Private AI Foundation гарантирует полную конфиденциальность, соответствие нормативным требованиям и контроль доступа к проприетарным моделям и наборам данных.
4. Знакомый интерфейс управления VMware
Внедрение нового программного обеспечения обычно требует значительных усилий на изучение и адаптацию. Платформа VMware использует уже знакомые инструменты администрирования (vSphere, vCenter, NSX и другие), что существенно сокращает время и затраты на внедрение и эксплуатацию.
Основные компоненты платформы VMware Private AI Foundation с NVIDIA
VMware Cloud Foundation (VCF)
Это интегрированная платформа, объединяющая ключевые продукты VMware:
vSphere для виртуализации серверов.
vSAN для виртуализации хранилищ.
NSX для программного управления сетью.
Aria Suite (бывшая платформа vRealize) для мониторинга и автоматизации управления инфраструктурой.
NVIDIA AI Enterprise
NVIDIA AI Enterprise является важным элементом платформы и включает:
Технологию виртуализации GPU (NVIDIA vGPU C-Series) для совместного использования GPU несколькими виртуальными машинами.
NIM (NVIDIA Infrastructure Manager) для простого управления инфраструктурой GPU.
NeMo Retriever и AI Blueprints для быстрого развёртывания и масштабирования моделей AI и генеративного AI.
NVIDIA HGX Servers
Серверы HGX специально разработаны NVIDIA для интенсивных задач AI и инференса. Каждый сервер оснащён 8 ускорителями NVIDIA H100 или H200, которые взаимосвязаны через высокоскоростные интерфейсы NVSwitch и NVLink, обеспечивающие высокую пропускную способность и минимальные задержки.
Высокоскоростная сеть
Сетевое взаимодействие в кластере обеспечивается Ethernet-коммутаторами NVIDIA Spectrum-X, которые предлагают скорость передачи данных до 100 GbE, обеспечивая необходимую производительность для требовательных к данным задач AI.
Референсная архитектура для задач инференса
Референсная архитектура предлагает точные рекомендации по конфигурации аппаратного и программного обеспечения:
Физическая архитектура
Серверы инференса: от 4 до 16 серверов NVIDIA HGX с GPU H100/H200.
Сетевая инфраструктура: 100 GbE для рабочих нагрузок инференса, 25 GbE для управления и хранения данных.
Управляющие серверы: 4 узла, совместимые с VMware vSAN, для запуска сервисов VMware.
Виртуальная архитектура
Домен управления: vCenter, SDDC Manager, NSX, Aria Suite для управления облачной инфраструктурой.
Домен рабочих нагрузок: виртуальные машины с GPU и Supervisor Clusters для запуска Kubernetes-кластеров и виртуальных машин с глубоким обучением (DLVM).
Векторные базы данных: PostgreSQL с расширением pgVector для поддержки Retrieval-Augmented Generation (RAG) в генеративном AI.
Производительность и валидация
VMware и NVIDIA протестировали платформу с помощью набора тестов GenAI-Perf, сравнив производительность виртуализированных и bare-metal сред. Решение VMware Private AI Foundation продемонстрировало высокую пропускную способность и низкую задержку, соответствующие или превосходящие показатели не виртуализированных решений.
Почему компании выбирают VMware Private AI Foundation с NVIDIA?
Эффективное использование GPU: максимизация загрузки GPU, что экономит ресурсы.
Высокий уровень безопасности и защиты данных: конфиденциальность данных и контроль над AI-моделями.
Операционная эффективность: использование привычных инструментов VMware сокращает затраты на внедрение и управление.
Масштабируемость и перспективность: возможность роста и адаптации к новым задачам в области AI.
Итоговые выводы
Платформа VMware Private AI Foundation с NVIDIA является комплексным решением для компаний, стремящихся эффективно и безопасно реализовывать задачи искусственного интеллекта в частных дата-центрах. Она обеспечивает высокую производительность, гибкость и конфиденциальность данных, являясь оптимальным решением для организаций, которым критично важно сохранять контроль над AI-инфраструктурой, не жертвуя при этом удобством и масштабируемостью.
Дункану Эппингу задали вопрос, основанный на материале, который он написал несколько лет назад для углублённого разбора механизма кластеризации VMware vSphere («Clustering Deepdive»).
В этой статье описывается последовательность действий, которые HA выполняет при возникновении отказа. Например, при выходе из строя вторичного (slave/secondary) узла последовательность выглядит так:
T – сбой вторичного узла.
T+3 сек – основной узел начинает мониторинг heartbeat-хранилищ в течение следующих 15 секунд.
T+10 сек – узел помечается как недоступный, и основной узел начинает пинговать управляющую сеть (management network) отказавшего узла. Пинг непрерывно продолжается в течение 5 секунд.
T+15 сек – если heartbeat-хранилища не настроены, узел объявляется «мёртвым».
T+18 сек – если heartbeat-хранилища настроены, узел объявляется «мёртвым».
Таким образом, в зависимости от того, есть ли настроенные heartbeat-хранилища, процедура занимает либо 15, либо 18 секунд. Значит ли это, что виртуальные машины сразу же перезапускаются, и если да, то сколько это займёт времени? На самом деле нет, они не перезапускаются моментально, потому что по завершении этой последовательности отказавший вторичный узел только объявляется недоступным. Затем необходимо проверить статус виртуальных машин, которые могли быть затронуты отказом, составить список ВМ для перезапуска и определить их размещение.
Запрос на размещение отправляется либо в DRS, либо обрабатывается самим HA, в зависимости от того, включён ли DRS и доступен ли сервер vCenter. После определения размещения основной (master) узел отправит на хосты команду перезапустить указанные виртуальные машины. После получения списка ВМ хосты начинают их перезапускать партиями по 32 штуки, при этом применяется установленный приоритет и порядок перезапуска. Этот процесс легко может занять 10–15 секунд (и даже больше), что означает, что в идеальных условиях перезапуск ВМ начнётся примерно через 30 секунд после сбоя. Но это лишь момент запуска виртуальной машины — сама ВМ и размещённые на ней сервисы, конечно же, не будут доступны через эти 30 секунд. Процесс включения машины может занять от нескольких секунд до нескольких минут, в зависимости от размера ВМ, гостевой ОС и сервисов, которые должны быть запущены.
Таким образом, хотя для определения и объявления отказа vSphere HA требуется всего 15–18 секунд, на самом деле процесс гораздо более сложный.
За последние 12 месяцев, с момента завершения приобретения VMware компанией Broadcom, сотрудники этих компаний провели многочисленные встречи с партнёрами — от индивидуальных консультаций до очных заседаний региональных консультативных советов и виртуальных мероприятий, чтобы понять, что именно им необходимо для увеличения выручки, повышения прибыльности и, что самое важное, улучшения обслуживания общих клиентов. На основе этих обсуждений в Broadcom обновили партнёрскую программу Broadcom Advantage и недавно представили новую систему на основе баллов, которая обеспечивает явные преимущества как для партнёров, так и для клиентов.
Обратная связь от партнёров легла в основу новой программы на основе баллов
Новая партнёрская программа на основе баллов поощряет и признаёт заслуги партнёров, основываясь на ключевых атрибутах, таких как объём заказов, обучение и развитие компетенций в области услуг. Она также выравнивает конкурентные условия: партнёры, инвестирующие в эти направления, продвигаются в программе независимо от размера компании. Основные элементы программы включают:
70% баллов начисляется за заказы, оценивая финансовый вклад.
30% баллов начисляется за технические знания, сертификации и возможности оказания услуг, такие как:
предпродажная поддержка и наличие сертифицированных технических специалистов VMware (Broadcom Knights со специализацией VMware Cloud Foundation);
послепродажное внедрение, сопровождение и поддержка клиентов;
участие в программе Expert Advantage, предоставление профессиональных или образовательных услуг и участие в других важных партнёрских инициативах.
Пересмотренная структура программы гарантирует, что партнёры, нацеленные на совершенство через услуги, сертификации или стратегические инвестиции, будут соответствующим образом вознаграждены.
Улучшения, ориентированные на партнёров
Следующие улучшения программы обеспечивают партнёрам необходимые инструменты, защиту и возможности для процветания в меняющихся условиях рынка ИТ:
Программа Achievers
Она представляет собой гибридную модель, сочетающую предварительные скидки с дополнительной прибылью после завершения сделок. Это позволяет партнёрам сохранять маржинальность, продолжая инвестировать в технические и сервисные возможности для долгосрочного успеха.
Ключевые особенности программы Achievers:
Возвращает ретроспективные выплаты (рибэйты) через дистрибьюторов, улучшая финансовую стабильность партнёров.
Включает компонент начисления вознаграждений за активности (Activities-Based Claim, ABC), стимулирующий постоянные инвестиции в решения VMware.
Вводит уровневую дифференциацию, предлагая более высокие выплаты в зависимости от уровня партнёра в рамках программы Advantage Partner Program.
Регистрация сделок на основе ценности
Broadcom высоко ценит экспертизу и усилия, которые партнёры вкладывают в работу с клиентами. Мы отдаём приоритет партнёрам, которые инвестируют в предпродажную работу, техническое развитие, послепродажные услуги и успех клиентов. Такой подход обеспечивает:
Более надёжную защиту сделок для партнёров, активно развивающих клиентские проекты.
Более выраженную дифференциацию партнёров, предоставляющих дополнительную ценность помимо перепродажи.
Повышенную маржинальность и конкурентные преимущества для партнёров, демонстрирующих высокую экспертизу.
Новая защита при продлении договоров
Продления являются критически важными для сохранения клиентов и прибыльности партнёров. Политика защиты теперь строго применяется к реальным продлениям, которые определяются как сделки с тем же продуктом, сроком действия и количеством ядер. Новые ёмкости (дополнительные ядра), новые сделки и миграции теперь подпадают под регистрацию сделок, а не под защиту существующих условий.
Новая модель защиты продлений гарантирует приоритет партнёрам, которые управляют текущими отношениями с VMware, сохраняя их долгосрочные инвестиции в успех клиентов. Эта модель обеспечивает партнёрам:
Защиту цен для партнёров, активно взаимодействующих с клиентами.
Упрощённый процесс продления, повышающий операционную эффективность.
Более значимые стимулы для расширения возможностей продлений через дополнительные мощности и сопутствующие решения, которые теперь можно регистрировать одновременно с продлением.
Практические инструменты и аналитика для роста партнёров
Broadcom инвестирует в системы и инструменты, предоставляя партнёрам подробную аналитику для развития бизнеса и роста. Эти улучшения обеспечивают:
Аналитику для мониторинга эффективности, сделок, уровня участия и прогресса в программе.
Улучшенную видимость предстоящих продлений, что позволяет вести упреждающую работу с клиентами.
Панели управления активацией клиентов, помогающие партнёрам оптимизировать возможности для роста, продажи дополнительных мощностей или продвижения услуг по внедрению.
Более подробно о нововведениях партнерской программы Broadcom можно почитать здесь.
В современной динамично развивающейся сфере информационных технологий автоматизация уже не роскошь, а необходимость. Команды, отвечающие за безопасность, сталкиваются с растущей сложностью управления политиками сетевой безопасности, что требует эффективных и автоматизированных решений. Межсетевой экран vDefend, интегрированный с VMware NSX, предлагает мощные возможности автоматизации с использованием различных инструментов и языков сценариев. Выпущенное недавно руководство "Beginners Guide to Automation with vDefend Firewall" рассматривает стратегии автоматизации, доступные в vDefend, которые помогают ИТ-специалистам упростить рабочие процессы и повысить эффективность обеспечения безопасности.
Понимание операций CRUD в сетевой автоматизации
Операции CRUD (Create, Read, Update, Delete) являются основой рабочих процессов автоматизации. vDefend позволяет выполнять эти операции через RESTful API-методы:
GET — получение информации о ресурсе.
POST — создание нового ресурса.
PUT/PATCH — обновление существующих ресурсов.
DELETE — удаление ресурса.
Используя эти методы REST API, ИТ-команды могут автоматизировать политики межсетевого экрана, создавать группы безопасности и настраивать сетевые параметры без ручного вмешательства.
Стратегии автоматизации для межсетевого экрана vDefend
С vDefend можно использовать несколько инструментов автоматизации, каждый из которых предлагает уникальные преимущества:
Вызовы REST API через NSX Policy API - API политики NSX Manager позволяют напрямую выполнять действия CRUD с сетевыми ресурсами. Разработчики могут использовать языки программирования, такие как Python, GoLang и JavaScript, для написания сценариев взаимодействия с NSX Manager, обеспечивая бесшовную автоматизацию задач безопасности.
Terraform и OpenTofu - эти инструменты «инфраструктура-как-код» (IaC) помогают стандартизировать развертывание сетей и политик безопасности. Используя декларативные манифесты, организации могут определять балансировщики нагрузки, правила межсетевого экрана и политики безопасности, которые могут контролироваться версионно и развертываться через CI/CD-конвейеры.
Ansible - этот инструмент часто применяется для развертывания основных компонентов NSX, включая NSX Manager, Edge и транспортные узлы. ИТ-команды могут интегрировать Ansible с Terraform для полной автоматизации конфигурации сети.
PowerCLI — это модуль PowerShell для VMware, который позволяет администраторам эффективно автоматизировать конфигурации межсетевых экранов и политик сетевой безопасности.
Aria Automation Suite - платформа Aria обеспечивает оркестрацию задач сетевой безопасности корпоративного уровня. Она включает:
Aria Assembler — разработка и развертывание облачных шаблонов для настройки безопасности.
Aria Orchestrator — автоматизация сложных рабочих процессов для управления безопасностью NSX.
Aria Service Broker — портал самообслуживания для автоматизации сетевых и защитных операций.
Ключевые основы работы с API
Для эффективного использования возможностей автоматизации vDefend важно понимать архитектуру его API:
Иерархическая структура API: API NSX построен по древовидной структуре с ресурсами в отношениях родитель-потомок.
Пагинация с курсорами: большие наборы данных разбиваются на страницы с использованием курсоров для повышения эффективности запросов.
Порядковые номера: правила межсетевого экрана выполняются сверху вниз, приоритет отдается правилам с меньшими порядковыми номерами.
Методы аутентификации: вызовы API требуют аутентификации через базовую авторизацию, сеансовые токены или ключи API.
Пример полномасштабной автоматизации
Реальный сценарий автоматизации с использованием vDefend включает:
Сбор информации о виртуальных машинах — идентификацию ВМ и получение тегов безопасности.
Присвоение тегов ВМ — назначение меток для категоризации ресурсов.
Создание групп — динамическое формирование групп безопасности на основе тегов ВМ.
Определение пользовательских служб — создание пользовательских сервисов межсетевого экрана с конкретными требованиями к портам.
Создание политик и правил межсетевого экрана — автоматизация развертывания политик для применения мер безопасности.
Например, автоматизированное правило межсетевого экрана для разрешения HTTPS-трафика от группы веб-серверов к группе приложений будет выглядеть следующим образом в формате JSON: