Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs
ДатаКомпанияНовость
06/02/2026
VMware

Новая сертификация VMware VCAP Administrator Networking (3V0-25.25)

Отличные новости для сетевых инженеров и архитекторов, работающих в экосистеме VMware. Компания представила новую сертификацию VMware Certified Advanced Professional – VCAP Administrator Networking (3V0-25.25). Этот экзамен продвинутого уровня (VCAP) предназначен для подтверждения глубоких знаний и практических навыков в проектировании, развертывании и администрировании сетевых решений VMware Cloud Foundation (VCF).

Новый стандарт профессиональной экспертизы в VCF Networking

Экзамен 3V0-25.25 ориентирован на опытных ИТ-специалистов, которые работают с современными корпоративными и мультиоблачными инфраструктурами. Получение данной сертификации демонстрирует способность кандидата эффективно решать сложные сетевые задачи в рамках архитектуры VMware Cloud Foundation.

Ключевые параметры экзамена:

  • Код экзамена: 3V0-25.25
  • Продолжительность: 135 минут
  • Количество вопросов: 60
  • Проходной балл: 300
  • Стоимость: 250 USD
  • Язык: английский

Кому подойдет эта сертификация

Экзамен рассчитан на специалистов с уверенным опытом в корпоративных сетях и экспертизой по решению VMware NSX. Рекомендуемый профиль кандидата включает:

  • 1–2 года практического опыта проектирования и администрирования решений NSX
  • Не менее 2 лет работы с Enterprise-сетями
  • Уверенное владение UI-, CLI- и API-ориентированными рабочими процессами VCF
  • Практический опыт работы с VCF Networking и vSphere

Если вы ежедневно сталкиваетесь с проектированием и эксплуатацией сложных сетевых архитектур, этот экзамен станет логичным шагом в развитии карьеры.

Что проверяет экзамен 3V0-25.25

Основной акцент в экзамене сделан на планирование и дизайн сетевых решений VCF, с максимальной ориентацией на реальные архитектурные сценарии. Ключевые области оценки знаний включают:

  • ИТ-архитектуры, технологии и стандарты - проверяется понимание архитектурных принципов, умение различать бизнес- и технические требования, а также управлять рисками и ограничениями при проектировании.
  • Планирование и проектирование решений VMware - центральный блок экзамена, оценивающий способность спроектировать полноценное решение VMware Cloud Foundation с учетом доступности, управляемости, производительности, безопасности и восстановляемости.

Несмотря на то что в экзаменационном гайде указано наличие разделов без активных проверяемых целей, глубокое понимание всего жизненного цикла VCF Networking — от установки до устранения неполадок — значительно повышает шансы на успех.

Как подготовиться к экзамену

VMware рекомендует сочетать практический опыт с целенаправленным обучением. Для подготовки к экзамену доступны следующие курсы:

  • VMware Cloud Foundation Networking Advanced Design
  • VMware Cloud Foundation Networking Advanced Configuration
  • VMware Cloud Foundation Networking Advanced Troubleshooting

Также крайне важно изучить официальную документацию VMware Cloud Foundation 9.0, актуальные release notes и технические материалы от Broadcom, чтобы быть в курсе всех возможностей и изменений платформы.

Будьте среди первых сертифицированных специалистов

Выход сертификации VMware Certified Advanced Professional – VCF Networking — значимое событие для профессионалов в области сетевых технологий. Этот статус подтверждает высокий уровень экспертизы и позволяет выделиться на фоне других специалистов, открывая новые карьерные возможности. Если вы хотите быть на передовой в индустрии и официально подтвердить свои знания в области VCF Networking — сейчас самое время сделать этот шаг.

17/12/2025
VMware

Диаграмма задержек VMware Cloud Foundation 9.0 Fleet Latency v1 доступна для скачивания

Диаграмма задержек VMware Cloud Foundation 9.0 теперь официально доступна на сайте Ports and Protocols в разделе Network Diagrams > VMware Cloud Foundation. Это официальный и авторитетный источник, который наглядно показывает сетевые взаимодействия и требования к задержкам в VCF 9.0.

Данное руководство настоятельно рекомендуется распечатать и разместить на рабочем месте каждого архитектора и администратора. Оно значительно упрощает проектирование, внедрение и сопровождение инфраструктуры, помогает быстрее выявлять узкие места, а также служит удобной шпаргалкой при обсуждении архитектурных решений, устранении неполадок и проверке соответствия требованиям. Фактически, это must-have материал для всех, кто работает с VMware Cloud Foundation в производственной среде.

Диаграмма демонстрирует, как различные элементы инфраструктуры VCF — управляющие домены, рабочие домены и центральные службы — взаимодействуют друг с другом в рамках распределённой частной облачной платформы, а также какие целевые значения Round-Trip Time (RTT) рекомендованы для стабильной и предсказуемой работы.

Что отражено на диаграмме:

  • VCF Fleet Components: диаграмма охватывает два отдельных экземпляра VCF (Instance 1 и Instance 2), включая их управляющие домены (Management Domain) и рабочие домены (Workload Domain), а также центральные Fleet-сервисы — VCF Operations и VCF Automation.
  • Целевые задержки: на диаграмме проставлены ориентировочные максимальные RTT-значения между компонентами, например между коллекторами VCF Operations и такими элементами, как vCenter, SDDC Manager, NSX Manager и ESX-хостами. Это служит практическим ориентиром для сетевых инженеров при планировании WAN- или LAN-связей между локациями.
  • Линии связи разной направленности: взаимодействия выполняются по разным путям и цветам, отражая направление обмена данными и зависимости между сервисами. Это помогает визуализировать, какие службы должны быть ближе друг к другу с точки зрения сети, а какие могут находиться дальше.
Практическая ценность

Такой сетевой ориентир крайне полезен архитекторам и администраторам, которые проектируют либо оптимизируют VCF-окружения в распределённых инфраструктурах. Он служит чёткой справочной картой, позволяющей:

  • Определить, какие связи нужно обеспечить минимально короткими с точки зрения задержки.
  • Согласовать проектные требования к ширине канала и RTT в разных сегментах сети.
  • Избежать узких мест в межкластерных коммуникациях, которые могут повлиять на производительность, управление или репликацию данных.

Диаграмма — это не просто техническая схема, а полноценный план качества сети, который должен учитываться при разворачивании VCF 9.0 на уровне предприятия.

05/12/2025
VMware

Что нового появилось в платформе VMware Cloud on AWS этой осенью?

В Broadcom сосредоточены на том, чтобы помочь клиентам модернизировать инфраструктуру, повысить устойчивость и упростить операции — без добавления сложности для команд, которые всем этим управляют. За последние несколько месяцев было выпущено несколько обновлений, делающих облако VMware Cloud on AWS (VMC) более гибким и простым в использовании. Легко пропустить последние обновления в последних примечаниях к релизам, поэтому мы хотим рассказать о некоторых из самых свежих функций.

Последние обновления предоставляют корпоративным клиентам более экономичную устойчивость благодаря нестандартным вторичным кластерам (non-stretched secondary clusters) и улучшенным возможностям масштабирования вниз, более прозрачную операционную информацию благодаря обновлённому пользовательскому интерфейсу, улучшенный VMC Sizer, новые Host Usage API, а также продолжающиеся улучшения продукта HCX 4.11.3.

Оптимизация развертываний SDDC: улучшения для stretched-кластеров

Когда вы развертываете Software Defined Datacenter (SDDC) в VMC, вам предоставляется выбор между стандартным развертыванием и stretched-развертыванием. Стандартный кластер развертывается в одной зоне доступности AWS (AZ), тогда как stretched-кластер обеспечивает повышенную доступность, развертывая SDDC в трёх зонах доступности AWS. Две зоны используются для размещения экземпляров, а третья — для компонента vSAN Witness.

Поскольку SDDC в stretched-кластерах размещает хосты в двух зонах доступности AWS, клиентам необходимо планировать ресурсы по схеме два к одному, что может быть слишком дорого для рабочих нагрузок, которые не требуют высокой доступности. Кроме того, если stretched-кластер масштабируется более чем до шести хостов, ранее его нельзя было уменьшить обратно. Чтобы улучшить обе эти ситуации, команда VMC внедрила нестандартные вторичные кластеры (Non-Stretched Secondary Clusters) в stretched-SDDC, а также улучшенные возможности масштабирования вниз для stretched-кластеров.

Нестандартные вторичные кластеры в stretched-SDDC

Ранее все кластеры в stretched-SDDC были растянуты между двумя зонами доступности. В этом обновлении только первичный кластер должен быть stretched, в то время как вторичные кластеры теперь могут развертываться в одной зоне доступности.
В stretched-кластере хосты должны развертываться равномерно, поэтому минимальный шаг масштабирования — два хоста.
Но в нестандартном вторичном кластере можно добавлять хосты по одному, что позволяет увеличивать количество развернутых хостов только в той зоне доступности AWS, где они действительно нужны.

Некоторые ключевые преимущества:

  • Обеспечивает преимущества как stretched-, так и non-stretched-кластеров в одном и том же SDDC.
  • Позволяет расширять кластер в одной AZ по одному хосту в non-stretched-кластерах.
  • Снижает стоимость для рабочих нагрузок, которым не требуется доступность stretched-кластера, включая тестовые и/или девелоперские окружения, где высокая доступность не обязательна.
  • Поддерживает архитектуры приложений с нативной репликацией на уровне приложения — их можно развертывать в двух независимых нестандартных вторичных кластерах (Non-Stretched Secondary Clusters).

VMC поддерживает stretched-кластеры для приложений, которым требуется отказоустойчивость между AZ. Начиная с версии SDDC 1.24 v5, клиенты получают большую гибкость в том, как их кластеры развертываются и масштабируются. Non-stretched-кластеры могут быть развернуты только в одной из двух AWS AZ, в которых находятся stretched-хосты, и эта функция доступна только для SDDC версии 1.24v5 и выше. Кроме того, SLA для non-stretched-кластера отличается от SLA для stretched-кластера, так как non-stretched не предоставляет повышенную доступность.

При планировании новых развертываний SDDC рассмотрите возможность использования Stretched Cluster SDDC, чтобы получить преимущества и высокой доступности, и оптимизированного размещения рабочих нагрузок.

Улучшенные возможности масштабирования вниз (Scale-Down) для stretched-кластеров

Ранее stretched-кластеры нельзя было уменьшить ниже шести хостов (три в каждой AZ). Теперь вы можете уменьшить кластер с шести или более хостов до четырёх хостов (два в каждой AZ) или даже до двух хостов (по одному в каждой AZ), в зависимости от доступных ресурсов и других факторов. Это даёт вам больший контроль над инфраструктурой и помогает оптимизировать расходы.

Ключевые сценарии использования:

  • Если использование ресурсов рабочей нагрузки снижалось со временем, и теперь вам необходимо уменьшить stretched-кластер, ориентируясь на текущие потребности.
  • Если ранее вы увеличивали stretched-кластер до шести или более хостов в период пикового спроса, но сейчас такие мощности больше не нужны.
  • Если вы недавно перевели свои кластеры с i3.metal на i4i.metal или i3en.metal и больше не нуждаетесь в прежнем количестве хостов. Новые типы инстансов обеспечивают такую же или лучшую производительность с меньшим набором хостов, что позволяет экономично уменьшить кластер.

Однако перед уменьшением stretched-кластера необходимо учитывать несколько важных моментов:

  • Если в вашем первичном кластере используются крупные управляющие модули (large appliances), необходимо поддерживать минимум шесть хостов (три в каждой AZ).
  • Для кластеров с кастомной конфигурацией 8 CPU минимальный размер — четыре хоста (два в каждой AZ).
  • Масштабирование вниз невозможно, если кластер уже на пределе ресурсов или если уменьшение нарушило бы пользовательские политики.

Изучите текущую конфигурацию, сравните её с рекомендациями выше — и вы сможете эффективно адаптировать свой stretched-кластер под текущие потребности.

Контролируйте свои данные: новый Host Usage Report API

VMware представила новый Host Usage Report API, который обеспечивает программный доступ к данным о потреблении хостов. Теперь вы можете получать ежедневные отчёты об использовании хостов за любой период и фильтровать их по региону, типу инстанса, SKU и другим параметрам — всё через простой API.

Используйте эти данные, чтобы анализировать тенденции использования хостов, оптимизировать расходы и интегрировать метрики напрямую в существующие инструменты отчётности и дашборды. Host Usage Report API поддерживает стандартные параметры запросов, включая сортировку и фильтрацию, что даёт вам гибкость в получении именно тех данных, которые вам нужны.

Изображение выше — это пример вывода API. Вы можете автоматизировать этот процесс, чтобы передавать данные в любой аналитический инструмент по вашему выбору.

Улучшения продукта: HCX версии 4.11.3 теперь доступен для VMC

Теперь VMware HCX версии 4.11.3 доступен для VMware Cloud on AWS, и он включает важные обновления, о которых вам стоит знать.

Что нового в HCX 4.11.3?

Этот сервисный релиз содержит ключевые исправления и улучшения в областях datapath, системных обновлений и общей эксплуатационной стабильности, чтобы обеспечить более плавную работу. Полный перечень всех улучшений можно найти в официальных HCX Release Notes. Версия HCX 4.11.3 продлевает поддержку до 11 октября 2027 года, обеспечивая долгосрочную стабильность и спокойствие. VMware настоятельно рекомендует всем клиентам обновиться до версии 4.11.3 как можно скорее, так как более старые версии больше не поддерживаются.

Если вы настраиваете HCX впервые, VMware Cloud on AWS автоматически развернёт версию 4.11.3. Для существующих развертываний 4.11.3 теперь является единственной доступной версией для обновления. Нужна помощь, чтобы начать? Ознакомьтесь с инструкциями по активации HCX и по обновлению HCX в VMware Cloud on AWS.

Функция WAN Optimization больше не доступна в этом релизе. Перед обновлением необходимо удалить все модули WAN-OPT из ваших Service Mesh и профилей compute profiles. Подробные инструкции по удалению WAN-OPT доступны в документации (HCX no longer supports WANOPT from the 4.11.3 release + HCX version 4.11.3 Upgrade).

Улучшенный интерфейс: обновлённый VMware Cloud on AWS UI

VMware Cloud on AWS теперь оснащён обновлённым пользовательским интерфейсом с более упрощённой компоновкой, более быстрой навигацией и улучшенной согласованностью на всей платформе. Новый интерфейс уже доступен по адресу https://vmc.broadcom.com.

Улучшенные рекомендации по сайзингу среды: обновления VMC Sizer и Cluster Conversion

VMware представила серьёзные улучшения в процессе конвертации кластеров VMC (VMC Cluster Conversion) в инструменте VMware Cloud Sizer. Эти обновления обеспечивают более точные рекомендации по сайзингу, большую прозрачность и улучшенный пользовательский опыт при планировании перехода с хостов i3.metal на i3en.metal или i4i.metal.

Что нового в оценках VMC Cluster Conversion?

Обновлённый алгоритм оценки в VMC Sizer теперь позволяет получить более полное представление о ваших потребностях в ресурсах перед переходом с i3.metal на более новые типы инстансов.

Рекомендация по количеству хостов в обновлённом выводе VMC Sizer формируется на основе шести ресурсных измерений, и итоговая рекомендация определяется наибольшим из них.

В отчёт включены следующие параметры:

  • Вычислительные ресурсы (compute)
  • Память (memory)
  • Использование хранилища (storage utilization) — с консервативным и агрессивным вариантами оценки
  • Политики хранения vSAN (vSAN storage policies)
  • NSX Edge
  • Другие критически важные параметры

Все эти данные объединены в ясный и практичный отчёт VMC Sizer с рекомендациями, адаптированными под ваш сценарий миграции на новые типы инстансов.

Этот результат оценки является моментальным снимком текущего использования ресурсов и не учитывает будущий рост рабочих нагрузок. При планировании конвертации кластеров следует учитывать и несколько других важных моментов:

  • Итоговое количество хостов и параметры сайзинга будут подтверждены уже в ходе фактической конвертации кластера.
  • Клиентам рекомендуется повторно выполнять оценку сайзинга после любых существенных изменений конфигурации, ресурсов или других параметров.
  • В ходе конвертации политики RAID не изменяются.
  • Предоставляемые в рамках этого процесса оценки подписки VMware служат исключительно для планирования и не являются гарантированными финальными требованиями.
  • Фактические потребности в подписке могут оказаться выше предварительных оценок, что может потребовать покупки дополнительных подписок после конвертации.
  • Возвраты средств или уменьшение объёма подписки не предусмотрены, если предварительная оценка превысит фактические потребности.
25/11/2025
VMware

Broadcom вернула сертификацию VMware Certified Advanced Professional (VCAP)

VMware повторно представила свои сертификации продвинутого уровня с выпуском трёх новых экзаменов VMware Certified Advanced Professional (VCAP) для VMware Cloud Foundation 9.0. Эти сертификации предназначены для опытных IT-специалистов, которые хотят подтвердить свою экспертизу в проектировании, построении и управлении сложными средами частного облака. Возвращение экзаменов VCAP является важной вехой для специалистов VMware, предлагая чёткий путь для карьерного роста и признания их продвинутых навыков.

Понимание сертификации VCAP

Сертификация VMware Certified Advanced Professional (VCAP) — это престижный квалификационный уровень, который означает глубокое понимание технологий VMware и способность применять эти знания в реальных сценариях. Размещённая выше уровня VMware Certified Professional (VCP), сертификация VCAP предназначена для опытных специалистов, которые уже продемонстрировали прочные базовые знания продуктов и решений VMware. Получение сертификации VCAP демонстрирует приверженность к совершенству и высокий уровень профессионализма в специализированной области технологий VMware.

Новые экзамены VCAP для VMware Cloud Foundation 9.0

С выпуском VMware Cloud Foundation 9.0 VMware представила три новых экзамена VCAP, каждый из которых сосредоточен на критически важном аспекте платформы VCF. Эти экзамены ориентированы на конкретные рабочие роли и наборы навыков, позволяя специалистам специализироваться в областях, которые соответствуют их карьерным целям.

1. VMware Certified Advanced Professional - VMware Cloud Foundation 9.0 vSphere Kubernetes Service (3V0-24.25)

Эта сертификация предназначена для специалистов, работающих с контейнеризированными рабочими нагрузками и современными приложениями. Экзамен подтверждает навыки, необходимые для развертывания, управления и обеспечения безопасности vSphere with Tanzu, что позволяет предоставлять Kubernetes-as-a-Service на платформе VCF. Кандидаты на получение этой сертификации должны иметь практический опыт работы с Kubernetes, контейнерными сетями и хранилищами.

VMware Certified Advanced Professional - VMware Cloud Foundation 9.0 vSphere Kubernetes Service (3V0-24.25)

2. VMware Certified Advanced Professional - VMware Cloud Foundation 9.0 Automation (3V0-21.25)

Эта сертификация сосредоточена на возможностях автоматизации и оркестрации VMware Cloud Foundation. Экзамен оценивает способность кандидата проектировать, внедрять и управлять рабочими процессами автоматизации с помощью VMware Aria Automation (ранее vRealize Automation). Эта сертификация идеально подходит для специалистов, которые отвечают за автоматизацию предоставления инфраструктуры и сервисов приложений.

VMware Certified Advanced Professional - VMware Cloud Foundation 9.0 Automation (3V0-21.25)

3. VMware Certified Advanced Professional - VMware Cloud Foundation 9.0 Operations (3V0-22.25)

Эта сертификация ориентирована на специалистов, отвечающих за ежедневные операции и управление средой VMware Cloud Foundation. Экзамен охватывает такие темы, как мониторинг производительности, управление ёмкостью, устранение неполадок и управление жизненным циклом. Эта сертификация хорошо подходит для системных администраторов, операторов облака и инженеров по надёжности.

VMware Certified Advanced Professional - VMware Cloud Foundation 9.0 Operations (3V0-22.25)

Подробности и формат экзамена

Все три новых экзамена VCAP для VMware Cloud Foundation 9.0 имеют схожий формат и структуру. Экзамены проводятся под наблюдением и доступны через Pearson VUE. Они состоят из 60 вопросов и имеют длительность 135 минут. Типы вопросов разнообразны и могут включать множественный выбор, drag-and-drop и практические лабораторные симуляции, обеспечивая комплексную оценку знаний и навыков кандидата.

Заключение

Возвращение экзаменов VCAP для VMware Cloud Foundation 9.0 предоставляет ценную возможность для специалистов VMware подтвердить свои продвинутые навыки и экспертизу. Эти сертификации являются свидетельством способности работать с новейшими технологиями VMware и являются признанным эталоном качества в отрасли. Получив сертификацию VCAP, специалисты могут улучшить свои карьерные перспективы и продемонстрировать свою приверженность к тому, чтобы оставаться на переднем крае постоянно развивающегося мира облачных вычислений.

17/11/2025
VMware

Расширение открытой экосистемы для VMware Cloud Foundation (VCF)

Компания Broadcom объявила о продвижении «открытой, расширяемой экосистемы» для VMware Cloud Foundation (VCF), с тем чтобы пользователи могли строить, подключать, защищать и расширять свои приватные облака. Цель — дать заказчикам большую свободу выбора оборудования, сетевых архитектур и софтверных компонентов при развертывании приватного облака или облачной инфраструктуры на базе VCF.

Ключевые направления:

  • Расширение аппаратной сертификации (OEM/ODM)
  • Внедрение открытых сетевых конструкций (EVPN, BGP, SONiC)
  • Вклад в open-source проекты (например, Kubernetes и связанные)
  • Усиленные партнёрства с такими игроками как Cisco Systems, Intel Corporation, OVHcloud, Supermicro Inc., SNUC.

Архитектура и аппаратная сертификация

VCF AI ReadyNodes и ODM self-certification

Одной из ключевых инициатив является расширение программы сертификации аппаратных узлов для VCF:

  • Появляются новые «VCF AI ReadyNodes» — предсертифицированные серверные конфигурации с CPU, GPU и другими ускорителями, пригодные для AI-обучения и вывода (inference).
  • В программе сертификации ReadyNode для ODM-партнёров теперь предусмотрена самосертификация (ODM Partner Self-Certification) через технологическую альянс-программу Broadcom Technology Alliance Program (TAP). Вся сертифицированная система обеспечена полной совместимостью с VCF и единым жизненным циклом управления VCF.
  • Поддержка edge-узлов: расширена поддержка компактных, «прочностных» (rugged) серверов для индустриальных, оборонных, розничных и удалённых площадок, что позволяет разворачивать современное приватное облако ближе к точкам генерации данных.

Технические следствия:

  • Возможность применять новейшие аппаратные ускорители (GPU, FPGA и др.) под VCF, с гарантией совместимости.
  • Упрощение цепочки выбора оборудования: благодаря self-certification ODM могут быстрее вывезти сертифицированные узлы, заказчик — выбрать из более широкого набора.
  • Edge-варианты означают, что приватные облака не ограничены классическими ЦОД-конфигурациями, а могут быть размещены ближе к источнику данных (IoT, фабрики, розница), что важно для задержки, пропускной способности, регулирования данных.
  • В совокупности это снижает TCO (Total Cost of Ownership) и ускоряет модернизацию инфраструктуры. Broadcom отмечает, что Intel, OVHcloud и др. подтверждают, что это даёт меньшее время time-to-market.

Почему это важно

Для организаций, которые строят приватные облака, часто возникает проблема «запертой» инфраструктуры: если узел не сертифицирован, риск несовместимости — обновления, жизненный цикл, поддержка. Открытая сертификация даёт больший выбор и снижает зависимость от одного производителя. При этом, с учётом AI-нагрузок и edge-инфраструктуры, требования к аппаратуре растут, и важна гарантия, что выбранный сервер будет работать под VCF без сюрпризов.

Сетевые инициативы: открытые сети и EVPN

Стратегия Broadcom в отношении сети

Broadcom объявляет стратегию объединения сетевых фабрик (network fabrics) и упрощения сетевых операций в приватном облаке через стандарты EVPN и BGP. Основные моменты:

  • Поддержка сетевой интероперабельности между средами приложений и сетью: применение стандарта EVPN/BGP позволяет гибче и масштабируемее организовать сетевые фабрики.
  • Цель — ускорить развертывание, дать мультивендорную гибкость, сохранить существующие сетевые инвестиции.
  • Совместимость с продуктом NSX (в составе VCF) и сторонними сетевыми решениями на уровне VPC-защиты, единой сетевой операционной модели, маршрутизации и видимости.
  • В рамках партнёрства с Cisco: VCF переходит к поддержке EVPN и совместимости с решением Cisco Nexus One fabric, что даёт клиентам архитектурную гибкость.
  • VCF Networking (NSX) поддерживает открытый NOS (network operating system) SONiC — операционную систему для сетевых коммутаторов, основанную на Linux, на многосоставном и мультивендорном оборудовании.

Технические особенности EVPN / BGP в контексте VCF

  • EVPN (Ethernet VPN) обеспечивает слой 2/3 виртуализации по IP/MPLS сетям, поддерживает VXLAN, MPLS-Over-EVPN и даёт нативную мультидоменную сегментацию.
  • BGP служит как протокол контрольной плоскости для EVPN, позволяет сетям в разных локациях или доменах обмениваться маршрутами VXLAN/EVPN.
  • В контексте VCF нужно, чтобы сеть поддерживала мультивендорность, работу с NSX, автоматизацию и процессы жизненного цикла. С открытым стандартом EVPN/BGP графику управления можно встроить в операции DevOps, IaC (Infrastructure as Code).
  • Поддержка SONiC позволяет использовать коммутаторы «commodity» с открытым NOS, снижая затраты как CAPEX, так и OPEX: модульная архитектура, контейнеризация, возможность обновлений без простоя.

Значение для заказчика

  • Возможность построить приватное облако, где сеть не является узким местом или «чёрным ящиком» вендора, а открытa и гибка по архитектуре.
  • Снижение риска vendor-lock-in: можно выбирать разное сетевое оборудование, переключаться между вендорами и сохранять совместимость.
  • Повышенная скорость развертывания: сертифицированные интеграции, открытые стандарты, меньше ручной настройки.
  • Поддержка edge-сценариев и распределённых облаков: сетевые фабрики могут распространяться по ЦОД, филиалам, edge-узлам с единым контролем и видимостью.

Вклад в открытое программное обеспечение (Open Source)

Broadcom подчёркивает свою активность как участника сообщества облачных нативных технологий. Основные пункты:

  • Компания является одним из пяти крупнейших долгосрочных контрибьюторов в Cloud Native Computing Foundation (CNCF) и вносит изменения/улучшения в проекты: Antrea, Cluster API, containerd, Contour, etcd, Harbor и другие.
  • Важная веха: решение vSphere Kubernetes Service (VKS) от VMware теперь является Certified Kubernetes AI Conformant Platform — это означает, что платформа соответствует требованиям для AI-нагрузок и встроена в стандарты Kubernetes.

Техническое значение

  • Совместимость с Kubernetes-экосистемой означает, что приватные облака на VCF могут использовать облачно-нативные модели: контейнеры, микро-сервисы, CI/CD, GitOps.
  • AI Conformant сертификация даёт уверенность, что платформа поддерживает стандартизированную среду для AI-нагрузок (модели, фреймворки, инфраструктура).
  • Работа с такими компонентами как containerd, etcd, Harbor облегчает создание, хранение, оркестрацию контейнеров и сбор образов, что важно для DevOps/DevSecOps практик.
  • Интеграция с открытым стеком упрощает автоматизацию, ускоряет выход новых функций, увеличивает портируемость и мобильность рабочих нагрузок.

Пользовательские выгоды

  • Организации получают возможность не просто виртуализировать нагрузки, но и расширяться в направлении «контейнеров + AI + edge».
  • Более лёгкий перенос рабочих нагрузок между средами, снижение необходимости в проприетарных решениях.
  • Возможность быстро реагировать на изменение требований бизнеса: добавление AI-сервиса, изменение инфраструктуры, использование микросервисов.

Практические сценарии применения

Приватное облако с AI-нагрузками

С сертифицированными AI ReadyNodes и поддержкой Kubernetes + AI Conformant платформой, заказчики могут:

  • Развернуть приватное облако для обучения моделей машинного обучения/AI (CPU + GPU + ускорители) на базе VCF.
  • Вывести inference-нагрузки ближе к источнику данных — например, на edge-узле в фабрике или розничном магазине.
  • Использовать унифицированный стек: виртуальные машины + контейнеры + Kubernetes на одной платформе.
  • Выполнить модернизацию инфраструктуры с меньшими затратами, за счёт сертификации и ПО с открытыми стандартами.

Развёртывание edge-инфраструктуры

С расширением поддержки edge-оптимизированных узлов:

  • Приватное облако может распространяться за пределы ЦОД — например, на фабрики, сеть розничных точек, удалённые площадки.
  • Сеть EVPN/BGP + SONiC позволяет обеспечить единое управление и видимость сетевой фабрики, даже если часть инфраструктуры находится далеко от центра.
  • Заказчики в индустрии, госсекторе, рознице могут использовать эту архитектуру для низкой задержки, автономной работы, гибкой интеграции в основной ЦОД или облако.

Гетерогенная инфраструктура и мультивендорные сети

  • Благодаря открытым стандартам и сертификации, заказчики не ограничены выбором одного поставщика оборудования или сети.
  • Можно комбинировать разные серверные узлы (от разных OEM/ODM), разные коммутаторы и сетевой софт, и быть уверенным в интеграции с VCF.
  • Это помогает снизить зависимость от единственного вендора, сделать инфраструктуру более гибкой и адаптивной к будущим изменениям.

Последствия и рекомендации

Последствия для рынка и архитектуры приватных облаков

  • Увеличится конкуренция среди аппаратных и сетевых поставщиков, так как сертификация и сами архитектуры становятся более открытыми.
  • Уменьшается риск «запирания» заказчиков в единой экосистеме производителя. Это способствует более быстрому внедрению инноваций: ускорители, AI-узлы, edge.
  • Открытые сети и стандарты означают повышение скорости развертывания, уменьшение сложности и затрат.
  • Часто частные облака превращаются в гибридные либо распределённые модели, где части инфраструктуры находятся в ЦОД, на edge, в филиалах — и такие архитектуры становятся проще благодаря инициативам Broadcom/VCF.

Что стоит учесть пользователям

  • При выборе инфраструктуры приватного облака важно проверять сертифицированные конфигурации VCF ReadyNodes, чтобы быть уверенным в поддержке жизненного цикла, обновлений и совместимости.
  • Если планируется AI-нагрузка — уделите внимание использованию AI ReadyNodes, поддержке GPU/ускорителей, сертификации.
  • Если сеть критична (например, распределённые локации, филиалы, edge) — рассмотрите архитектуры EVPN/BGP, совместимые с NSX и мультивендорными решениями, а также возможности SONiC.
  • Не забывайте об автоматизации и интеграции с облачно-нативными технологиями (Kubernetes, контейнеры, CI/CD): наличие поддержки этих технологий позволяет быстрее развивать платформу.
  • Оцените TCO не только с точки зрения CAPEX (серверы, оборудование) но и OPEX (обслуживание, обновления, гибкость). Использование открытых стандартов и сертифицированных решений может снизить оба.

Заключение

Объявление Broadcom о «открытой экосистеме» для VMware Cloud Foundation — это важный шаг к тому, чтобы приватные облака стали более гибкими, адаптивными и ориентированными на будущее. Сертификация аппаратуры (в том числе для AI и edge), открытые сетевые стандарты и активный вклад в open-source проекты – всё это создаёт технологическую платформу, на которой организации могут строить современные инфраструктуры.

При этом важно помнить: открытость сама по себе не решает все проблемы — требуется грамотная архитектура, планирование жизненного цикла, взаимодействие с партнёрами и понимание, как компоненты сочетаются. Тем не менее, такие инициативы создают условия для более лёгкой и менее рисковой модернизации облачной инфраструктуры.

14/11/2025
VMware

Объявлено о следующем этапе развития VMware Certified Distinguished Expert (VCDX): сертификация для экспертов в области частных облаков.

В течение почти двух десятилетий сертификация VMware Certified Design Expert (VCDX) оставалась высшей мерой мастерства для архитекторов, работающих с решениями VMware — глобально признанным достижением экспертного уровня. Но по мере того как развитие частных облаков ускоряется и потребности нашего сообщества эволюционируют, мы не просто адаптируемся — мы совершаем революцию.

VMware рада объявить о развитии этой знаковой программы, расширяя её рамки за пределы традиционной роли дизайнеров виртуальной среды, чтобы приветствовать более широкий круг высококвалифицированных специалистов VMware: архитекторов, администраторов и специалистов поддержки. Чтобы отразить это расширенное видение, VMware переименовала программу в VMware Certified Distinguished Expert (VCDX).

Это не просто обновление — это стратегическое переосмысление программы VCDX, созданное специально для специалистов, стремящихся активно формировать будущее частных облаков. Это также приглашение развивать свои глубокие знания VMware, выходить за привычные рамки и прокладывать путь для нового поколения частных облачных сред, помогая формировать их будущее.

Критически важная потребность в современной облачной экспертизе

Необходимость в специализированных знаниях по современным облачным технологиям сегодня как никогда высока. Согласно отчёту Flexera 2024 State of the Cloud, 76% предприятий планируют расширять облачные сервисы через частные облака, и спрос на глубокую облачную экспертизу стремительно растёт. Тем не менее сохраняется серьёзная проблема — повсеместный дефицит облачных навыков. Аж 95% ИТ-руководителей заявили, что нехватка облачных компетенций негативно сказывается на их командах, приводя к снижению темпов инноваций и росту операционных затрат. Ещё более тревожный факт: почти треть организаций ставят под угрозу свою прибыль, не достигнув финансовых целей из-за этого критического дефицита облачных навыков.

В условиях столь стремительно меняющегося ландшафта постоянное обучение и высокоуровневая сертификация перестали быть опцией — они стали необходимостью для развития ключевых навыков, требуемых современными облачными средами. Программа VMware Certified Distinguished Expert предоставляет уникальную возможность не только преодолеть этот дефицит, но и стать тем ценнейшим специалистом, которого компании отчаянно ищут в области современных облачных технологий.

Преимущество VCDX: открывая путь к эксклюзивным возможностям

Сертификация VMware Certified Distinguished Expert — это высший уровень навыков и лидерства, необходимый для проектирования, разработки концепции и валидации самых надёжных, масштабируемых и безопасных сред VMware Cloud Foundation. Достижение этого престижного статуса предоставляет уникальную возможность использовать свои глубокие знания, активно влиять на развитие облачных сред и вести индустрию к следующему поколению облачной архитектуры.

Помимо формального признания, статус VCDX погружает вас в самую передовую часть развития решений для частных облаков, соединяя с глобальной сетью элитных технических специалистов. Представьте себе: ранний доступ к будущим бета-версиям продуктов, эксклюзивный первый взгляд на предстоящие обновления платформы VCF, позволяющие всегда оставаться впереди.

Вы также получите расширенные возможности напрямую влиять на стратегию, участвуя в ключевых форумах, таких как Product Technical Advisory Boards (PTAB) и Customer Technical Advisory Boards (CTAB). Кроме того, вы сможете усилить свою роль лидера мнений, участвуя в публичных мероприятиях, таких как собрания VMUG и конференции VMware Explore.

Быть частью глобальной сети — значит взаимодействовать с коллегами по всему миру и непосредственно влиять на направление развития продуктов VMware. Ваши востребованные, расширенные технические навыки обеспечат вам лидерские позиции в инновациях частных облаков, значительно расширив как карьерный, так и финансовый потенциал.

Ускорьте карьеру в области частных облаков

Получение сертификации VCDX выделяет вас как специалиста высшего уровня в сфере частных облаков, обладающего конкурентоспособным вознаграждением — согласно данным Glassdoor, средняя зарплата старших облачных специалистов составляет $200 000. Эта элитная квалификация прочно закрепляет вас на передовой частных облачных технологий, готовя к руководству самыми сложными инициативами VMware Cloud Foundation.

Вы не только продемонстрируете экспертное владение ключевыми ролями — Администратора, Архитектора и Специалиста поддержки, — но и утвердитесь как технический лидер-визионер. Представьте, какой вклад вы сможете внести в свою компанию, какие инновации продвинуть и какого ускорения в карьере добиться, достигнув высшего уровня экспертизы в частных облаках. Это не только укрепит ваше профессиональное развитие, но и обеспечит вам статус лидера в динамично развивающемся ландшафте частных облаков.

Ваш путь к достижению облачной экспертизы

Путь к получению статуса VCDX тщательно продуман, чтобы поднять ваш уровень лидерства и экспертизы. Для действующих и будущих специалистов по VCF путь VCDX начинается с формирования комплексной базы знаний о платформе VCF через базовую сертификацию VCP (VMware Certified Professional). Затем он углубляет экспертизу в ключевых технологиях VCF, таких как Kubernetes, с помощью продвинутых сертификаций VCAP (VMware Certified Advanced Professional). Этот строгий путь завершается защитой среди подтвержденных экспертов в рамках офлайн-сессии, подтверждающей глубокие архитектурные знания, продвинутые навыки решения проблем и непревзойдённую экспертизу, соответствующую вашей специализированной роли. Это ваш чёткий путь к элитному лидерству в области частных облаков.

Как профессионал VCDX, вы играете ключевую роль в продвижении следующего поколения облачной архитектуры. Готовы ли вы начать это невероятно перспективное путешествие? Начните путь к VMware Certified Distinguished Expert уже сегодня и определите своё место в будущем частных облаков заново.

Пожалуйста, скачайте руководствo по обучению VCF 9 для различных ролей, чтобы получить доступ к новейшим курсам с инструктором, обучению по запросу, а также ключевым ресурсам для подготовки к экзаменам. Если вы являетесь клиентом VCF Full Platform или партнером, отвечающим требованиям, посетите раздел Learning@Broadcom на Broadcom Support Portal для доступа к обучающим материалам.

12/11/2025
VMware

Наблюдаемость нового уровня: улучшения в VMware Tanzu Platform 10.3

Наблюдаемость (Observability) — это призма, через которую команды платформ получают понимание происходящего во всём ландшафте приложений. Она охватывает всё: от производительности, оповещений и устранения неполадок до развертывания и операций второго дня, таких как планирование ресурсов.

В VMware Tanzu Platform 10.3 компания Broadcom представила набор обновлений наблюдаемости в Tanzu Hub, которые углубляют видимость, ускоряют адаптацию команд и помогают сократить время решения проблем. Независимо от того, отвечаете ли вы за надежность, инженерные аспекты платформы или опыт разработчиков, новые функции позволяют автоматически получать и видеть релевантные данные, чтобы действовать быстрее и с большим доверием к своей платформе. Эти усовершенствования обеспечивают централизованный, целостный опыт наблюдаемости в Tanzu Hub.

Ключевые новые улучшения наблюдаемости в Tanzu Hub

В этом выпуске представлены усовершенствованные топологии и наложения оповещений, значительно повышающие видимость взаимосвязей инфраструктуры и зависимостей между сущностями. Теперь оверлей оповещений предоставляет более богатый контекст, включая возможность прямой связи с инфраструктурными системами или событиями в слое VCF, что упрощает процесс устранения неполадок. Контекстные оповещения автоматически сопоставляются с соответствующей сущностью, а в Tanzu Platform 10.3 эта функциональность распространяется также на сервисы и приложения. Эти оповещения будут отображаться в различных представлениях, включая Home, Alerts, Foundations, Applications, Service Instance и Topology.

Этот выпуск также предлагает новый уровень наблюдаемости и включает значительные улучшения тщательно настроенных панелей мониторинга и оповещений, основанных на ключевых показателях (KPI), а также runbook-ов для сервисов Tanzu Data Tile. Это позволяет различным командам сосредоточиться на формализации операционной экспертизы, делая её более доступной и практичной как для инженеров платформ, так и для команд разработчиков любого уровня опыта.

Ключевым аспектом этих улучшений является бесшовная интеграция runbook-ов с потоками наблюдаемости. Это означает, что оповещения и процессы их устранения больше не существуют изолированно; теперь runbook-и являются частью более широкой системы и содержат встроенные действия по следующему шагу прямо внутри оповещений, направляя инженеров через процесс диагностики и решения проблемы шаг за шагом. Runbook-и можно полностью настраивать, отображая контекстные данные, такие как соответствующие журналы ошибок во время и до возникновения оповещения, что делает рабочий процесс более плавным и сокращает время решения проблем. Такой интегрированный подход дает командам, особенно недавно присоединившимся инженерам, возможность действовать быстрее и эффективнее, снижая среднее время устранения проблем и повышая общую операционную эффективность.

Объединение метрик уровня приложений и уровня инфраструктуры в интерфейсе обеспечивает по-настоящему целостное понимание производительности системы. Этот интегрированный подход позволяет легко сопоставлять поведение приложения с состоянием базовой инфраструктуры, предоставляя детализированный обзор связанных сервисов или инфраструктурных изменений, которые могут повлиять на стабильность критически важных приложений. Объединив ранее разрозненные представления и благодаря удобной навигации Tanzu Hub, организации могут гораздо быстрее выявлять первопричины проблем, выходя за рамки поверхностных симптомов и устраняя коренные причины более эффективно.

Эти усовершенствованные представления приносят значительные бизнес-преимущества и могут быть настроены под нужды разных команд, включая инженеров платформы и команды разработчиков. Возможность создавать и управлять пользовательскими панелями мониторинга, а также гибко контролировать данные с помощью фильтров на уровне панели, позволяет командам точно адаптировать свой опыт наблюдения под свои задачи. Кроме того, настройка макетов, диаграмм и виджетов гарантирует, что критически важные данные всегда представлены в наиболее удобной и действенной форме. Это объединение направлено на покрытие большинства сценариев использования Healthwatch, обеспечивая действия на основе разрешений и расширенные возможности анализа метрик. Бесшовная миграция всех панелей Healthwatch, помеченных тегом “healthwatch”, обеспечивает преемственность и простоту поиска. В конечном итоге эти возможности приводят к снижению простоев, повышению операционной эффективности и более проактивному подходу к поддержанию оптимальной производительности приложений, напрямую влияя на удовлетворенность клиентов и непрерывность бизнеса.

Почему эти улучшения важны

Эти усовершенствования приносят значительные бизнес-преимущества, делая работу вашей платформы более эффективной, надежной и устойчивой к будущим изменениям. Наблюдаемость становится более прикладной и контекстной, обеспечивая полноценный анализ на всех уровнях стека. Вы получаете комплексное понимание не только поведения приложений, но и их прямой связи с платформой и базовой инфраструктурой. Это обеспечивает видимость на нескольких уровнях, планирование емкости и контроль соответствия требованиям. Runbook-и и встроенные рекомендации существенно снижают зависимость от индивидуального опыта и «внутренних знаний» команды, повышая эффективность операций на уровне всей организации. И наконец, по мере роста сложности сред, эти улучшения наблюдаемости масштабируются вместе с вами, обеспечивая стабильную производительность и прозрачность.

10/11/2025
VMware

Enterprise-пользователи теперь могут развернуть решение NVIDIA Run:ai на платформе VMware Cloud Foundation

NVIDIA Run:ai ускоряет операции AI с помощью динамической оркестрации ресурсов, максимизируя использование GPU, обеспечивая комплексную поддержку жизненного цикла AI и стратегическое управление ресурсами. Объединяя ресурсы между средами и применяя продвинутую оркестрацию, NVIDIA Run:ai значительно повышает эффективность GPU и пропускную способность рабочих нагрузок.

Недавно VMware объявила, что предприятия теперь могут развертывать NVIDIA Run:ai с встроенной службой VMware vSphere Kubernetes Services (VKS) — стандартной функцией в VMware Cloud Foundation (VCF). Это поможет предприятиям достичь оптимального использования GPU с NVIDIA Run:ai, упростить развертывание Kubernetes и поддерживать как контейнеризованные нагрузки, так и виртуальные машины на VCF. Таким образом, можно запускать AI- и традиционные рабочие нагрузки на единой платформе.

Давайте посмотрим, как клиенты Broadcom теперь могут развертывать NVIDIA Run:ai на VCF, используя VMware Private AI Foundation with NVIDIA, чтобы развертывать кластеры Kubernetes для AI, максимизировать использование GPU, упростить операции и разблокировать GenAI на своих приватных данных.

NVIDIA Run:ai на VCF

Хотя многие организации по умолчанию запускают Kubernetes на выделенных серверах, такой DIY-подход часто приводит к созданию изолированных инфраструктурных островков. Это заставляет ИТ-команды вручную создавать и управлять службами, которые VCF предоставляет из коробки, лишая их глубокой интеграции, автоматизированного управления жизненным циклом и устойчивых абстракций для вычислений, хранения и сетей, необходимых для промышленного AI. Именно здесь платформа VMware Cloud Foundation обеспечивает решающее преимущество.

vSphere Kubernetes Service — лучший способ развертывания Run:ai на VCF

Наиболее эффективный и интегрированный способ развертывания NVIDIA Run:ai на VCF — использование VKS, предоставляющего готовые к корпоративному использованию кластеры Kubernetes, сертифицированные Cloud Native Computing Foundation (CNCF), полностью управляемые и автоматизированные. Затем NVIDIA Run:ai развертывается на этих кластерах VKS, создавая единую, безопасную и устойчивую платформу от аппаратного уровня до уровня приложений AI.

Ценность заключается не только в запуске Kubernetes, но и в запуске его на платформе, решающей базовые корпоративные задачи:

  • Снижение совокупной стоимости владения (TCO) с помощью VCF: уменьшение инфраструктурных изолятов, использование существующих инструментов и навыков без переобучения, единое управление жизненным циклом всех инфраструктурных компонентов.
  • Единые операции: основаны на привычных инструментах, навыках и рабочих процессах с автоматическим развертыванием кластеров и GPU-операторов, обновлениями и управлением в большом масштабе.
  • Запуск и управление Kubernetes для большой инфраструктуры: встроенный, сертифицированный CNCF Kubernetes runtime с полностью автоматизированным управлением жизненным циклом.
  • Поддержка в течение 24 месяцев для каждой минорной версии vSphere Kubernetes (VKr) - это снижает нагрузку при обновлениях, стабилизирует окружения и освобождает команды для фокусировки на ценности, а не на постоянных апгрейдах.
  • Лучшая конфиденциальность, безопасность и соответствие требованиям: безопасный запуск чувствительных и регулируемых AI/ML-нагрузок со встроенными средствами управления, приватности и гибкой безопасностью на уровне кластеров.

Сетевые возможности контейнеров с VCF

Сети Kubernetes на «железе» часто плоские, сложные для настройки и требующие ручного управления. В крупных централизованных кластерах обеспечение надежного соединения между приложениями с разными требованиями — сложная задача. VCF решает это с помощью Antrea, корпоративного интерфейса контейнерной сети (CNI), основанного на CNCF-проекте Antrea. Он используется по умолчанию при активации VKS и обеспечивает внутреннюю сетевую связность, реализацию политик сети Kubernetes, централизованное управление политиками и операции трассировки (traceflow) с уровня управления NSX. При необходимости можно выбрать Calico как альтернативу.

Расширенная безопасность с vDefend

Разные приложения в общем кластере требуют различных политик безопасности и контроля доступа, которые сложно реализовать последовательно и масштабируемо. Дополнение VMware vDefend для VCF расширяет возможности безопасности, позволяя применять сетевые политики Antrea и микросегментацию уровня «восток–запад» вплоть до контейнера. Это позволяет ИТ-отделам программно изолировать рабочие нагрузки AI, конвейеры данных и пространства имен арендаторов с помощью политик нулевого доверия. Эти функции необходимы для соответствия требованиям и предотвращения горизонтального перемещения в случае взлома — уровень детализации, крайне сложный для реализации на физических коммутаторах.

Высокая отказоустойчивость и автоматизация с VMware vSphere

Это не просто удобство, а основа устойчивости инфраструктуры. Сбой физического сервера, выполняющего многодневное обучение, может привести к значительным потерям времени. VCF, основанный на vSphere HA, автоматически перезапускает такие рабочие нагрузки на другом узле.

Благодаря vMotion возможно обслуживание оборудования без остановки AI-нагрузок, а Dynamic Resource Scheduler (DRS) динамически балансирует ресурсы, предотвращая перегрузки. Подобная автоматическая устойчивость отсутствует в статичных, выделенных средах.

Гибкое управление хранилищем с политиками через vSAN

AI-нагрузки требуют разнообразных типов хранения — от высокопроизводительного временного пространства для обучения до надежного объектного хранения для наборов данных. vSAN позволяет задавать эти требования (например, производительность, отказоустойчивость) индивидуально для каждой рабочей нагрузки. Это предотвращает появление новых изолированных инфраструктур и необходимость управлять несколькими хранилищами, как это часто бывает в средах на «голом железе».

Преимущества NVIDIA Run:ai

  • Максимизация использования GPU: динамическое выделение, дробление GPU и приоритизация задач между командами обеспечивают максимально эффективное использование мощной инфраструктуры.
  • Масштабируемые сервисы AI: поддержка развертывания больших языковых моделей (инференс) и других сложных AI-задач (распределённое обучение, тонкая настройка) с эффективным масштабированием ресурсов под изменяющуюся нагрузку.

Обзор архитектуры

Давайте посмотрим на высокоуровневую архитектуру решения:

  • VCF: базовая инфраструктура с vSphere, сетями VCF (включая VMware NSX и VMware Antrea), VMware vSAN и системой управления VCF Operations.
  • Кластер Kubernetes с поддержкой AI: управляемый VCF кластер VKS, обеспечивающий среду выполнения AI-нагрузок с доступом к GPU.
  • Панель управления NVIDIA Run:ai: доступна как услуга (SaaS) или для локального развертывания внутри кластера Kubernetes для управления рабочими нагрузками AI, планирования заданий и мониторинга.
  • Кластер NVIDIA Run:ai: развернут внутри Kubernetes для оркестрации GPU и выполнения рабочих нагрузок.
  • Рабочие нагрузки data science: контейнеризированные приложения и модели, использующие GPU-ресурсы.

Эта архитектура представляет собой полностью интегрированный программно-определяемый стек. Вместо того чтобы тратить месяцы на интеграцию разрозненных серверов, коммутаторов и систем хранения, VCF предлагает единый, эластичный и автоматизированный облачный операционный подход, готовый к использованию.

Диаграмма архитектуры

Существует два варианта установки панели управления NVIDIA Run:ai:

  • SaaS: панель управления размещена в облаке (см. https://run-ai-docs.nvidia.com/saas). Локальный кластер Run:ai устанавливает исходящее соединение с облачной панелью для выполнения рабочих нагрузок AI. Этот вариант требует исходящего сетевого соединения между кластером и облачным контроллером Run:ai.
  • Самостоятельное размещение: панель управления Run:ai устанавливается локально (см. https://run-ai-docs.nvidia.com/self-hosted) на кластере VKS, который может быть совместно используемым или выделенным только для Run:ai. Также доступен вариант с изолированной установкой (без подключения к сети).

Вот визуальное представление инфраструктурного стека:

Сценарии развертывания

Сценарий 1: Установка NVIDIA Run:ai на экземпляре VCF с включенной службой vSphere Kubernetes Service

Предварительные требования:

  • Среда VCF с узлами ESX, оснащёнными GPU
  • Кластер VKS для AI, развернутый через VCF Automation
  • GPU настроены как DirectPath I/O, vGPU с разделением по времени (time-sliced) или NVIDIA Multi-Instance GPU (MIG)

Если используется vGPU, NVIDIA GPU Operator автоматически устанавливается в рамках шаблона (blueprint) развертывания VCFA.

Основные шаги по настройке панели управления NVIDIA Run:ai:

  1. Подготовьте ваш кластер VKS, назначенный для роли панели управления NVIDIA Run:ai, выполнив все необходимые предварительные условия.
  2. Создайте секрет с токеном, полученным от NVIDIA Run:ai, для доступа к контейнерному реестру NVIDIA Run:ai.
  3. Если используется VMware Data Services Manager, настройте базу данных Postgres для панели управления Run:ai; если нет — Run:ai будет использовать встроенную базу Postgres.
  4. Добавьте репозиторий Helm и установите панель управления с помощью Helm.

Основные шаги по настройке кластера:

  1. Подготовьте кластер VKS, назначенный для роли кластера, с выполнением всех предварительных условий, и запустите диагностический инструмент NVIDIA Run:ai cluster preinstall.
  2. Установите дополнительные компоненты, такие как NVIDIA Network Operator, Knative и другие фреймворки в зависимости от ваших сценариев использования.
  3. Войдите в веб-консоль NVIDIA Run:ai, перейдите в раздел Resources и нажмите "+New Cluster".
  4. Следуйте инструкциям по установке и выполните команды, предоставленные для вашего кластера Kubernetes.

Преимущества:

  • Полный контроль над инфраструктурой
  • Бесшовная интеграция с экосистемой VCF
  • Повышенная надежность благодаря автоматизации vSphere HA, обеспечивающей защиту длительных AI-тренировок и серверов инференса от сбоев аппаратного уровня — критического риска для сред на «голом железе».

Сценарий 2: Интеграция vSphere Kubernetes Service с существующими развертываниями NVIDIA Run:ai

Почему именно vSphere Kubernetes Service:

  • Управляемый VMware Kubernetes упрощает операции с кластерами
  • Тесная интеграция со стеком VCF, включая VCF Networking и VCF Storage
  • Возможность выделить отдельный кластер VKS для конкретного приложения или этапа — разработка, тестирование, продакшн

Шаги:

  1. Подключите кластер(ы) VKS к существующей панели управления NVIDIA Run:ai, установив кластер Run:ai и необходимые компоненты.
  2. Настройте квоты GPU и политики рабочих нагрузок в пользовательском интерфейсе NVIDIA Run:ai.
  3. Используйте возможности Run:ai, такие как автомасштабирование и разделение GPU, с полной интеграцией со стеком VCF.

Преимущества:

  • Простота эксплуатации
  • Расширенная наблюдаемость и контроль
  • Упрощённое управление жизненным циклом

Операционные инсайты: преимущество "Day 2" с VCF

Наблюдаемость (Observability)

В средах на «железе» наблюдаемость часто достигается с помощью разрозненного набора инструментов (Prometheus, Grafana, node exporters и др.), которые оставляют «слепые зоны» в аппаратном и сетевом уровнях. VCF, интегрированный с VCF Operations (часть VCF Fleet Management), предоставляет единую панель мониторинга для наблюдения и корреляции производительности — от физического уровня до гипервизора vSphere и кластера Kubernetes.

Теперь в системе появились специализированные панели GPU для VCF Operations, предоставляющие критически важные данные о том, как GPU и vGPU используются приложениями. Этот глубокий AI-ориентированный анализ позволяет гораздо быстрее выявлять и устранять узкие места.

Резервное копирование и восстановление (Backup & Disaster Recovery)

Velero, интегрированный с vSphere Kubernetes Service через vSphere Supervisor, служит надежным инструментом резервного копирования и восстановления для кластеров VKS и pod’ов vSphere. Он использует Velero Plugin for vSphere для создания моментальных снапшотов томов и резервного копирования метаданных напрямую из хранилища Supervisor vSphere.

Это мощная стратегия резервирования, которая может быть интегрирована в планы аварийного восстановления всей AI-платформы (включая состояние панели управления Run:ai и данные), а не только бездисковых рабочих узлов.

Итог: Bare Metal против VCF для корпоративного AI

Аспект Kubernetes на «голом железе» (подход DIY) Платформа VMware Cloud Foundation (VCF)
Сеть (Networking) Плоская архитектура, высокая сложность, ручная настройка сетей. Программно-определяемая сеть с использованием VCF Networking.
Безопасность (Security) Трудно обеспечить защиту; политики безопасности применяются вручную. Точная микросегментация до уровня контейнера при использовании vDefend; программные политики нулевого доверия (Zero Trust).
Отказоустойчивость вычислений (Compute Resilience) Высокие риски: сбой сервера может вызвать значительные простои для критических задач, таких как обучение и инференс моделей. Автоматическая отказоустойчивость с помощью vSphere HA (перезапуск нагрузок), vMotion (обслуживание без простоя) и DRS (балансировка нагрузки).
Хранилище (Storage) Приводит к «изолированным островам» и множеству разнородных систем хранения. Единое, управляемое политиками хранилище через VCF Storage; предотвращает изоляцию и упрощает управление.
Резервное копирование и восстановление (Backup & DR) Часто реализуется в последнюю очередь; чрезвычайно сложный и трудоемкий процесс. Встроенные снимки CSI и автоматизированное резервное копирование на уровне Supervisor с помощью Velero.
Наблюдаемость (Observability) Набор разрозненных инструментов с «слепыми зонами» в аппаратной и сетевой частях. Единая панель наблюдения (VCF Operations) с коррелированным сквозным мониторингом — от оборудования до приложений.
Управление жизненным циклом (Lifecycle Management) Ручное, трудоёмкое управление жизненным циклом всех компонентов. Автоматизированное, полноуровневое управление жизненным циклом через VCF Operations.
Общая модель (Overall Model) Заставляет ИТ-команды вручную собирать и интегрировать множество разнородных инструментов. Единая, эластичная и автоматизированная облачная операционная модель с встроенными корпоративными сервисами.

NVIDIA Run:ai на VCF ускоряет корпоративный ИИ

Развертывание NVIDIA Run:ai на платформе VCF позволяет предприятиям создавать масштабируемые, безопасные и эффективные AI-платформы. Независимо от того, начинается ли внедрение с нуля или совершенствуются уже существующие развертывания с использованием VKS, клиенты получают гибкость, высокую производительность и корпоративные функции, на которые они могут полагаться.

VCF позволяет компаниям сосредоточиться на ускорении разработки AI и повышении отдачи от инвестиций (ROI), а не на рискованной и трудоемкой задаче построения и управления инфраструктурой. Она предоставляет автоматизированную, устойчивую и безопасную основу, необходимую для промышленных AI-нагрузок, позволяя NVIDIA Run:ai выполнять свою главную задачу — максимизировать использование GPU.

31/10/2025
VMware

Решение vSphere Kubernetes Service 3.5 теперь доступно с 24-месячной поддержкой

Службы VMware vSphere Kubernetes Service (VKS) версии 3.5 появились в общем доступе. Этот новый выпуск обеспечивает 24-месячную поддержку для каждой минорной версии Kubernetes, начиная с vSphere Kubernetes release (VKr) 1.34. Ранее, в июне 2025 года, VMware объявила о 24-месячной поддержке выпуска vSphere Kubernetes (VKr) 1.33. Это изменение обеспечивает командам, управляющим платформой, большую стабильность и гибкость при планировании обновлений.

VKS 3.5 также включает ряд улучшений, направленных на повышение операционной согласованности и улучшение управления жизненным циклом, включая детализированные средства конфигурации основных компонентов Kubernetes, декларативную модель управления надстройками и встроенную генерацию пакетов поддержки напрямую из интерфейса командной строки VCF CLI. Кроме того, новые защитные механизмы при обновлениях — такие как проверка PodDisruptionBudget и проверки совместимости — помогают обеспечить более безопасные и предсказуемые обновления кластеров.

В совокупности эти усовершенствования повышают надежность, операционную эффективность и качество управления Kubernetes-средами на этапе эксплуатации (Day-2) в масштабах предприятия.

Выпуск vSphere Kubernetes (VKr) 1.34

VKS 3.5 добавляет поддержку VKr 1.34. Каждая минорная версия vSphere Kubernetes теперь поддерживается в течение 24 месяцев с момента выпуска. Это снижает давление, связанное с обновлениями, стабилизирует рабочие среды и позволяет командам сосредоточиться на создании ценности, а не на постоянном планировании апгрейдов. Команды, которым нужен быстрый доступ к последним возможностям Kubernetes, могут оперативно переходить на новые версии. Те, кто предпочитает стабильную среду на длительный срок, теперь могут работать в этом режиме с уверенностью. VKS 3.5 поддерживает оба подхода к эксплуатации.

Динамическое распределение ресурсов (Dynamic Resource Allocation, DRA)

Функция DRA получила статус «стабильной» в основной ветке Kubernetes 1.34. Эта возможность позволяет администраторам централизованно классифицировать аппаратные ресурсы, такие как GPU, с помощью объекта DeviceClass. Это обеспечивает надежное и предсказуемое размещение Pod'ов на узлах с требуемым классом оборудования.

DRA повышает эффективность использования устройств, позволяя делить ресурсы между приложениями по декларативному принципу, аналогично динамическому выделению томов (Dynamic Volume Provisioning). Механизм DRA решает проблемы случайного распределения и неполного использования ресурсов. Пользователи могут выполнять точную фильтрацию, запрашивая конкретные устройства с помощью ResourceClaimsTemplates и ResourceClaims при развертывании рабочих нагрузок.

DRA также позволяет совместно использовать GPU между несколькими Pod'ами или контейнерами. Рабочие нагрузки можно настроить так, чтобы выбирать GPU-устройство с помощью Common Expression Language (CEL) и запросов ResourceSlice, что обеспечивает более эффективное использование по сравнению с count-based запросами.

Расширенные возможности конфигурации компонентов кластера Kubernetes

VKS 3.5 предоставляет гибкость для управления более чем 35 параметрами конфигурации компонентов Kubernetes, таких как kubelet, apiserver и etcd. Эти настройки позволяют командам платформ оптимизировать различные аспекты работы кластеров в соответствии с требованиями их рабочих нагрузок. Полный список доступных параметров конфигурации приведён в документации к продукту. Ниже приведён краткий обзор областей конфигурации, которые предлагает VKS 3.5:

Конфигурация Настраиваемые компоненты Описание
Журналирование и наблюдаемость (Logging & Observability) Kubelet, API Server Настройка поведения журналирования для API-сервера и kubelet, включая частоту сброса логов, формат (text/json) и уровни детализации. Управление хранением логов контейнеров с указанием максимального количества и размера файлов. Это позволяет эффективно управлять использованием диска, устранять неполадки с нужным уровнем детализации логов и интегрироваться с системами агрегирования логов с помощью структурированного JSON-журналирования.
Управление событиями (Event Management) Kubelet Управление генерацией событий Kubernetes с настройкой лимитов скорости создания событий (eventRecordQPS) и всплесков (eventBurst), чтобы предотвратить перегрузку API-сервера. Это позволяет контролировать частоту запросов kubelet к API-серверу, обеспечивая стабильность кластера в периоды высокой активности при сохранении видимости важных событий.
Производительность и масштабируемость (Performance & Scalability) API Server Управление производительностью API-сервера с помощью настройки пределов на максимальное количество одновременных изменяющих (mutating) и неизменяющих (non-mutating) запросов, а также минимальной продолжительности тайм-аута запроса. Возможность включения или отключения профилирования. Это позволяет адаптировать кластер под высоконагруженные рабочие процессы, предотвращать перегрузку API-сервера и оптимизировать отзывчивость под конкретные сценарии использования.
Конфигурации etcd etcd Настройка максимального размера базы данных etcd (в диапазоне 2–8 ГБ). Том создаётся с дополнительными 25 % ёмкости для учёта операций уплотнения, дефрагментации и временных всплесков использования. Это позволяет правильно подобрать объём хранилища etcd в зависимости от масштаба кластера и количества объектов, предотвращая ситуации нехватки места, которые могут перевести кластер в режим только для чтения.
Управление образами (Image Management) Kubelet Настройка жизненного цикла образов контейнеров, включая пороги очистки (в процентах использования диска — высокий/низкий), минимальный и максимальный возраст образов до удаления, лимиты скорости загрузки образов (registryPullQPS и registryBurst), максимальное количество параллельных загрузок и политики проверки учётных данных при загрузке. Это помогает оптимизировать использование дискового пространства узлов, контролировать потребление сетевых ресурсов, ускорять запуск Pod’ов за счёт параллельных загрузок и обеспечивать безопасность доступа к образам.
Безопасность на уровне ОС (OS-level Security) OS Включение защиты загрузчика GRUB паролем с использованием хэширования PBKDF2 SHA-512. Настройка обязательной повторной аутентификации при использовании sudo. Это позволяет соответствовать требованиям безопасности при загрузке системы и управлении привилегированным доступом, предотвращая несанкционированные изменения системы и обеспечивая соблюдение политик безопасности во всей инфраструктуре кластера.

Cluster API v1beta2 для улучшенного управления кластерами Kubernetes

VKS 3.5 включает Cluster API v1beta2 (CAPI v1.11.1), который вносит ряд изменений и улучшений в версии API для ресурсов по сравнению с v1beta1. Полный список улучшений можно найти в Release Notes для CAPI.

Для обеспечения плавного перехода все новые и существующие кластеры, созданные с использованием прежнего API v1beta1, будут автоматически преобразованы в API v1beta2 обновлёнными контроллерами Cluster API. В дальнейшем рекомендуется использовать API v1beta2 для управления жизненным циклом (LCM) кластеров Kubernetes.

Версия API v1beta2 является важным шагом на пути к выпуску стабильной версии v1. Основные улучшения включают:

  • Расширенные возможности отслеживания состояния ресурсов, обеспечивающие лучшую наблюдаемость.
  • Исправления на основе отзывов клиентов и инженеров с реальных внедрений.

Предотвращение сбоев обновлений из-за неверно настроенного PodDisruptionBudget

Pod Disruption Budget (PDB) — это объект Kubernetes, который помогает поддерживать доступность приложения во время плановых операций (например, обслуживания узлов, обновлений или масштабирования). Он гарантирует, что минимальное количество Pod’ов останется активным во время таких событий. Однако неправильно настроенные PDB могут блокировать обновления кластера.

VKS 3.5 вводит механизмы защиты (guardrails) для выявления ошибок конфигурации PDB, которые могут привести к зависанию обновлений или других операций жизненного цикла. Система блокирует обновление кластера, если обнаруживает, что PDB не допускает никаких прерываний.

Для повышения надёжности и успешности обновлений введено новое условие SystemChecksSucceeded в объект Cluster. Оно позволяет пользователям видеть готовность кластера к обновлению, в частности относительно конфигураций PDB.

Ключевые преимущества новой проверки:

  • Проактивная блокировка обновлений — система обнаруживает PDB, препятствующие выселению Pod’ов, и останавливает обновление до его начала.
  • Более чёткая диагностика проблем — параметр SystemChecksSucceeded устанавливается в false, если у любого PDB значение allowedDisruptions меньше или равно 0, что указывает на риск простоев.
  • Планирование обновлений — позволяет заранее устранить ошибки конфигурации PDB до начала обновления.

Примечание: любой PDB, не связанный с Pod’ами (например, из-за неправильного селектора), также будет иметь allowedDisruptions = 0 и, следовательно, заблокирует обновление.

Упрощённые операции: CLI, управление надстройками и инструменты поддержки

Управление надстройками (Add-On Management)

VKS 3.5 упрощает эксплуатационные операции, включая управление жизненным циклом надстроек (add-ons) и создание пакетов поддержки. Новая функция VKS Add-On Management объединяет установку, обновление и настройку стандартных пакетов, предлагая:

  • Единый метод для всех операций с пакетами, декларативный API и предварительные проверки совместимости.
  • Возможность управления стандартными пакетами VKS через Supervisor Namespace (установка, обновления, конфигурации) — доступно через VKS-M 9.0.1 или новый плагин ‘addon’ в VCF CLI.
  • Упрощённую установку Cluster Autoscaler с возможностью автоматического обновления при апгрейде кластера.
  • Управление установками и обновлениями через декларативные API (AddonInstall, AddonConfig) с помощью Argo CD или других GitOps-контроллеров. Это обеспечивает версионируемое и повторяемое развертывание надстроек с улучшенной трассируемостью и согласованностью.
  • Возможность настройки Addon Repository во всех кластерах VKS с помощью API AddonRepository / AddonRepositoryInstall, включая случаи с приватными регистрами.
    По умолчанию встроенный репозиторий VKS Standard Package устанавливается из пакета VKS (версия v2025.10.22 для релиза VKS 3.5.0).
  • Во время обновлений кластеров VKS выполняет предварительные проверки совместимости надстроек и обновляет их до последних поддерживаемых версий. Если проверка не пройдена — обновление блокируется. При установке или обновлении надстроек выполняются дополнительные проверки, включая проверку на дублирование пакетов и анализ зависимостей.
  • Упрощённое обнаружение новых версий и метаданных совместимости для Add-on Releases.

Интегрированный сборщик пакетов поддержки (Support Bundler) в VCF CLI

VKS 3.5 включает VKS Cluster Support Bundler непосредственно в VCF CLI, что значительно упрощает процесс сбора диагностической информации о кластерах. Теперь пользователи могут собирать всю необходимую информацию с помощью команды vcf cluster support-bundle, без необходимости загружать отдельный инструмент.

Основные улучшения здесь:

  • Существенное уменьшение размера выходного файла.
  • Селективный сбор логов — только с узлов control plane, для более быстрой и точной диагностики.
  • Интегрированный сбор сетевых логов, что помогает анализировать сетевые проблемы и получить целостную картину состояния кластера.

Полезные ссылки:

22/10/2025
Broadcom

Broadcom представила инфраструктуру на базе Wi-Fi 8

В эпоху, когда AI всё чаще «уходит к краю сети» — то есть — выполняется непосредственно на устройстве или на близкой инфраструктуре, требования к беспроводным сетям меняются. Вместо гонки за пиковыми скоростями становится важнее низкая задержка, высокая надёжность, предсказуемость и адаптивность. Именно в этом контексте появляется новое поколение — Wi-Fi 8 (также обозначаемое как IEEE 802.11bn), задача которого — стать «основой» для беспроводного AI edge. Компания Broadcom представила своё семейство чипсетов Wi-Fi 8, позиционируя их как фундаментальную платформу для сетей с AI-устройствами.

Почему Wi-Fi 8 — это не про максимальную скорость?

В предыдущих поколениях Wi-Fi (например, Wi-Fi 6, Wi-Fi 6E, Wi-Fi 7) основной акцент делался на увеличение пропускной способности: больше GHz, больше антенн, более мощная модуляция. Однако в блоге Broadcom подчёркивается, что Wi-Fi 8 сменяет приоритеты: теперь главное — надёжность, предсказуемость, контроль задержки и способность работать в сложных, насыщенных средах. Другими словами: устройство может не показывать «в идеале» наибольшую скорость, но важно, чтобы оно доставляло данные вовремя, без провалов, даже если сеть нагружена.

Это особенно актуально для оконечных AI-устройств: камеры, датчики, автономные роботы, автомобили, «умный дом», промышленная автоматизация — там требуется мгновенная реакция, и беспроводная сеть не может быть слабым звеном.

Технические особенности Wi-Fi 8

Ниже — основные архитектурные и технологические моменты, которые Broadcom выделяет как отличительные черты Wi-Fi 8.

1. Телеметрия и адаптивность

Семейство чипов Wi-Fi 8 от Broadcom включает встроенные механизмы телеметрии, которые постоянно измеряют поведение сети: условия канала, загруженность, помехи, мобильность устройств. Эта информация используется в реальном времени для адаптации: например, переключение каналов, корректировка мощности, приоритизация трафика, динамическое управление потоком данных — всё с целью обеспечить низкую задержку и стабильное соединение.

2. Архитектура «краевого AI» (Edge AI)

Wi-Fi 8 позиционируется именно как платформа для Edge AI — то есть инфраструктуры, где модель, обработка данных или рекомендации выполняются ближе к устройству, а не в облаке. Broadcom подчёркивает: устройства и сети должны быть «AI-ready» — готовыми к работе с интенсивными задачами AI в режиме реального времени.

Это требует:

  • Очень низкой задержки (чтобы не было «запаздывания» отклика)
  • Высокой надёжности (чтобы результат был предсказуемым)
  • Способности одновременно обслуживать множество устройств (IoT, сенсоры, камеры и др.)

3. Поддержка различных классов устройств и сценариев

Broadcom указывает, что Wi-Fi 8 охватывает не только домашние маршрутизаторы, но и корпоративные точки доступа, а также клиентские устройства: смартфоны, ноутбуки, автомобильные системы. Такая универсальность важна: сеть на краю должна обслуживать разные типы устройств с разными требованиями.

4. Лицензирование стратегии и экосистема

Интересный аспект: Broadcom открывает свою платформу Wi-Fi 8 через лицензирование IP и продуктов, особенно для рынков IoT и automotive. Это позволяет партнёрам быстрее внедрять Wi-Fi 8 в новые устройства и экосистемы.

5. Стандарт IEEE 802.11bn — ориентиры

Хотя Wi-Fi 8 ещё находится в разработке (стандарт IEEE 802.11bn), уже видны ориентиры: фокус на «Ultra High Reliability» (UHR) — чрезвычайно высокая надёжность, низкая задержка, устойчивость к помехам и плотной среде. Например, даже если физические изменения по сравнению с Wi-Fi 7 не столь радикальны, акцент смещается на качество соединения, а не просто на максимальную скорость.

Зачем Wi-Fi 8 нужен именно для Wireless AI Edge

Рассмотрим ключевые сценарии, где преимущества Wi-Fi 8 раскрываются наиболее ярко.

Сценарий: автономные системы и роботы

Представьте завод с роботами-манипуляторами, дронами, транспортными средствами на базе AI. Они генерируют, обрабатывают и обмениваются данными на месте: карты, сенсоры, объекты, навигация. Здесь задержка, потеря пакетов или нестабильность соединения — недопустимы. Wi-Fi 8 помогает обеспечить:

  • Постоянное качество соединения даже при движении устройств
  • Адаптацию к изменяющимся условиям канала
  • Высокую плотность устройств в ограниченном пространстве

Сценарий: IP-камеры, видеоаналитика и умный дом

Камеры с AI-аналитикой могут находиться где-то между облаком и Edge. Wi-Fi 8 обеспечивает непрерывную передачу потока, реагирование на события и автономную работу без нарушения связи.

Сценарий: автомобильная и транспортная инфраструктура

Wi-Fi 8 встроен в автомобильные системы и мобильные устройства. При движении, смене точек доступа, большом количестве подключённых устройств важно, чтобы сеть была непрерывной, с минимальной задержкой, автоматически адаптировалась при смене сценария.

Так появится экосистема решений Wi-Fi 8 для домашних (BCM6718), корпоративных (BCM43840, BCM43820) и клиентских устройств (BCM43109).

Вызовы и что ещё предстоит

Хотя Wi-Fi 8 выглядит многообещающе, есть несколько моментов, на которые стоит обратить внимание.

  • Стандартизация и сроки - стандарт IEEE 802.11bn ещё не окончательно утверждён; коммерческая доступность устройств и сертификация могут занять несколько лет. Это значит, что внедрение Wi-Fi 8-решений в промышленном масштабе может состояться не сразу.
  • Экосистема и совместимость - чтобы Wi-Fi 8 стал по-настоящему успешным, требуется: устройства-клиенты (смартфоны, ноутбуки, IoT-устройства), точки доступа, маршрутизаторы, инфраструктура поддержки, программные платформы. Переход всей экосистемы — задача небыстрая.
  • Цена и обоснование обновлений - поскольку пиковые скорости могут не сильно отличаться от Wi-Fi 7, организациям и пользователям придётся оценивать: стоит ли обновлять оборудование сейчас ради большей надёжности и «готовности к AI Edge». Некоторые аналитики отмечают, что без заметного прироста скорости маркетинг может быть слабее.
  • Безопасность и управление - с большим количеством устройств, большим количеством трафика «на краю», а также AI-нагрузками возрастает важность безопасности как на уровне устройства, так и на уровне сети. Wi-Fi 8 должен преодолеть этот вызов.

Заключение

Wi-Fi 8 от Broadcom — это не просто новое поколение беспроводного стандарта ради скорости — это полноценная платформа, ориентированная на эпоху Edge AI. Она призвана обеспечить надежную, предсказуемую, гибкую сеть, способную поддерживать устройства с AI-нагрузкой в самых требовательных сценариях.

Для организаций, которые планируют развивать инфраструктуру Edge AI, промышленный IoT, автономные системы, «умный город», Wi-Fi 8 может стать ключевым технологическим элементом. Однако, как и с любой новой технологией, важно учитывать сроки стандартизации, экосистему, реальную выгоду от обновления и стратегию внедрения.

17/10/2025
Broadcom

Broadcom представила сетевой адаптер Thor Ultra со скоростью 800 Гбит/с

Компания Broadcom на днях объявила о выпуске Thor Ultra — первой в отрасли 800G AI Ethernet сетевой карты (NIC), способной объединять сотни тысяч XPU (eXtreme Processing Units) для выполнения AI-нагрузок с триллионами параметров. Приняв открытую спецификацию Ultra Ethernet Consortium (UEC), Thor Ultra предоставляет клиентам возможность масштабировать AI-нагрузки с экстремальной производительностью и эффективностью в открытой экосистеме.

«Thor Ultra воплощает видение Ultra Ethernet Consortium по модернизации RDMA для крупных AI-кластеров», — сказал Рам Велага, старший вице-президент и генеральный директор подразделения Core Switching Group компании Broadcom. — «Разработанная с нуля, Thor Ultra — это первый в отрасли 800G Ethernet NIC, полностью соответствующий спецификации UEC. Мы благодарны нашим клиентам за сотрудничество и нашей выдающейся инженерной команде за инновации продукта».

Традиционная RDMA не поддерживает multipathing-передачу, out-of-order доставку пакетов, выборочную повторную передачу и масштабируемый контроль перегрузок. Thor Ultra представляет революционный набор инноваций RDMA, соответствующих UEC, включая:

  • Multipathing-передачу на уровне пакетов для эффективной балансировки нагрузки.
  • Доставку пакетов out-of-order напрямую в память XPU для максимального использования сетевой фабрики.
  • Выборочную повторную передачу для эффективной передачи данных.
  • Программируемые алгоритмы контроля перегрузок на стороне приёмника и отправителя.

Thor Ultra обеспечивает высокопроизводительные расширенные возможности RDMA в открытой экосистеме. Это даёт клиентам свободу подключения любых XPU, оптики или коммутаторов и снижает зависимость от проприетарных, вертикально интегрированных решений.

Дополнительные особенности Broadcom Thor Ultra включают:

  • Доступность в стандартных форм-факторах PCIe CEM и OCP 3.0.
  • 200G или 100G PAM4 SerDes с поддержкой длинных пассивных медных соединений.
  • Самый низкий в отрасли уровень битовых ошибок (BER) SerDes, что уменьшает разрывы соединений и ускоряет время завершения заданий (JCT).
  • Интерфейс PCI Express Gen6 x16 для хоста.
  • Шифрование и дешифрование на скорости линии с разгрузкой PSP, снимая с хоста/XPU вычислительно-интенсивные задачи.
  • Безопасная загрузка с подписанным микропрограммным обеспечением и аттестацией устройства.
  • Программируемый конвейер контроля перегрузок.
  • Поддержка обрезки пакетов и сигнализации перегрузок (CSIG) с Tomahawk 5, Tomahawk 6 или любым коммутатором, совместимым с UEC.

Будучи передовой сетевой картой, Thor Ultra является ключевым дополнением к портфолио Broadcom по Ethernet-сетям для AI. В сочетании с Tomahawk 6, Tomahawk 6-Davisson, Tomahawk Ultra, Jericho 4 и Scale-Up Ethernet (SUE) Thor Ultra обеспечивает открытую экосистему для масштабных высокопроизводительных внедрений XPU.

Более подробно о сетевой карте Thor Ultra можно узнать вот тут.

15/10/2025
VMware

Вышли новые версии VMware Workstation 25H2 и VMware Fusion 25H2

Недавно компания VMware объявила о выходе новых версий настольных платформ виртуализации VMware Workstation 25H2 и VMware Fusion 25H2. Эти релизы представляют обновленную модель нумерации версий, предлагают новые функции и расширенную поддержку современных операционных систем и аппаратного обеспечения — всё для того, чтобы виртуализация стала ещё более удобной, мощной и актуальной.

Более понятная модель версий

Оставаться в курсе обновлений инструментов должно быть просто. Благодаря календарной нумерации теперь легче понять, когда был выпущен релиз, и планировать обновления.

VMware отказывается от традиционных номеров версий (например, Workstation 17.6.x, Fusion 13.6.x) и переходит к новому формату именования — 25H2, где указаны год (2025) и половина года (H2). Это обеспечивает согласованность между релизами и понятность для клиентов.

Основные новые функции

Релиз 25H2 приносит новые инструменты и возможности, которые упрощают автоматизацию, повышают совместимость и делают повседневные задачи быстрее и надежнее.

1. dictTool (Workstation и Fusion)

Новая утилита командной строки, которая позволяет пользователям просматривать и редактировать файлы конфигурации VMware (.vmx, preferences). Это обеспечивает большую гибкость и автоматизацию для продвинутых пользователей — возможность, которую часто запрашивало сообщество.

2. Поддержка USB 3.2 (Workstation и Fusion)

Более быстрая передача данных и улучшенная совместимость с современными USB-устройствами.

3. Версия виртуального аппаратного обеспечения 22 (Workstation и Fusion)

Обеспечивает использование виртуальными машинами последних возможностей Virtual Hardware для повышения производительности и совместимости.

4. Обнаружение Hyper-V/WHP (только Workstation)

Помогает определить режим работы виртуальной машины в Workstation, чётко показывая статус Hyper-V/WHP.

5. Расширенная поддержка процессоров и операционных систем

Запуск новейших рабочих нагрузок и платформ имеет решающее значение для современных пользователей. Workstation и Fusion 25H2 расширяют совместимость с CPU, хостами и гостевыми ОС, чтобы вы могли с уверенностью использовать последние технологии.

Новая поддержка процессоров (Workstation):

  • Intel Lunar Lake
  • Arrow Lake
  • Meteor Lake.

Новые гостевые операционные системы:

  • Red Hat Enterprise Linux 10
  • Fedora Linux 42
  • openSUSE Leap 16.0 (RC)
  • SUSE Linux 16 (Beta)
  • Debian 13
  • Oracle Linux 10
  • VMware ESX 9.0 (Workstation: общая, Fusion: только для систем Intel)
  • macOS Tahoe (Fusion: только для систем Intel)

Новые хостовые операционные системы:

  • Workstation: RHEL 10, Fedora Linux 42, openSUSE Leap 16.0 (RC), SUSE Linux 16 (Beta), Debian 13
  • Fusion: macOS Tahoe (Intel и Apple Silicon)

Исправления ошибок и улучшения

Версия 25H2 также включает важные усовершенствования, повышающие стабильность, безопасность и удобство использования платформ. Эти исправления устраняют распространённые проблемы, о которых сообщали пользователи Workstation и Fusion.

  • Исправления безопасности для обеих платформ.
  • Улучшения доступности для повышения удобства.

Исправления, специфичные для Workstation:

  • Решены проблемы интерфейса Windows с изменением размера и элементами управления окнами.
  • Оптимизированы пакеты поддержки Linux для более простого использования.
  • Уменьшено чрезмерное журналирование службы VMware Authorization Service (vmauthd) в оснастке просмотра событий Windows.
  • Добавлена возможность сброса состояния приостановленной ВМ.
  • Исправлены сбои полноэкранного режима в Linux и проблемы с 3D-ускорением на графике Intel.

Исправления, специфичные для Fusion:

  • Исправлены проблемы с вводом «мёртвых клавиш».
  • Исправлено сохранение настроек действий при подключении USB («Plug in Action»).

Вопросы клиентов и поддержка

В VMware также сосредоточились на том, чтобы клиентам было проще получать ответы и разъяснения. Опираясь на предыдущие обновления, такие как «VMware Fusion and Workstation Going Free + New Resources», был расширен раздел «Часто задаваемые вопросы» (Customer FAQ).

Теперь FAQ доступен здесь: VMware Desktop Hypervisor FAQs.

Он охватывает наиболее распространённые вопросы, возникающие в сообществах VMware и при прямом общении. VMware будет регулярно обновлять этот ресурс по мере появления новых отзывов и вопросов. Это гарантирует пользователям единое, надёжное место для получения актуальных ответов и рекомендаций.

Глобальная доступность

Workstation Pro и Fusion Pro 25H2 доступны на нескольких языках, что позволяет пользователям по всему миру использовать продукты на предпочитаемом языке:

  • Английский
  • Французский
  • Японский
  • Испанский

Благодаря календарной нумерации, новым функциям, таким как dictTool, расширенной поддержке ОС и процессоров, а также улучшенному разделу FAQ, VMware Workstation и Fusion остаются современными, надёжными и ключевыми элементами стратегии VMware в области настольной виртуализации.

Кстати, обратите внимание, что как только продукты стали бесплатными - новых функций в обновленных версиях поубавилось.

09/09/2025
zVirt

Orion soft анонсировала платформы виртуализации zVirt 4.5 и zVirt 5.0

Недавно компания Orion soft анонсировала релизы платформы виртуализации - zVirt 4.5 и zVirt 5.0. Давайте посмотрим, что нового обещает разработчик отечественной платформы виртуализации.

zVirt 4.5: вектор на производительность и виртуализацию сетей

По словам Orion soft, релиз 4.5 сфокусирован на двух крупных направлениях:

  1. Рост производительности (внутренние оптимизации стека),
  2. Дальнейшее развитие сетевой виртуализации (SDN). Это не «косметика», а серия внутренних апгрейдов, которые готовят почву под 5.0. Подробный перечень фич компания не публиковала, акцент именно на эти векторы развития.

Что это означает на практике:

  • Ускорение «горячих» путей данных. В реальной эксплуатации это обычно выражается в уменьшении задержек операций ввода-вывода ВМ, росте пропускной способности при миграциях и репликации, а также в снижении накладных расходов управляющих сервисов. В контексте последних релизов zVirt компания уже поднимала потолок репликации и улучшала экспорт метрик/логов — версия 4.5 логично продолжает эту линию, но уже как «внутренний» апгрейд ядра платформы.
  • Упрочнение SDN-стека. С версии 4.0/4.2 zVirt продвигал микросегментацию и управляемые сети через UI; в 4.5 ожидаем дальнейшее выравнивание производительности и функциональности SDN под крупные инсталляции (много проектов/сетей, избыточные связи, тонкая политика East-West). Идея — дать базис для грядущей миграции сетевых конфигураций из vSphere/NSX-подобных сценариев, заявленных к 5.0.

Вывод для архитекторов: 4.5 — это «подкапотный» релиз, который не меняет ваши процессы, но подготавливает площадку: стабильнее SDN, выше пропускная способность, а значит — меньше рисков при масштабировании кластеров и при переходе на версию 5.0.

zVirt 5.0: крупные продуктовые сдвиги

Для zVirt 5.0 Orion soft публично называл ряд ключевых возможностей, которые заметно расширяют зону автоматизации и упрощают миграцию с VMware-ландшафтов:

1. Storage DRS (распределение нагрузки по хранилищам)

Идеология — объединить несколько доменов хранения в логический «кластер» и автоматически балансировать размещение/миграцию дисков/ВМ по политикам (запас по IOPS/latency/ёмкости, «горячие» тома и т. п.). Это сокращает ручные операции, снижает риск «перекоса» томов хранения (LUN) и ускоряет реакцию на всплески нагрузки. Orion soft ранее уже демонстрировал Storage DRS в линейке 4.x, ну а в 5.0 ожидается консолидация и развитие этого направления как «функции по умолчанию» для больших инсталляций.

Практический эффект:

  • Более предсказуемые SLA на уровне хранилища для VMs/VDIs.
  • Упрощение сценариев расширения емкости (add capacity -> автоматический ребаланс).
  • Меньше ручных миграций хранилищ в пиковые часы.

2. Упрощённый инсталлятор (быстрое развертывание/апгрейды)

Цель — сократить TTV (time-to-value): меньше шагов, больше проверок совместимости и готовности (сети, CPU-фичи, хранилища, сертификаты), шаблоны для типовых топологий (Hosted Engine, Standalone, edge-кластера). Это критично для массовых миграций с VMware: когда десятки площадок поднимаются параллельно, выигрыш в часах на площадку умножается на десятки.

3. Управление аппаратной репликацией на СХД

Речь о DR на уровне массивов (например, YADRO TATLIN.UNIFIED, Huawei Dorado и др.) с оркестрацией из консоли zVirt. Преимущества аппаратной репликации — RPO до 0 сек при синхронных схемах и низкая нагрузка на гипервизоры/SAN. План аварийного переключения становится «кнопкой» в едином UI. В 4.x уже были интеграции и демонстрации такого подхода, а версия 5.0 укрепляет это как нативный сценарий с централизованным управлением планами DR.

Практический эффект:

  • Единый контрольный контур для DR (агентская и аппаратная репликации)
  • Меньше конфликтов за ресурсы между продуктивом и DR-задачами
  • Формализованные RTO/RPO для аудита

4. Terraform-провайдер

Провайдер позволяет декларативно описывать кластера, ВМ, сети/SDN-объекты, политики, хранилища — и воспроизводить их через CI/CD. Это даёт привычную для DevOps-команд «инфраструктуру как код» поверх zVirt, ускоряя создание однотипных стендов, DR-сайтов и «blue/green» сред.

Практический эффект:

  • Контроль версий для инфраструктуры (git-история ваших кластеров)
  • Воспроизводимость площадок (dev -> stage -> prod)
  • Быстрый откат/повторение конфигураций по слияниям (merges).

5. Миграция конфигураций с VMware vSphere на SDN zVirt

Отдельно заявлена возможность импорта сетевых конфигураций из VMware-ландшафтов в SDN-модель zVirt: перенос порт-групп, сегментации, ACL/микросегментации и прочее. Это важная часть «бесшовной» стратегии импортозамещения: раньше боль была не только «перенести ВМ», но и воссоздать сетевую политику («зашитую» в vSphere/NSX). Версия 5.0 обещает автоматизировать этот пласт работ.

Практический эффект:

  • Сокращение ошибок при ручном переносе сетей
  • Предсказуемость инфраструктуры безопасности после миграции
  • Ускорение cut-over окон при переездах больших ферм ВМ.

Как готовиться к zVirt 4.5/5.0 в производственной среде

  1. Проверить лимиты и совместимость (ядра, CPU-фичи, сетевые карты, Mellanox/Intel, fabric-параметры, NUMA-profile, лимиты по миграциям/сетям/ВМ) — чтобы апгрейды прошли «в стык», без регрессий. Актуальные лимиты и best practices доступны в вики Orion soft.
  2. Нормализовать SDN-модель: привести именование сетей/проектов к единому стандарту, сверить микросегментацию и схему ACL — это упростит будущий импорт конфигураций и policy-driven-балансировку. В версии 4.2 уже был сделан большой шаг по SDN/микросегментации.
  3. Обновить процессы DR: если у вас есть массивы с аппаратной репликацией — инвентаризовать пары массивов, RPO/RTO, каналы межплощадочной связи; продумать, какие сервисы уйдут на аппаратную репликацию, а какие останутся на агентской (уровень гипервизора).
  4. Заложить IaC-подход: начать описывать парки ВМ, сети, хранилища в Terraform (как минимум — черновые манифесты), чтобы к моменту выхода провайдера под 5.0 ваш репозиторий уже отражал фактическую инфраструктуру.

Более подробно о новых возможностях zVirt 4.5 и zVirt 5.0 можно почитать вот тут.

05/09/2025
VMware

Новые возможности VMware vCenter Converter Standalone 9.0

В рамках обновления инфраструктуры VMware Cloud Foundation 9 компания VMware обновила и свое основное средство для миграции физических и виртуальных машин на платформу VCF - vCenter Converter Standalone 9.0, про долгое отсутствие обновлений которого мы писали вот тут.

Давайте посмотрим, что нового в Converter девятой версии:

1. Поддержка VMware Cloud Foundation 9.0 и нового виртуального оборудования

  • Версия 9.0 добавляет полную совместимость с VMware Cloud Foundation 9.0, что позволяет интеграцию с последним стеком VMware.
  • Добавлена поддержка виртуального аппаратного обеспечения (virtual hardware) версии 22, обеспечивающего более широкие возможности и улучшенную производительность виртуальных машин.

2. Поддержка SSL-сертификатов

  • Добавлена возможность использования полных SSL-сертификатов. Это серьёзный шаг в сторону безопасности, позволяющий использовать самоподписанные и централизованные сертификационные центры, улучшая защищённость соединений при миграции машин.

3. Усовершенствования в области безопасности: TLS-протоколы

  • По умолчанию Converter 9.0 поддерживает только TLS 1.2, что соответствует современным стандартам безопасности.
  • При необходимости возможно включение устаревших протоколов TLS 1.0 и TLS 1.1, однако делать это рекомендуется только в исключительных ситуациях.

4. Поддержка IPv6 и различных типов источников

  • Теперь поддерживается IPv6, что позволяет выполнять конвертацию в современных сетевых инфраструктурах.
  • Расширена поддержка типов источников: можно конвертировать удалённые работающие машины, выключенные виртуальные машины VMware и виртуальные машины на Hyper-V Server.

5. Улучшения удалённого доступа и клиент-серверной архитектуры

  • Благодаря remote access, доступно создание и управление задачами конвертации удалённо — с удалённого клиента через клиент-серверную установку. Это значительно упрощает работу в распределённых средах.

Рекомендации по использованию

  1. Обновите vCenter Converter Standalone до версии 9.0, чтобы воспользоваться новыми возможностями безопасности и совместимости.
  2. Настройте SSL-сертификаты для защиты SSH- и API-трафика.
  3. Проверьте конфигурацию сети, особенно если используется IPv6.
  4. Используйте только TLS 1.2, если нет веских причин активировать устаревшие протоколы.
  5. Настройте архитектуру клиент-сервер для эффективного управления задачами конвертации удалённо.

Ограничения

  • Поддержка аутентификации с использованием алгоритмов RSA SHA1 устарела. Вместо этого рекомендуется использовать более новые алгоритмы или перейти на аутентификацию по паролю.
  • vCenter Converter Standalone поддерживает исходные и целевые дисковые накопители только с размером сектора 512B (512e и 512n). Диски с нативным размером сектора 4K (4Kn) не поддерживаются.
  • Начиная с версии vCenter Converter Standalone 9.0, конвертация файловых систем ReiserFS больше не поддерживается.
03/09/2025
VMware

VMware Cloud Foundation 9.0 как AI-native платформа: что именно изменилось

На конференции VMware Explore 2025 компания Broadcom объявила, что службы VMware Private AI Services теперь входят в стандартную поставку VMware Cloud Foundation 9.0 (VCF 9.0). То есть VCF превращается в полноценную AI-native платформу частного облака: из коробки доступны (или будут доступны) сервисы для работы с моделями, наблюдаемость за GPU, среда исполнения для моделей и агент-фреймворк, плюс дорожная карта с MCP, multi-accelerator и AI-ассистентом для VCF.

Платформа VCF 9.0 уже находится в статусе General Availability и доступна с июня 2025, а выход служб Private AI Services в составе подписки планируется к началу первого квартала 2026 финансового года Broadcom.

Давайте посмотрим на состав и функции VMware Private AI Services:

Слой AI-сервисов в VCF 9.0

Что «входит по умолчанию» в Private AI Services (становится частью подписки VCF 9.0):

  • GPU Monitoring — телеметрия и наблюдаемость графических карт.
  • Model Store — репозиторий и версионирование моделей.
  • Model Runtime — сервисный слой для развертывания/экспонирования моделей (endpoints).
  • Agent Builder — сборка/оркестрация «агентов» поверх LLM.
  • Vector Database & Data Indexing/Retrieval — индексация корпоративных данных и RAG-потоки.

Эти возможности поставляются как native services платформы, а не «надстройка» — и это важная архитектурная деталь: AI становится частью инфраструктуры, живущей в тех же сущностных/безопасностных доменах, что и виртуальные машины и контейнеры.

Также были анонсированы следуюие продукты и технологии в рамках дорожной карты:

  • Intelligent Assist for VCF — LLM-ассистент для диагностики и самопомощи в VCF (пока как tech preview для on-prem/air-gapped и cloud-моделей).
  • Model Context Protocol (MCP) — стандартная, управляемая интеграция ассистентов с инструментами и БД (Oracle, MSSQL, ServiceNow, GitHub, Slack, PostgreSQL и др.).
  • Multi-accelerator Model Runtime — единая среда исполнения для AMD и NVIDIA GPU без переработки приложений; поддержка NVIDIA Blackwell, B200, ConnectX-7/BlueField-3 с технологией Enhanced DirectPath I/O.
  • Multi-tenant Models-as-a-Service — безопасное шаринг-использование моделей между пространствами имен/линиями бизнеса.

Ядро VCF 9.0: что поменялось в самой платформе

Единая операционная плоскость

VCF 9.0 переносит фокус на «One interface to operate» (VCF Operations) и «One interface to consume» (VCF Automation): единая модель политик, API и общий движок жизненного цикла. Это снижает расхождение инструментов и обучаемость. На практике это дает унифицированное управление инфраструктурой, health/patch/compliance из одной консоли, централизованные функции IAM/SSO/сертификатов, анализ корреляции логов и другие возможности.

Примеры экранов и функций, доступных в VCF Operations: обзор по всем инстансам, геокарта, статус сертификатов с автообновлением, NetOps-дэшборды (NSX health, VPC, flows), интеграция Live Recovery и LogAssist.

Слой потребления (для разработчиков/проектных команд)

  • GitOps (Argo CD) как встроенная модель доставки, Istio Service Mesh для zero-trust/observability трафика, единый контроль политик по проектам.
  • vSphere Kubernetes Service (VKS) — функции enterprise-K8s, доступные прямо из VCF.
  • Native vSAN S3 Object Store — S3-совместимый API хранилища объектов на vSAN, без внешних лицензий/модулей.

Все это — официальные «новые в 9.0» элементы, влияющие на скорость доставки сервисов и безопасность.

Производительность и эффективность

  • NVMe Memory Tiering — расширение оперативной памяти за счет NVMe для высокочастотных/in-memory нагрузок.
  • vSAN Global Deduplication (ESA) — постпроцессинговая глобальная дедупликация на уровне кластера.
  • Улучшенные data paths + опциональный DPU offload — снижение задержек в east-west контуре, предсказуемость отклика.
Безопасность, соответствие и контроль затрат
  • Security Operations Dashboard - непрерывный compliance-сканер (CIS/NIST/кастомные baselines), identity & cert management, «drift»-контроль.
  • Встроенные chargeback/showback и cost dashboards (TCO-прозрачность, прогнозирование, возврат/reclaim неиспользуемых ресурсов).

Аппаратные улучшения/сетевой стек для AI

VCF 9.0 выравнивает работу «больших» AI-нагрузок на частной инфраструктуре:

  • Поддержка NVIDIA Blackwell (включая RTX PRO 6000 Blackwell Server Edition, B200, HGX с NVSwitch), GPUDirect RDMA/Storage, Enhanced DirectPath I/O - при этом сохраняются «классические» возможности vSphere (vMotion, HA, DRS, Live Patching).
  • Совместная работа с AMD: ROCm Enterprise AI и Instinct MI350 для задач fine-tuning/RAG/inference. Это не «плагин», а интегрированная часть VCF и экосистемы VMware Private AI Foundation with NVIDIA.

Как это интегрируется в вашм бизнес-процессы

Типовые сценарии, которые теперь проще закрывать «из коробки»:

  • Models-as-a-Service: реестр -> развертывание -> публикация endpoint-ов -> контроль версий/квот -> многоарендность.
  • Агенты поверх LLM: ускоренный старт с Agent Builder + подключение к корпоративным данным через индексирование/вектора.
  • RAG-потоки с политиками и аудитом: источники данных под управлением VCF, контроль доступа на уровне платформы, видимость (observability).
  • Доставка сервисов K8s: GitOps (Argo CD), сервис-меш (Istio), S3-объекты на vSAN для артефактов/данных.

Лицензирование/доставка и пути обновления

  • GA: VCF 9.0 доступен с 17 июня 2025.
  • Службы Private AI Services обещаны как часть подписки VCF 9.0 в Q1 FY26 от Broadcom.
  • Официальный документ с фичами и путями миграции VCF <-> VVF 9.0 доступен тут.

Вывод

VCF 9.0 — это не просто «еще одна» версия с оптимизациями. За счет включения Private AI Services в базовую платформу и сдвига на «one interface to operate/consume», VCF превращает AI-нагрузки в основу частного облака, сохраняя корпоративные политики, комплаенс и привычные SRE-процессы — от GPU до GitOps.

02/09/2025
VMware

VMware представила платформу Tanzu Data Intelligence

На прошедшей недавно конференции Explore 2025 компания VMware представила Tanzu Data Intelligence — единую платформу для работы с данными, созданную для того, чтобы предприятия могли беспрепятственно получать доступ ко всем своим данным, управлять ими и активировать их, независимо от того, где именно они находятся. Tanzu Data Intelligence обеспечивает эту основу, объединяя движки для дата-лейков и хранилищ, стриминговые конвейеры, высокопараллельные движки запросов и интеллектуальное кэширование в единую целостную систему, полностью управляемую и оптимизированную для современных рабочих нагрузок.

Десять лет назад одной из самых обсуждаемых тем была задача раскрытия ценности «больших данных», особенно в условиях массового распространения IoT-сборщиков данных. Но тогдашние ИТ-лидеры сталкивались с непростым выбором: что делать со всем этим массивом данных (кроме аналитических дашбордов и корпоративных презентаций)? Как достичь поставленных целей? И оправдывают ли выгоды затраты на полную перестройку архитектуры данных?

Сегодня ситуация изменилась. Недавний взрыв генеративного и агентного AI открыл бесчисленные возможности для извлечения значимой ценности из данных. Однако одно осталось неизменным: в основе успешной стратегии AI всегда лежит продуманная стратегия работы с данными.

Окупаемость инвестиций в AI во многом зависит от того, насколько легко и экономично организации могут получать доступ к своим данным и использовать их. Это придаёт дополнительную актуальность пересмотру стратегии данных, включая технологические стеки и операционные модели, так как командам данных, AI и разработчиков приложений теперь приходится сотрудничать в новых форматах.

По мере того как предприятия активно инвестируют в цифровые инициативы, способность эффективно использовать свои собственные данные стремительно становится главным фактором, определяющим бизнес-ценность AI и приложений нового поколения. ИТ-руководители и архитекторы заново анализируют, где и как данные перемещаются, обрабатываются, хранятся и запрашиваются. Чтобы раскрыть потенциал AI безопасно, быстро и эффективно, организациям необходима платформа, охватывающая структурированные и неструктурированные данные, поддерживающая как историческую, так и потоковую обработку, способная работать локально для соответствия требованиям по стоимости и суверенитету, а также масштабироваться для задач AI, аналитики и операционной деятельности. Именно это стремится реализовать Tanzu Data Intelligence. С этим новым продуктом VMware помогает предприятиям, ориентированным на безопасность, открыть новые возможности в работе с данными.

Пять ключевых отраслевых изменений, делающих Data Intelligence необходимостью

Мы наблюдаем пять тенденций, при которых традиционные платформы данных уже не справляются.

1. Переход от облачно-ориентированного мышления к AI-ориентированному.

Обсуждение сместилось от того, где работают системы, к тому, что они позволяют сделать. Руководители предприятий фокусируются на применении AI для улучшения принятия решений, автоматизации операций и создания новых пользовательских опытов. Становясь «AI-нативными», компании ориентируются на устойчивые результаты: более быстрые инсайты, создание интеллектуальных приложений и получение конкурентных преимуществ за счёт AI при максимальной экономии.

2. Рост данных ускоряется по разнообразию, скорости и объёму.

Данные поступают быстрее, в большем количестве форматов и из большего числа источников, чем когда-либо: от биометрических устройств, смартфонов, датчиков и машинных логов. Рост выражается не только в объёмах, но и в разнообразии и актуальности данных. Бизнесу нужно уметь получать, обрабатывать и использовать данные по мере их поступления — будь то поток в реальном времени или пакет из распределённой системы. Причём делать это необходимо максимально экономично, чтобы избежать финансовых издержек (например, дополнительных сборов за исходящий трафик). Современные платформы данных должны справляться с этими вызовами, так как AI и «умные» приложения зависят от быстрых, разнообразных и качественных данных, чтобы обеспечивать ожидаемые бизнес-результаты.

3. Современные приложения требуют доступа к данным в реальном времени и при высокой параллельности.

Интеллектуальные приложения и агентные системы, работающие автономно или в связке с пользователями, зависят от мгновенного доступа к актуальным данным. Такие нагрузки часто предполагают тысячи и даже миллионы параллельных запросов, обновлений и решений в реальном времени. Поддержка подобного уровня параллельности требует инфраструктуры, специально созданной для низких задержек, параллельного выполнения и высокой пропускной способности. Производительность в реальном времени теперь является фундаментальным требованием для таких сценариев, как рекомендательные системы, обнаружение мошенничества и цифровые ассистенты, а не специализированной функцией.

4. Интерфейсы на естественном языке усиливают ценность SQL и демократизируют доступ к данным.

Распространение интерфейсов на естественном языке не заменяет SQL, а наоборот, усиливает его роль. Поскольку большие языковые модели (LLM) интерпретируют намерения пользователей и генерируют запросы, SQL остаётся идеальным языком для точного декларативного доступа к данным. SQL-базы, широко используемые предприятиями для управления структурированными данными, предоставляют декларативную и стандартизированную архитектуру, упрощающую поиск, фильтрацию и объединение данных. Структура, зрелость и широкое распространение SQL делают его идеально подходящим для преобразования естественного языка в прикладную логику в разных системах данных. Это делает данные доступнее для неспециалистов, при этом усиливая роль SQL как основы корпоративной аналитики. SQL не уходит в прошлое, а становится мощнее, выступая критическим мостом между человеческими намерениями и машинным выполнением в системах, управляемых AI.

5. Postgres становится вездесущим интерфейсом к данным.

Postgres выступает общим знаменателем как для универсальных рабочих нагрузок с данными, так и для инноваций в экосистеме данных. Его открытая лицензия стимулирует инновации — как в сообществе open source, так и внутри предприятий, — снижает риски и укрепляет доверие. От повседневных рабочих задач до масштабируемых архитектур Postgres становится интерфейсом для доступа к данным.

Возможности Tanzu Data Intelligence

Пять вышеописанных проблем ясно показывают, что традиционные архитектуры данных больше не справляются. Организациям теперь нужна единая платформа, способная работать с масштабом, скоростью и сложностью современных AI-нагрузок и задач обработки данных. Tanzu Data Intelligence была создана именно для этого. Она объединяет крупномасштабную аналитику, обработку данных в реальном времени и сервисы, готовые к работе с AI, в единую платформу. Разработанная для операционной эффективности и широкого применения, она помогает командам создавать приложения, которые работают с данными в реальном времени, поддерживают интеллектуальное принятие решений, обеспечивают экономию и соответствие требованиям при локальном размещении, а также масштабируются вместе с бизнес-потребностями.

Tanzu Data Intelligence — это готовая к AI платформа данных, обеспечивающая сквозную подготовку и оркестрацию данных для «прожорливых» к данным ИИ-приложений. Разработанная и оптимизированная для частных облаков, Tanzu Data Intelligence предоставляет уровни и возможности работы с данными, необходимые интеллектуальным и агентным приложениям для доступа к правильным данным, независимо от их расположения. AI-агенты, приложения и модели могут беспрепятственно использовать данные из различных систем с помощью федеративных запросов в Tanzu Data Intelligence, что открывает возможности для автоматизации, продвинутой аналитики и интеллектуального принятия решений.

Единая корпоративная, готовая к AI платформа данных

В основе платформы Tanzu Data Intelligence лежит масштабируемая параллельная архитектура корпоративного уровня data lakehouse, созданная специально для работы с разнообразными и крупными рабочими нагрузками, обеспечивая производительность, гибкость и управление. Data lakehouse предоставляет масштабируемое хранилище и вычислительные мощности для неструктурированных и полуструктурированных данных, что делает его особенно ценным для сценариев использования в AI и машинном обучении. Он также поддерживает хранение «сырых» данных, обучение моделей и обработку больших массивов логов, документов и других файловых источников, формируя основу для последующей аналитики и AI-процессов, которые питают агентные приложения.

Архитектура data lakehouse — это эволюция зрелого и проверенного временем решения для хранилищ данных Greenplum, теперь дополненного возможностями Tanzu Data Lake для масштабируемого хранения «сырых» данных, крупномасштабной файловой обработки и обучения моделей.

Data lakehouse приносит выгоду организациям, ориентированным на трансформацию в сторону AI-native, за счёт улучшенного и унифицированного доступа к разнородным данным в любых средах — структурированным, неструктурированным, локальным или федеративным. Он легко масштабируется по объёму данных, пользователям и API. Кроме того, lakehouse отслеживает полное происхождение данных для обеспечения требований суверенитета и управления, облегчая идентификацию информации, на основе которой AI принял решение. Это, в свою очередь, повышает уровень наблюдаемости и объяснимости. Tanzu Data Intelligence обеспечивает корпоративный уровень управления, шифрования, ролевого контроля доступа (RBAC) и применения политик, помогая организациям защищать чувствительные данные и соответствовать отраслевым нормам — таким как HIPAA, PCI и GDPR. Будучи единой платформой для множества сценариев — от поддержки принятия решений и обучения моделей до дата-сайенса, — она также предлагает нативный векторный поиск в масштабах предприятия, что позволяет выполнять SQL-запросы и семантический поиск по векторизованным данным в единой мощной среде.

Вокруг этого ядра расположены специализированные компоненты, поддерживающие полный жизненный цикл современных приложений работы с данными и AI.

Интеграция и оркестрация рабочих процессов

С помощью Tanzu Data Intelligence можно беспрепятственно перемещать и трансформировать данные через потоковые и пакетные конвейеры, поддерживающие обработку в реальном времени и событийно-ориентированные архитектуры. Очередь сообщений обеспечивает надёжный, высокопроизводительный потоковый приём данных для микросервисов, CDC (change data capture) и запуска событий AI в реальном времени. Визуальный low-code инструмент для работы с потоками данных позволяет с помощью drag-and-drop создавать событийные и непрерывные конвейеры без написания кода, соединяя системы и оркестрируя потоки «живых» данных. Пакетная обработка по запросу выполняется в контейнерах — автоматически разворачивается, масштабируется и завершается для оптимального использования ресурсов в ETL-задачах, обучении моделей и ресурсоёмких вычислительных процессах.

Федеративные сервисы запросов

Интеллектуальные уровни запросов в Tanzu Data Intelligence обеспечивают мгновенный, унифицированный доступ к разным источникам данных и устраняют необходимость перемещения данных для выполнения запросов, снижая затраты и сложность. Этот уровень абстракции также помогает достичь высокой параллельности, оптимизации рабочих нагрузок и готовности к AI без централизации данных. Data lakehouse включает Platform Extension Framework (PXF), позволяющий выполнять федеративные запросы к объектным хранилищам, дата-лейкам, облачным файловым системам и внешним БД. Пользователи могут запрашивать распределённые данные с помощью стандартного SQL без их перемещения, что ускоряет получение инсайтов и снижает сложность конвейеров.

Контейнерные вычислительные сервисы

При интеграции Tanzu Data Intelligence с VMware Tanzu Platform команды дата-сайентистов и специалистов по AI получают доступ к сервисам контейнеров и вычислений. Tanzu Platform — это простая в использовании, готовая к AI, преднастроенная PaaS-платформа, которую можно использовать для обработки данных (например, ETL). С её помощью ресурсы контейнеров и вычислений масштабируются эластично — вверх или вниз — в зависимости от потребностей динамичных AI-, аналитических и прикладных нагрузок. Платформа предоставляет самообслуживание в соответствующих требованиям средах без необходимости внутренних тикетов, позволяя архитекторам и дата-сайентистам тестировать инновации в производственных условиях корпоративного уровня.

Сервисы данных в реальном времени

Чтобы поддерживать агентные приложения, требующие мгновенного доступа и обработки данных, Tanzu Data Intelligence предоставляет мощные сервисы реального времени. В их числе — in-memory data grid, обеспечивающий отклик в реальном времени и высокую параллельность для агентных приложений и AI-сервисов. Эти возможности позволяют предприятиям предоставлять опыт работы с данными в реальном времени, поддерживая приложения, которым нужны моментальные инсайты и реакции — например, для выявления мошенничества, персонализированных взаимодействий с клиентами и оперативного мониторинга.

Продвинутая аналитика и AI/ML

Встроенная поддержка предиктивных моделей, векторной обработки и агентных рабочих процессов позволяет разработчикам и дата-сайентистам быстрее создавать AI-приложения. Это открывает новые инновационные сценарии, такие как объединение традиционных SQL-запросов с семантическим поиском, позволяя выполнять поиск схожих данных в векторизованной форме прямо внутри платформы. Такая возможность эффективного сравнения многомерных данных особенно полезна для приложений, требующих контекстного понимания — рекомендательных систем, обработки естественного языка и распознавания изображений — в масштабе предприятия.

Совокупность этих уровней делает Tanzu Data Intelligence мощной платформой для современных предприятий без необходимости перестраивать существующую инфраструктуру данных — от бизнес-аналитики до агентного AI и от управляемого самообслуживания до масштабируемых встроенных в приложения решений.

Более безопасный доступ к данным для AI с Tanzu Data Intelligence

Tanzu Data Intelligence — это комплексная платформа интеллектуальной работы с данными для организаций, уделяющих особое внимание безопасности и работающих в локальных средах. Платформа создана для лидеров в области данных, команд платформенной инженерии, специалистов по AI/ML и разработчиков приложений, которым нужен быстрый, безопасный и управляемый доступ к корпоративным данным в разных средах.

С Tanzu Data Intelligence предприятия готовы удовлетворять растущие требования AI-native приложений. Независимо от того, модернизируете ли вы аналитику, внедряете сценарии AI или упрощаете операции с данными, Tanzu Data Intelligence может стать основой для полного раскрытия потенциала ваших данных в любой среде, обеспечивая достижение значимых бизнес-результатов.

01/09/2025
VMware

VMware представила обновленный RabbitMQ 4.2

Продукт RabbitMQ прошёл долгий путь от первых дней как лёгкий брокер сообщений до того, чтобы стать одной из самых широко используемых в мире платформ для обмена сообщениями с открытым исходным кодом. Теперь под управлением Broadcom, решение VMware Tanzu RabbitMQ продолжает развиваться с возможностями корпоративного уровня и акцентом на производительность, наблюдаемость и опыт разработчиков. С предстоящим выпуском версии 4.2, анонсированной на конференции Explore 2025, VMware рада представить мощные новые функции — такие как запланированные и отложенные сообщения, поддержку Federation и Shovel, SQL-селекторы сообщений для Streams, перехватчики сообщений, расширенную наблюдаемость и новый браузер Streams — делая его ещё более подходящим для современных приложений, основанных на событиях и работающих с AI.

Сообщения как основа Tanzu Data Intelligence

Как ключевой компонент недавно представленного пакета Tanzu Data Intelligence, RabbitMQ обеспечивает гибкость данных, устраняя проблемы их фрагментации благодаря поддержке различных протоколов — от IoT до критически важной инфраструктуры обмена сообщениями для крупнейших финансовых институтов и государственных организаций. Сложность инфраструктуры может быть уменьшена с помощью Tanzu RabbitMQ за счёт проверенной модернизации устаревших шаблонов обмена сообщениями. RabbitMQ поддерживает как традиционный обмен сообщениями, так и постоянный стриминг с расширенной фильтрацией сообщений «на лету». Это позволяет отказаться от традиционного пакетного подхода к загрузке данных (который вызывает узкие места в рабочих процессах), а также помогает обеспечить доставку нужных данных из множества источников в нужное место в реальном времени благодаря расширенной маршрутизации сообщений, встроенной в Tanzu RabbitMQ, создавая настоящую событийно-ориентированную архитектуру.

Давайте рассмотрим новые функции подробнее.

Shovel

Это значительное обновление одного из самых популярных плагинов Tanzu RabbitMQ включает важные улучшения: осведомлённость о кластере, прозрачность протоколов сообщений и общее повышение производительности. Shovel широко используется тысячами пользователей для надёжной передачи сообщений между брокерами RabbitMQ — как внутри одного кластера, так и между разными кластерами. Ключевым нововведением является снятие ограничений, накладываемых AMQP 0.9.1, что делает Shovel более гибким, чем когда-либо. Теперь он может бесшовно взаимодействовать в различных системах, независимо от используемого протокола сообщений, что значительно расширяет его применимость в гетерогенных средах.

SQL-выражения фильтрации для Streams

Основываясь на ключевых возможностях релиза Tanzu RabbitMQ 4.1, который представил фильтрацию AMQP 1.0, эта новая функция представляет собой значительный шаг вперёд в возможностях фильтрации сообщений для стримов. Хотя фильтры AMQP 1.0 позволяли получателям сопоставлять несколько значений из разделов properties и application-properties, включая поиск по префиксу и суффиксу, они были несколько ограничены по сравнению с SQL-подобной фильтрацией. Новая функция обеспечивает гораздо большую гибкость и более мощные возможности фильтрации, предлагая SQL-подобный синтаксис для выборки сообщений внутри стримов. Это логичное развитие AMQP 1.0 и Streams, напрямую основанное на фильтрах AMQP, представленных в Tanzu RabbitMQ 4.1. Это улучшение позволяет реализовать гораздо более мощные и сложные сценарии потоковой обработки в RabbitMQ. В сочетании с ранее представленным подходом на основе фильтрации bloom общее качество фильтрации в RabbitMQ Streams становится колоссальным.

Перехватчики сообщений

Эта простая, но мощная функция позволяет разрабатывать плагины, которые могут перехватывать как входящие, так и исходящие сообщения через протоколы AMQP 0.9.1, AMQP 1.0 и MQTT. Такие плагины предоставляют широкий спектр возможностей: от проверки метаданных сообщений и добавления аннотаций для расширенного контекста до выполнения побочных эффектов, таких как логирование или аудит.

В настоящее время доступны три основных перехватчика:

  • Timestamp (входящий и исходящий) — позволяет точно фиксировать или изменять временные метки сообщений при входе и выходе из системы, что критически важно для аудита и анализа производительности.
  • Routing node — обеспечивает видимость или контроль за маршрутизирующим узлом, через который проходит сообщение, что полезно для отладки и понимания потоков сообщений.
  • MQTT client ID — позволяет перехватывать и изменять сообщения на основе MQTT client ID, предоставляя более тонкий контроль в приложениях на базе MQTT.

Улучшенная наблюдаемость

Поддержание здоровья и производительности высоконадёжных Quorum Queues стало проще, чем когда-либо. Теперь можно отслеживать количество сегментных файлов для Quorum Queues напрямую через Prometheus-эндпоинт RabbitMQ в связке с Grafana-дашбордами. Эта важная возможность позволяет пользователям проактивно следить за тем, чтобы эти надёжные очереди не были перегружены, помогая выявлять потенциальные проблемы паблишеров/потребителей до того, как они перерастут в сбои сервиса.

Внутренние доработки

  • Log compaction — хотя напрямую невидимо для конечных пользователей, это фундаментальное изменение крайне важно для высоконадёжного типа очередей Quorum Queues. Оно радикально изменяет текущую FIFO-природу (first-in, first-out) Quorum Queues, вводя новую модель, которая повышает гибкость использования этого критического типа очередей. В результате также достигаются заметные преимущества в производительности, что делает систему очередей более эффективной и надёжной.
  • Khepri — по умолчанию — новое хранилище метаданных Khepri теперь назначено по умолчанию для всех новых кластеров RabbitMQ. Это стратегическое решение позволяет новым развёртываниям сразу же воспользоваться расширенными возможностями и стабильностью, которые предлагает Khepri, упрощая управление кластерами и улучшая общую надёжность системы.
  • Federation — ранее объединённые в один плагин, функции федерации очередей и обменников теперь стратегически разделены. Это создаёт два независимых и более специализированных плагина, обеспечивающих большую гибкость и более простое управление для пользователей, разворачивающих федеративные окружения RabbitMQ.

VMware Tanzu RabbitMQ 4.2 представляет собой значительный шаг вперёд в поддержке современных микросервисных архитектур и ускорении циклов разработки. Благодаря надёжным и гибким возможностям обмена сообщениями Tanzu RabbitMQ предоставляет необходимую основу для распределённых систем, обеспечивая бесшовное взаимодействие между независимыми сервисами. Более того, его обширная коллекция клиентских библиотек для различных языков программирования значительно упрощает интеграцию, позволяя разработчикам быстро создавать и развертывать приложения с непревзойдённой эффективностью.

29/08/2025
VMware

VMware представила VMware Tanzu Greenplum 7.6

С появлением VMware Tanzu Data Intelligence предприятия получают единую, готовую к использованию AI-платформу данных, построенную на современной архитектуре lakehouse. Она способна бесшовно интегрировать различные типы данных, ускорять аналитику и обеспечивать встроенное управление по принципу «governance by design». В качестве ключевого аналитического ядра этой архитектуры VMware Tanzu Greenplum привносит массово-параллельную обработку и машинное обучение внутри базы данных в сам центр обработки данных корпоративного масштаба. Tanzu Greenplum обеспечивает высокопроизводительные возможности запросов, аналитики и обучения моделей, которые делают Tanzu Data Intelligence настоящим фундаментом для современных, основанных на данных и поддерживаемых AI-приложений. Анонсированная на VMware Explore 2025 версия Tanzu Greenplum 7.6 продолжит эту роль, предлагая значительные обновления, направленные на повышение скорости, устойчивости и гибкости.

Релиз Tanzu Greenplum 7.6 формировался, исходя из потребностей современного аналитического сообщества. В этой версии появляется прорывная возможность: Implied Index, также известный как Ghost Index, для сверхбыстрой аналитики на колоночных таблицах. Но это только начало. Tanzu Greenplum 7.6 также обеспечит молниеносное выполнение запросов и автоматическое, бесшовное восстановление после сбоев, предоставляя вашей платформе данных скорость, устойчивость и гибкость для масштабной современной аналитики.

Поддержка Ghost Index: Implied Index для AO-колоночных таблиц

Теперь вы можете достичь более высокой производительности запросов на колоночных таблицах без накладных расходов традиционных индексов. Append-Optimized (AO) Columnar Store в Tanzu Greenplum спроектирован для эффективной, высокоскоростной аналитики за счет устранения необходимости в ресурсоемких индексах и их постоянном обслуживании.

Как это работает:

  • Напрямую определяет совпадающие строки из колоночных данных, минимизируя лишние чтения
  • Материализует только строки, удовлетворяющие условиям запроса, экономя ресурсы
  • Объединяет битовые фильтры по столбцам для легкой обработки условий нескольких колонок

Эта архитектура без индексов идеально подходит для аналитических нагрузок с избирательными условиями WHERE, обеспечивая более быструю и масштабируемую производительность при минимальной сложности эксплуатации и низких затратах на хранение.

Улучшения производительности

Tanzu Greenplum 7.6 включает ряд функций и обновлений, повышающих производительность:

Ускорение за счет аппаратно-оптимизированного CRC

Tanzu Greenplum 7.6 использует векторные инструкции AVX-512 carry-less multiplication для ускорения вычислений CRC (циклический избыточный код), критически важных для операций, таких как целостность чтения/записи WAL и доступ к AO-таблицам. Используя высокопроизводительные инструкции AVX-512 для расчета контрольных сумм, Tanzu Greenplum 7.6 достигает более чем на 50% более быстрой обработки CRC. Эта низкоуровневая оптимизация имеет реальный эффект: рабочие нагрузки SELECT на широких таблицах показывают до 40% улучшения скорости запросов, что делает аналитику значительно быстрее и отзывчивее в масштабах.

Оптимизация соединений по столбцам с большим числом NULL-значений

Tanzu Greenplum 7.6 обеспечивает более умную оптимизацию запросов с избирательной фильтрацией соединений с учетом NULL, работающей на GPORCA. В сценариях, где ключи соединений содержат много NULL-значений, ненужные строки могут снижать производительность. Теперь Greenplum может интеллектуально применять фильтры IS NOT NULL для исключения строк, которые не могут совпасть — сокращая затраты на соединения и избегая дорогого перемещения данных.

Важно добавлять предикат IS NOT NULL только тогда, когда это действительно полезно. Для пояснения рассмотрим следующий SQL-запрос, который определяет торговых представителей и их регионы:

SELECT a.id, a.name, r.region_name F
ROM associates a 
INNER JOIN regions r ON a.region_code = r.region_code; 

В этом случае добавление условия a.region_code IS NOT NULL полезно только тогда, когда есть много сотрудников без назначенного региона. Вот где GPORCA особенно эффективен: он применяет эту оптимизацию только тогда, когда это дает измеримую выгоду, избегая ее в случаях, как outer join, или когда совпадения с NULL допустимы.

Результатом является потенциал более быстрых запросов, меньших затрат ресурсов и интеллектуальной оптимизации, адаптирующейся под ваши данные.

Оптимизация запросов к таблицам, распределенным по гетерогенным сегментам

Greenplum 7.6 делает масштабирование хранилища данных умнее благодаря улучшенной оптимизации запросов для несоразмещенных таблиц с помощью GPORCA. При расширении кластера бывает, что некоторые таблицы временно находятся на разных подмножествах сегментов до завершения перераспределения, что ведет к возможным потерям производительности.

В этой версии GPORCA автоматически вводит правильные стратегии перемещения данных для выравнивания таблиц на общих сегментах, обеспечивая более эффективное и стабильное выполнение запросов, даже если распределение временно несбалансировано.

Независимо от того, увеличиваете ли вы кластер или управляете динамическими нагрузками, Greenplum 7.6 обеспечивает плавную производительность на каждом этапе масштабирования.

Другие улучшения GPORCA

В этой версии команды смогут повысить производительность для еще более сложных нагрузок, включая:

  • LATERAL JOIN для более выразительных и гибких шаблонов запросов
  • Статическое и динамическое исключение секций в многоуровнево разделенных таблицах, ускоряя сканирование за счет пропуска нерелевантных данных
  • Более быстрые пути оптимизации для коротких запросов, что снижает накладные расходы на планирование и ускоряет получение результатов

В итоге, будь то ad hoc-запросы или масштабная аналитика, Tanzu Greenplum 7.6 обеспечивает более умное, быстрое и эффективное выполнение прямо «из коробки».

Повышение устойчивости

Автовосстановление кластера Greenplum

Tanzu Greenplum 7.6 модернизирует управление кластерами благодаря новой функции автоворстановления, разработанной для снижения нагрузки на администраторов БД путем автоматического обнаружения и восстановления поврежденных сегментов. Выполняя инкрементальные попытки восстановления с настраиваемыми интервалами (например, каждую минуту), эта возможность позволяет вашему кластеру оставаться здоровым и доступным при минимальном вмешательстве вручную.

Ненавязчивый механизм автоворстановления может избегать автоматической ребалансировки сегментов, позволяя нагрузкам продолжать выполняться плавно. Когда ребалансировка необходима, ее можно инициировать вручную или для конкретных сегментов, что дает полный контроль.

Работая на основе надежного фреймворка gpservice task, эта функция позволяет настраивать количество повторов и таймауты под нужды вашей среды, обеспечивая гибкое, бесшовное восстановление, которое сохраняет устойчивость и производительность вашего Greenplum-кластера — автоматически и без усилий.

Улучшенное дифференциальное восстановление

Greenplum 7.6 улучшает устойчивость кластера благодаря значительно более быстрому дифференциальному восстановлению, которое в большинстве случаев превосходит полное. Это стало возможным благодаря ключевым инновациям:

  • Параллельное выполнение rsync для сверхбыстрой передачи данных
  • Опция --inplace в rsync для снижения нагрузки на диск
  • Продвинутые пакетные проверки контрольных сумм для оптимизированных проверок целостности

Вместе эти улучшения сокращают окна восстановления и максимизируют доступность системы, так что ваш кластер Greenplum может восстанавливаться быстрее, не прерывая аналитику.

VMware Tanzu Greenplum 7.6 создан с акцентом на скорость и устойчивость. Попробуйте более быструю аналитику на колоночных таблицах с Ghost Index. Благодаря улучшенному оптимизатору GPORCA Greenplum 7.6 обеспечивает более умные и быстрые запросы — даже в самых сложных сценариях — а интеллектуальное автоворстановление кластера и молниеносное дифференциальное восстановление позволяют вашей системе оставаться в рабочем состоянии с минимальными усилиями.

26/08/2025
VMware

VMware запускает 5 новых сертификаций и экзаменов для VCF/VVF версии 9

VMware недавно объявила о выпуске пяти новых экзаменов для профессиональной сертификации, основанных на версии 9 их платформы Cloud Foundation. Эти сертификаты представляют собой значительную эволюцию в портфеле сертификаций VMware, отражая продолжающееся новаторство компании в области технологий Cloud Foundation и виртуализации под руководством Broadcom.

Новый пакет сертификаций включает специализированные направления как для VMware Cloud Foundation (VCF), так и для VMware vSphere Foundation (VVF), охватывая ключевые роли — от администрирования и поддержки до архитектуры. Каждая сертификация предназначена для подтверждения навыков, необходимых для управления современной облачной инфраструктурой, устранения неполадок и проектирования в корпоративной среде.

Обзор нового портфеля сертификаций

Итак, появилось пять новых сертификаций уровня VMware Certified Professional (VCP):

Эти сертификации отвечают растущему спросу на квалифицированных специалистов, которые могут эффективно внедрять, администрировать, поддерживать и проектировать частные облака с использованием новейших технологий VMware. Каждый экзамен проводится в едином формате: 60 вопросов с несколькими вариантами ответов, продолжительность — 135 минут, проходной балл — 300, стоимость попытки — 250 долларов.

Подробное рассмотрение каждой сертификации

1. VMware Certified Professional - VMware vSphere Foundation Support (2V0-18.25)

Эта сертификация является важной стартовой точкой для ИТ-специалистов, стремящихся углубиться в поддержку и устранение неполадок в средах VMware vSphere Foundation (VVF). Она подтверждает владение стандартными методиками диагностики и устранения проблем, возникающих при развертывании и эксплуатации VVF. Экзамен охватывает архитектуру VVF, включая основные функции, компоненты и модели работы.

Ключевые технические области:

  • Операции с VCF
  • Администрирование vCenter Server
  • Управление гипервизором VMware ESX
  • Работа с хранилищами VMware vSAN
  • VMware Operations для централизованного логирования и мониторинга

Эта сертификация ценна для специалистов, переходящих от традиционной поддержки инфраструктуры к поддержке облачных виртуализированных систем. Подготовка возможна по Exam Study Guide, регистрация — через портал Broadcom.

2. VMware Certified Professional - VMware Cloud Foundation Administrator (2V0-17.25)

Эта сертификация предназначена для ИТ-специалистов, ответственных за ежедневное администрирование и управление средами VMware Cloud Foundation (VCF). Она подтверждает навыки по развертыванию, управлению и поддержке частных облаков на базе VCF. Адресована системным администраторам, облачным администраторам и специалистам по инфраструктуре, переходящим от традиционных ролей к обязанностям в области облачных технологий.

Основные темы: развертывание, администрирование, оптимизация производительности, настройка безопасности и устранение неполадок. Рекомендуемые курсы:

  • VMware Cloud Foundation: Build, Manage, and Secure
  • VMware Cloud Foundation: Automate and Operate

Подготовка — через Exam Study Guide, регистрация — в официальном портале Broadcom.

3. VMware Certified Professional - VMware Cloud Foundation Support (2V0-15.25)

Эта сертификация фокусируется на специалистах поддержки VMware Cloud Foundation. Она подтверждает умение диагностировать и устранять проблемы в частных облаках на базе VCF. Подходит для тех, кто переходит от традиционной поддержки инфраструктуры к ролям Cloud support или Site Reliability Engineer (SRE).

Сертификация охватывает:

  • Продвинутые методики диагностики
  • Инструменты анализа производительности
  • Стратегии устранения сложных инцидентов

Рекомендуемый курс: "VMware Cloud Foundation: Troubleshooting". Доступны Exam Study Guide и регистрация через портал Broadcom.

4. VMware Certified Professional - VMware Cloud Foundation Architect (2V0-13.25)

Это наиболее продвинутая сертификация уровня VCF, подтверждающая навыки архитектурного проектирования решений VMware Cloud Foundation. Она ориентирована на архитекторов инфраструктуры и консультантов, которые разрабатывают масштабируемые, отказоустойчивые и безопасные решения.

Основные темы:

  • Методологии проектирования
  • Планирование ёмкости
  • Высокодоступные и отказоустойчивые архитектуры
  • Безопасность и интеграция с существующей инфраструктурой.

Рекомендуемый курс: "VMware Cloud Foundation: Solution Architecture and Design". Подготовка — по Exam Study Guide, регистрация — через портал Broadcom.

5. VMware Certified Professional - VMware vSphere Foundation Administrator (2V0-16.25)

Эта сертификация подтверждает компетенции специалистов, администрирующих среды VMware vSphere Foundation (VVF). Она охватывает:

  • Развертывание и конфигурацию
  • Администрирование виртуальных машин
  • Распределение ресурсов
  • Мониторинг производительности
  • Настройку безопасности и устранение неполадок

Сертификация ориентирована на администраторов виртуальных сред. Рекомендуемый курс: "vSphere Foundation: Build, Manage and Secure". Подготовка — через Exam Study Guide, регистрация — на портале Broadcom.

Заключение

Запуск пяти новых сертификаций отражает стремление VMware укреплять лидерство в области облачных технологий. Они позволяют ИТ-специалистам строить карьеру в направлениях поддержки, администрирования и архитектуры. В версии 9 сертификации учитывают последние возможности и лучшие практики, что особенно важно в условиях быстрого развития технологий. Каждая сертификация обеспечивает уникальный путь профессионального развития и подтверждает как технические навыки, так и стремление к постоянному обучению.

21/08/2025
VMware

Новые возможности VMware Cloud Foundation Operations 9.0

Оптимальная ИТ-инфраструктура характеризуется способностью поддерживать растущее количество рабочих нагрузок со временем и управлять колебаниями требований к ресурсам в реальном времени при сохранении максимальной производительности. VMware Cloud Foundation 9 облегчает внедрение облачной операционной модели в масштабах организации, тем самым ускоряя гибкость ИТ, повышая масштабируемость инфраструктуры, улучшая безопасность и снижая совокупную стоимость владения.

20/08/2025
VMware

Новые возможности VMware VCF Automation 9.0

Наступают интересные времена для автоматизации облачной инфраструктуры - платформа VMware Cloud Foundation (VCF) 9.0 уже здесь, и она готова революционизировать подход к частному облаку. В основе VCF 9.0 лежит решение VCF Automation 9, обеспечивающая удобный опыт работы с частным облаком в рамках рабочих процессов самообслуживания.

Этот релиз привносит множество новых возможностей автоматизации облачной инфраструктуры, которые помогут ускорить инновации в приложениях, снизить затраты и масштабировать управление и соответствие требованиям - как никогда раньше.

Давайте рассмотрим три революционных инновации в проектировании частного облака, которые уже доступны.

1. IaaS для частного облака в стиле публичного облака прямо "из коробки"

Современный облачный интерфейс

Потребители частного облака — включая разработчиков, инженеров DevOps и платформенных инженеров - будут рады тому, что VCF обеспечивает опыт потребления, аналогичный публичному облаку, для команд, создающих приложения в защищённой частной среде с поддержкой GPU (AI), Kubernetes, защиты данных, сетевых сервисов Virtual Private Cloud (VPC), которые предоставляются напрямую через базовую платформу vSphere в рамках Modern Cloud Interface.

Modern Cloud Interface открывает новые сервисы частного облака (подобные сервисам публичного облака) по всем окружениям VCF / vCenter и агрегирует их в единый общий эндпоинт, который может быть использован через различные интерфейсы: графический UI, CLI или декларативный Kubernetes IaaS API для самообслуживания. VCF Automation абстрагирует ресурсы во всех окружениях VCF и предоставляет единый интерфейс потребления.

Сервисы частного облака

Основные облачные сервисы, доступные «из коробки», включают: виртуальные машины (VM), vSphere Kubernetes Service (VKS), сеть, тома хранения и образы виртуальных машин. Команды разработчиков, DevOps и инженеров платформы могут использовать Modern Cloud Interface для потребления любых ресурсов через Kubernetes IaaS API на Supervisor, включая сервис VKS для развертывания кластеров Kubernetes и VM Service, позволяющий декларативно описывать и создавать виртуальные машины, и многое другое.

Команды приложений, предпочитающие использовать Kubernetes для оркестрации приложений, по достоинству оценят гибкость и адаптируемость VCF Automation. Они могут использовать K8s-манифесты для развертывания виртуальных машин и кластеров VKS (как объектов K8s), что обеспечивает более гибкий и оперативный процесс разработки. Также доступны действия второго дня (Day-2), например, масштабирование кластеров VKS, включение/выключение виртуальных машин и т. д. Такой уровень контроля вселяет уверенность и обеспечивает более эффективное управление.

VCF Automation: сервис виртуальных машин (VM Service) настраивается через UI и YAML-манифесты ресурсов K8s.

VCF Automation: сервис VKS настраивается через UI и YAML-манифесты ресурсов K8s.

Кроме того, в то время как публичные облака просто предоставляют вам стандартный upstream-кластер Kubernetes, на который вы устанавливаете своё приложение (EKS, AKS, GKE), VCF идёт дальше. VMware продолжает добавлять новые расширяемые сервисы — службы частного облака, расширяющие платформу VCF. К расширяемым сервисам относятся: хранилище образов Harbor, контроллер входящего трафика Contour Kubernetes Ingress Controller, служба сертификатов cert-manager, Istio Service Mesh, ExternalDNS, оператор Data Services Manager (DSM) Consumption, Secret Store и т.д.

Администратор корпоративной инфраструктуры может активировать эти сервисы на Supervisor, включив сертифицированные операторы или сервисы, и тем самым сделать их легко доступными. Команды приложений могут развертывать, управлять и изменять эти конструкции — например, создавать базу данных в DSM или развернуть Postgres БД и т.п.

:

Проектирование (Blueprinting) и инфраструктура как код

Кроме того, в VCF Automation реализован подход blueprinting, который помогает интегрировать различные задачи. Blueprint — это настраиваемый шаблон, в котором вы определяете виртуальные машины, сеть, хранилище и другие инфраструктурные ресурсы для своей среды. Платформенные инженеры могут использовать визуальное дизайнерское полотно и возможности Infrastructure as Code, чтобы создать целостную процедуру. Это может включать развертывание виртуальных машин, кластеров VKS и развертывание приложений на этих ресурсах. Инженеры также могут реализовать рабочую станцию AI с поддержкой GPU и возможностями RAG (Retrieval-Augmented Generation). Blueprint’ы могут находиться под управлением системы контроля версий и храниться в репозиториях, таких как GitHub, GitLab или Bitbucket. Кроме того, их можно публиковать в каталоге самообслуживания, чтобы разработчики и инженеры DevOps могли получать к ним доступ.

ИТ-команды могут наделить команды разработчиков возможностью получать инфраструктуру тогда, где и как им это нужно, что повышает продуктивность разработчиков и удовлетворённость пользователей.

2. Изолированные частные облака для каждой из ваших организаций

Управление арендаторами (Tenant Management)

Стать собственным провайдером облака стало гораздо проще. VCF Automation внедряет новые возможности управления арендаторами. Через Provider Portal администраторы могут выделять ресурсы, изолировать инфраструктуру и сегментировать сети с помощью VPC, создавая изолированные частные облака для каждой из организаций. Новые возможности мульти-арендности помогают обеспечить безопасность, предотвращая несанкционированный доступ или взаимодействие между разными группами пользователей или ресурсами.

Звучит сложно? Не стоит беспокоиться. В VCF 9.0 VCF Automation был переработан, чтобы упростить переход администраторов к масштабированию мультиарендного частного облака. Интерфейс теперь основан на намерениях и построен вокруг зон Manage & Govern, Build & Deploy и Administer.

VCF Automation предоставляет упрощённый способ начать создание окружения с помощью мастера быстрого запуска (quick start wizard). Например, администратор (Enterprise IT Admin), не имеющий опыта работы с мультитенантностью, может быстро и легко начать настройку организаций (тенантов) как облачный провайдер через мастер. Пошаговые процессы помогают администраторам понять, какие облачные концепции / конструкции управления и конфигурации необходимы, что позволяет им эволюционировать в "облачных администраторов".

Следуя пошаговому мастеру, администратор может настроить одну Организацию для типичного предприятия или несколько Организаций — для компаний, которым требуется изоляция инфраструктуры. Кроме того, он может выделять ресурсы и назначать квоты инфраструктуры для каждой Организации.

Затем администратор организации (Org Admin), отвечающий за управление конкретной Организацией, может создать Проект(ы) через портал Организации. Проекты можно создавать для различных бизнес-направлений (LOB) (например, бизнес-подразделения, команды приложений и т. д.) внутри Организации, и ими управляют LOB-администраторы. Org Admin также может настроить управление доступом (Identity Access Management). Это позволяет логически группировать несколько LOB-пользователей внутри Организации и применять согласованные политики управления для групп с похожими потребностями, упрощая контроль и безопасность.

Org Admin создаёт пространства имен (Namespaces - ресурсные контейнеры, определяющие лимиты ресурсов — CPU, память и хранилище для рабочих нагрузок) с использованием шаблонов Namespace Classes. Далее Org Admin выбирает VPC (домены сетевой изоляции) для создания пространств имен. Каждому пространству можно назначить одну или несколько VPC, которые могут использоваться совместно между несколькими пространствами имен, позволяя командам приложений использовать общую сеть, если необходимо.

Project Namespaces позволяют Org Admin-ам организовывать приложения и рабочие нагрузки по бизнес-назначению и владельцам, что облегчает применение различных политик безопасности и операционного контроля по приложениям/рабочим нагрузкам и средам.

После того как все окружения настроены, VCF предоставляет Enterprise IT Admin-ам, Org Admin-ам и LOB Admin-ам новые возможности Tenant Operations для упрощения управления и потребления инфраструктурных ресурсов. Enterprise IT Admin получает обзор всей ИТ-инфраструктуры через VCF Operations — видит все созданные Организации, общую ёмкость инфраструктуры и общую стоимость частного облака.

Org Admin может отслеживать свою конкретную Организацию, Проекты, Namespaces, политики и пользователей через портал Организации. Он может мониторить общее использование вычислительных ресурсов, памяти и хранилища. Такая расширенная видимость потребления облачной инфраструктуры (операционные метрики из VCF Operations) позволяет принимать более обоснованные решения и проактивно управлять ресурсами на уровне предприятия и вплоть до уровня отдельных проектов.

Управление контентом

Управление и совместное использование стандартизированного контента между Организациями и Проектами стало намного проще.

  • Централизованное управление библиотеками контента

Хорошая новость - время pub/sub-модели и хаотичной синхронизации ушло в прошлое. Благодаря новым возможностям управления контентом, Enterprise IT Admin может централизовать управление библиотеками контента в VCF Automation, вместо того чтобы управлять ими на множестве серверов vCenter. Теперь можно легко обнаруживать, создавать и назначать библиотеки контента непосредственно в VCF, что устраняет сложность и упрощает управление.

VCF Automation обнаруживает все библиотеки контента во всех vCenter и автоматически синхронизирует их в фоновом режиме. В версии VCF 9.0 вы также можете создавать новые библиотеки контента прямо в VCF Automation, добавлять в них один или несколько образов виртуальных машин и назначать их одной или нескольким Организациям по мере необходимости. Это позволяет распределять существующие или новые образы ВМ и/или библиотеки контента между несколькими Организациями. Более того, можно использовать одну и ту же библиотеку контента в нескольких vCenter для определённых регионов, что позволяет масштабировать управление контентом.

  • Использование Content Hub для управления и публикации контента

Также в VCF 9.0 появился Content Hub, предназначенный для Org Admin-ов и LOB Admin-ов, где можно управлять контентом в одном месте и публиковать его в каталог самообслуживания одним кликом, упрощая распространение и управление контентом. Через Content Hub администраторы могут централизованно управлять ресурсами, такими как библиотеки контента, образы ВМ, blueprints и рабочие процессы оркестрации. Всё это можно удобно организовать в одном месте, упрощая совместное использование между различными проектами.

Это повышает эффективность и производительность, сокращая трудозатратные ручные операции, связанные с управлением контентом между различными группами пользователей (например, поиском нужных ресурсов и выяснением, кто чем пользуется). Org Admin и LOB Admin могут эффективно управлять и обновлять контент, обеспечивая команды приложений актуальными стандартизированными ресурсами, которые можно потреблять самостоятельно и независимо.

3. Простое управление благодаря встроенным "ограничителям" (guardrails)

Пора избавиться от необходимости использовать разные инструменты для управления политиками. VCF Automation 9.0 позволяет Org Admin-ам создавать собственные политики для IaaS-ресурсов, используя новый YAML-формат Policy as Code прямо в платформе VCF — без необходимости в сторонних инструментах или расширениях.

Новые политики для IaaS-ресурсов основаны на нативной технологии Kubernetes Validating Admission Policy, что упрощает контроль использования ресурсов виртуальными машинами и кластерами VKS по различным Организациям и пространствам имен в vSphere.

Это становится особенно мощной возможностью для Org Admin-ов, когда Enterprise IT Admin включает самообслуживаемое развертывание кластеров VKS в мульти-тенантной среде. Org Admin может программно применять политики на уровне инфраструктуры, последовательно во всей Организации или для конкретных Проектов.

Политики для IaaS-ресурсов в формате "policy as code" не только масштабируют процессы управления и контроля, но также снижают риск человеческих ошибок и обеспечивают соответствие инфраструктурных ресурсов требованиям организации, повышая уровень комплаенса. Org Admin-ы, не имеющие опыта работы с policy as code, могут использовать новые предопределённые шаблоны политик, доступные «из коробки» в VCF Automation, чтобы быстро начать централизованное управление ресурсными политиками.

Единый опыт потребления облака

Инновации VCF Automation в версии VCF 9.0 реализуют ключевые преимущества, важные для современных предприятий, использующих рабочие нагрузки на основе виртуальных машин и контейнеров — особенно в условиях стремительного роста внедрения AI. Платформа VCF обеспечивает простоту управления всей инфраструктурой как единым облаком. Она сочетает гибкость и масштаб публичного облака с безопасностью и производительностью частного. Благодаря ориентации на потребности команд приложений, VCF 9.0 превращает инфраструктуру в единое, бесшовное облако, которое удобно потреблять — ускоряя инновации в области приложений.

18/08/2025
VMware

Вышел VMware Data Services Manager (DSM) 9.0 - что нового?

Data Services Manager (DSM) 9.0 теперь доступен, и организации стремятся понять, как использование этого дополнения к VMware Cloud Foundation (VCF) может помочь им в реализации решения DBaaS в локальной среде. В этом посте будут рассмотрены убедительные преимущества DSM, адаптированные для трех различных ролей: администратора, DBA и конечного пользователя/разработчика.

Преимущества DSM для администратора виртуальной инфраструктуры

Контроль размещения и отказоустойчивости

Прежде всего, этот продукт разработан с учетом требований администратора виртуальной инфраструктуры. Цель была помочь ему контролировать «разрастание данных» и сохранять контроль над размещением баз данных и сервисов данных в инфраструктуре vSphere. Это достигается посредством конструкции DSM, называемой политикой инфраструктуры. Она определяет, какие вычислительные ресурсы, хранилище, сети и даже какая папка ВМ используются для размещения конкретной базы данных. Это не только упрощает общее управление и использование инфраструктуры, но также помогает с контролем лицензирования, прогнозированием, биллингом и т. д. Такое размещение и контроль становятся еще более детализированными с VCF 9.0, где DSM может использовать политику инфраструктуры на основе пространства имен vSphere для развертывания баз данных и сервисов данных. Администратор создает пространства имен vSphere в Supervisor. Как администратор vSphere, он устанавливает лимиты на CPU, память и хранилище в пространстве имен vSphere.

Через политику инфраструктуры администратор также может определить отказоустойчивость базы данных. В то время как DBA может выбрать, будет ли база данных автономной (один узел) или кластерной (три узла), политика инфраструктуры определит размещение кластерной базы данных с точки зрения vSphere. По умолчанию DSM разместит три виртуальные машины кластерной базы данных на разных хостах ESX в одном кластере vSphere. Однако администратор также может создать межкластерную политику инфраструктуры, которая, будучи выбранной DBA, разместит разные узлы одного и того же кластера базы данных в разных кластерах vSphere, обеспечивая еще более высокий уровень доступности.

Видимость и аналитика

Хотя DSM имеет собственный интерфейс и API, не хотелось бы, чтобы администратор «переключался» между разными интерфейсами при мониторинге баз данных и сервисов данных, развернутых DSM на vSphere. Поэтому VMware интегрировала в клиент vSphere возможность просмотра сведений о базах данных и сервисах данных. С одного взгляда администратор может увидеть список развернутых баз данных, имя экземпляра базы, тип движка (Postgres, MySQL, MS SQL) в клиенте vSphere, а также статус БД, версию, уровень оповещений, число узлов, отказоустойчивость, политику инфраструктуры, политику хранения и т. д. Администраторы могут перейти к более детализированному просмотру и увидеть соответствующее имя виртуальной машины, сведения о размещении, а также использование CPU, памяти и дисков. Хотя это само по себе полезно для администратора, это также чрезвычайно полезно для обсуждений между администраторами и DBA по всем аспектам инфраструктуры, потребляемой базой данных, когда требуется понять использование ресурсов, производительность, масштабирование и другие характеристики. Пример такого представления приведен ниже.

Интеграция с vSphere и VMware Cloud Foundation

DSM интегрируется с основными инфраструктурными продуктами vSphere. В предыдущем параграфе мы упомянули, что администратор может просматривать сведения о базах данных через клиент vSphere. Однако также имеется интеграция с Aria Automation 8.x для тех клиентов, которые хотят использовать этот уровень интеграции. DSM поставляется с пользовательским ресурсом для Aria Automation, который после установки создает элемент каталога сервисов для поддержки DBaaS. DSM 9.0 также интегрируется с VCF Automation. Администраторы могут создавать политики службы данных и назначать эти политики различным организациям для полноценного multitenant опыта DBaaS.

Аналогично осуществляется интеграция с Aria Operations, куда DSM и соответствующие базы данных могут отправлять свои метрики. За последние несколько лет была проделана работа по этим интеграциям, включая создание ряда стандартных панелей мониторинга для различных баз данных. Также в версии VCF 9.0 значительно улучшили мониторинг баз данных - теперь все метрики отправляются в VCF Operations. Более того, метрики теперь могут отправляться из DSM 9.0 в эндпоинт Prometheus для тех клиентов, которые хотят это использовать.

Наконец, в этой секции выделим еще одну интеграцию — с Aria Operations for Logs. В один шаг DSM может отправлять все журналы как из самого DSM-апплаенса, так и из всех его баз данных в единую целевую точку. Эти журналы могут отправляться на любой SYSLOG-эндпоинт.

Все вышеперечисленные точки интеграции должны быть полезны для администраторов, использующих полный стек VCF.

Поддержка

Поддержка Broadcom охватывает управление жизненным циклом движков данных, управляемых DSM, включая развертывание, обновление ОС и программного обеспечения базы данных, масштабирование и кластеризацию. Поддержка самого движка PostgreSQL или MySQL, включая, но не ограничиваясь исправлением ошибок, проблемами производительности и устранением уязвимостей, осуществляется сообществом upstream, при этом Broadcom оказывает содействие по принципу "best-effort".

Кроме того, VMware работает с сообществом с открытым исходным кодом, чтобы предоставить полноценное исправление downstream для любых ошибок, обнаруженных клиентами. Хотя VMware не может гарантировать, когда конкретное исправление будет доступно в какой-либо из баз данных с открытым исходным кодом, они могут создавать пользовательские сборки с исправлениями, которые еще не доступны в версиях open source. Это распространенная модель поддержки для продуктов с открытым исходным кодом, и многие поставщики DBaaS используют ту же модель. Это должно дать клиентам уверенность при выборе DSM для их DBaaS решения.

Преимущества DSM для DBA

Теперь сосредоточимся на DBA и тех преимуществах, которые DSM приносит этой роли.

Интуитивно понятный интерфейс для управления парком БД

DSM предоставляет DBA единую панель управления, которая позволяет легко управлять всем парком баз данных. Ниже показана страница по умолчанию для администраторов DSM с различными параметрами управления и конфигурации.

Управление жизненным циклом

Команда DSM регулярно предоставляет обновления для DSM. Это включает обновления для виртуального модуля DSM, гостевой ОС, используемой узлами базы данных, версий Kubernetes в этих узлах, а также собственно самих баз данных. Единственное, что требуется от DBA — загрузить и подготовить обновление. Как для виртуального модуля, так и для баз данных доступны окна обслуживания. Если обновление подготовлено, и наступает окно (обычно в ночь с субботы на воскресенье), обновление применяется автоматически. Никому не нужно вручную управлять жизненным циклом ОС виртуальных машин или кластера K8s — DSM делает это автоматически. Этот аспект часто упускается при сравнении DSM с другими решениями DBaaS.

Еще один важный момент — DSM теперь умеет обновлять как основные (major), так и минорные версии базы данных. Хотя при мажорный обновлениях DBA должен проявлять осторожность (например, проверить совместимость расширений), наличие такой возможности является значительным преимуществом.

Автоматизированные резервные копии и восстановление к точке во времени

Как и управление жизненным циклом, резервное копирование может быть автоматически настроено на этапе развертывания базы данных. Если эта опция включена, DSM начнет выполнять резервные копии сразу после включения базы данных. По умолчанию для Postgres раз в неделю выполняется полный бэкап. Ежедневные бэкапы выполняются каждый день, а журналы WAL отправляются каждые 5 минут или по достижении 16 МБ — что произойдет раньше. Для MySQL и MS SQL Server существуют собственные расписания по умолчанию. Благодаря такому автоматизированному расписанию резервного копирования доступны восстановления к точке во времени для всех баз данных.

Масштабирование — In / Out / Up / Down

DSM позволяет DBA легко масштабировать топологии баз данных — от автономного узла до трехузлового кластера и обратно. Также допускается вертикальное масштабирование, путем смены класса виртуальной машины, что увеличивает доступные CPU и память. И наоборот — если ресурсы остаются неиспользованными, DBA может уменьшить класс ВМ и сократить потребление ресурсов. Это особенно полезно, например, для закрытия месяца, квартала или во время “Black Friday”, когда базе данных временно требуются дополнительные ресурсы. После окончания «пика» ресурсы можно освободить.

Клонирование

DSM позволяет DBA создавать клоны базы данных, если возникает такая необходимость. Это полезно для тестовых и девелоперских сред, когда разработчики хотят запускать запросы на «живых» данных, не затрагивая продуктивную базу.

Интеграция с LDAPS

DSM поддерживает защищенный LDAP как для доступа к самому DSM, так и к базам данных. Это делает назначение прав доступа более безопасным и удобным. При развертывании базы данных DBA может выбрать интеграцию с Directory Service и затем с помощью простого оператора GRANT предоставить LDAP-пользователям доступ к базе. Кроме того, DSM поддерживает защищенный LDAP и для собственного UI, что позволяет пользователям и разработчикам (при наличии прав) самостоятельно создавать базы данных через DSM-интерфейс. Поддерживаются как ticket-based, так и self-service подходы.

Управление сертификатами

Для обеспечения защищенного доступа к базе данных необходимы сертификаты. DSM предоставляет два варианта — использовать собственные самоподписанные сертификаты DSM или загрузить пользовательские сертификаты. DBA может применить сертификаты как при создании базы, так и после ее развертывания. UI и API DSM делают процесс добавления сертификатов очень простым. С учетом современных требований безопасности — это крайне важная функция.

Аудит и оповещения

DSM предоставляет различные механизмы для оповещений, а также встроенные функции в UI. Оповещения могут отправляться по электронной почте (SMTP), а также через webhook-механизм в сторонние системы, такие как ServiceNow или Slack. Таким образом, DBA-команда никогда не пропустит важное событие.

Для целей соответствия требованиям, DSM ведет аудит событий, который DBA может быстро просмотреть. В версии DSM 9.0 журналы аудита также передаются на настроенную систему получения логов.

Высокая отказоустойчивость

Хотя это может показаться зоной ответственности администратора, именно DBA выбирает нужный уровень отказоустойчивости при создании базы. Эти параметры управляются через инфраструктурные и storage-политики. Как упоминалось ранее, кластерные базы могут быть размещены либо в одном кластере vSphere, либо распределены по разным кластерам. DBA выбирает нужный вариант, выбирая соответствующую политику.

Шифрование

Для шифрования можно использовать функцию VM Crypt, что позволяет шифровать отдельные базы данных. Это определяется в политике хранения, входящей в инфраструктурную политику. Альтернативно можно шифровать весь datastore (например, vSAN), и тогда любая база, размещенная на нем, будет автоматически зашифрована. Оба подхода поддерживаются DSM.

Отказоустойчивость и репликация

DBA может использовать репликацию для удаленной защиты базы. При наличии нескольких сред vSphere вторичный узел Postgres может быть размещен в другой среде vSphere с другим экземпляром DSM. В UI доступны элементы управления для повышения вторичного узла в первичный и наоборот. В случае потери целой среды vSphere можно выполнить восстановление баз данных в другую среду и продолжить работу.

Host-based access при развертывании

Файл pg_hba.conf в Postgres определяет, какие пользователи из каких сетей могут обращаться к базе. Через UI DSM DBA может заранее задать правила доступа при развертывании, не заходя в базу после ее создания. Это предотвращает ситуацию, когда база находится в «незащищенном» состоянии, пока эти правила не будут вручную настроены.

Расширенные параметры при развертывании

Аналогично предыдущему пункту, DBA может задать расширенные параметры при создании базы, не выполняя это как отдельный пост-шаг. Это сокращает время развертывания.

Защита от удаления

Пользователи DSM могут восстановить базу данных после ее удаления. Период хранения удаленной базы составляет 30 дней, но может быть уменьшен или увеличен при необходимости.

Преимущества DSM для конечного пользователя/разработчика

Одной из основных задач DSM является обеспечение модели самообслуживания DBaaS. Поэтому DSM предоставляет конечным пользователям и разработчикам простой механизм для запроса и доступа к базам данных. Рассмотрим эти возможности далее.

Интуитивно понятный интерфейс

Пользователи DSM получают очень простой интерфейс, позволяющий легко создавать, обновлять и удалять базы данных по мере необходимости. Они не видят настроек конфигурации и не видят базы данных других пользователей. Для тех конечных пользователей, которые предпочитают UI для развертывания баз, это интуитивно понятный и простой процесс.

Kubernetes и REST API

VMware понимает, что многие разработчики предпочитают не использовать пользовательский интерфейс. В некоторых случаях развертывание базы данных является частью более крупного CI/CD-пайплайна для тестирования. В связи с этим DSM предоставляет как API для Kubernetes, так и REST API. Это позволяет автоматизировать развертывание баз данных через DSM. API доступны на официальном сайте DSM API.

Развертывание баз DSM из удалённых K8s-кластеров

Многие разработчики уже используют Kubernetes для разработки приложений. Эти кластеры могут быть ограничены по ресурсам, например, использовать только локальное хранилище. Кроме того, SRE-команды сталкиваются с проблемой того, что разработчики создают «неконтролируемые» базы данных и сервисы данных, что приводит к конфликтам по ресурсам и вопросам соответствия. Благодаря Consumption Operator в DSM разработчики могут создавать собственные базы данных DSM на инфраструктуре vSphere и подключаться к ним из своих Kubernetes-кластеров.

Итог

Data Services Manager приносит много полезных функций в VCF. DSM предоставляет DBaaS-решение для VCF с той же поддержкой, что и сам VCF. DSM уже работает в производственной среде и в масштабах, управляемых Broadcom IT на протяжении последнего года (вся разработка Broadcom использует DBaaS через DSM на VCF). У Broadcom также есть множество крупных клиентов, реализующих аналогичные сценарии. Надеемся, этот обзор преимуществ DSM был для вас полезен, и вы рассмотрите возможность использования его в своей среде VCF.

15/08/2025
VMware

Обновление Overwatch Nexus утилиты SexiGraf для мониторинга виртуальной инфраструктуры VMware vSphere

Весной этого года вышел новый релиз бесплатной утилиты SexiGraf (Overwatch Nexus), предназначенной для мониторинга виртуальной инфраструктуры VMware vSphere. В последний раз мы писали об этом средстве в октябре прошлого года. Этот продукт был сделан энтузиастами (Raphael Schitz и Frederic Martin) в качестве альтернативы платным решениям для мониторинга серверов ESX и виртуальных машин. Представления SexiPanels для большого числа метрик в различных разрезах есть не только для VMware vSphere и vSAN, но и для ОС Windows и FreeNAS.

Что нового

  • VMware vSAN Inventory — расширенная инвентаризация объектов vSAN.
  • PowerShell Core 7.4.6 LTS — обновление среды скриптов.
  • Ubuntu 22.04.5 LTS — современная версия операционной системы.
  • Apache 2.4.63 — обновлённый веб-сервер.

Улучшения и исправления

  • Возможность добавления SSH-ключа при деплое — повышает безопасность и удобство разграничения доступа.
  • Добавлен сбор события DrsSoftRuleViolationEvent в event-коллектор — расширение мониторинга нарушений правил DRS.
  • Исправлено неконсистентное значение GuestId в инвентаре VM (различие между vmx и vmtools) — повышение точности данных.
  • Различные багфиксы — общее улучшение стабильности и надежности.

Миграция и формат поставки

SexiGraf с этой версии доступен исключительно в виде нового OVA-образа, обновления в виде патчей больше не выпускаются (за исключением экстренных случаев). Чтобы обновиться, пользователи должны:

  1. Экспортировать данные из текущего SexiGraf-модуля.
  2. Импортировать данные в новый OVA-модуль через функционал Export/Import.

Виртуальный модуль SexiGraf 0.99l уже доступен для загрузки и развёртывания. Установка происходит стандартным способом через OVA (например, через vSphere, OVF Tool и т.п.). Версия поддерживает переопределение root-пароля и SSH-ключа на этапе деплоя, что упрощает настройку и повышает безопасность.

14/08/2025
VMware

Что нового в управлении ёмкостью (Capacity Planning) в VMware Cloud Foundation 9.0

Если вы ИТ-специалист, управляющий гибридными или частными облачными средами, вы знаете, насколько важно управление ёмкостью инфраструктуры — не только для производительности, но и для контроля затрат, планирования и предоставления услуг. В последнем выпуске VMware Cloud Foundation возможности в этой области стали ещё более продвинутыми: появились более умные, автоматизированные и интегрированные функции управления ёмкостью.

Но чтобы по-настоящему оценить все преимущества нового выпуска, давайте сначала разберём основные возможности VMware Cloud Foundation в области управления ёмкостью, для тех, кто не знаком с продуктом. Эти возможности позволяют оценивать, оптимизировать и планировать будущие потребности в ёмкости.

Оценка вашей ёмкости в любое время

В основе проактивных возможностей управления ёмкостью VMware Cloud Foundation лежит движок Capacity Engine на базе AI/ML.

Он анализирует исторические данные об использовании и прогнозирует будущую нагрузку, применяя аналитические прогнозы ёмкости в реальном времени, которые основаны на промышленном стандарте статистического анализа поведения спроса. Движок принимает на вход метрики спроса (Demand) и доступной ёмкости (Usable Capacity) и генерирует выходные метрики: оставшееся время (Time Remaining), оставшаяся ёмкость (Capacity Remaining), рекомендуемый размер (Recommended Size) и рекомендуемая общая ёмкость (Recommended Total Capacity).

Рисунок 1 – визуализация входных и выходных метрик движка Capacity Engine.

С помощью движка Capacity Engine в VMware Cloud Foundation вы получаете:

  • Мониторинг в реальном времени потребления процессора, памяти и хранилища.
  • Прогнозную аналитику, которая помогает предсказать исчерпание ресурсов до того, как это станет критичной проблемой.
  • Рекомендации на базе AI по оптимизации размеров ВМ и возврату неиспользуемых ресурсов.

Вся эта информация доступна в VMware Cloud Foundation, где можно увидеть:

  • Time Remaining – обзор состояния кластера, основанный на статусах Critical*, Medium, Normal или Unknown.
  • Most Constrained Resources – показатель того, какой ресурс (процессор, память или дисковое пространство) является наиболее ограниченным, что помогает определить приоритет дальнейших действий.
  • Time Remaining Graph – график текущего и прогнозируемого использования ресурсов с указанием момента, когда прогнозируется исчерпание процессора, памяти или дискового пространства в конкретном кластере, на основе модели выделения или спроса (по умолчанию).
  • Optimization Recommendations – список потенциальной экономии затрат за счёт возврата неиспользуемых ресурсов. Указывает, можно ли оптимизировать рабочие нагрузки между кластерами.
  • Recommendations – два варианта действий: Reclaim Resources или Add Capacity для увеличения показателя Time Remaining.

*Critical может означать конфликт ресурсов, дисбаланс или другое стрессовое состояние. Пороговые значения, заданные в политике, определяют, что считается критичным.

Рисунок 2 – VMware Cloud Foundation прогнозирует момент исчерпания ёмкости процессора.

Короче говоря, теперь речь идёт не просто о реагировании на проблемы, а о предотвращении их до того, как они возникнут. Для получения дополнительной информации о движке Capacity Engine и странице Assess Capacity в VMware Cloud Foundation см. следующие материалы:

Автоматизация порогов ёмкости (Thresholds) и оповещений

Очевидно, что выходные метрики ёмкости движка Capacity Engine играют ключевую роль в оценке ваших потребностей в ресурсах. В дополнение к возможностям движка Capacity Engine по прогнозированию ёмкости в реальном времени, появляется функция автоматической настройки порогов для метрик ёмкости. Вместо того чтобы вручную задавать пороги использования, VMware Cloud Foundation может динамически их корректировать на основе шаблонов рабочей нагрузки. При обнаружении аномалий система также инициирует контекстные оповещения, которые предлагают конкретные действия — не просто «что-то не так», а «вот что можно сделать». Для загруженных команд эксплуатации это означает меньше шума и больше ясности.

Кликните на картинку для открытия анимации:

Рисунок 3 – VMware Cloud Foundation показывает динамические пороги для метрики CPU Time Remaining.

Для получения дополнительной информации о динамических порогах см. документацию по продукту VMware Aria Operations Dynamic Thresholds.

Визуализация ёмкости с помощью интегрированных панелей мониторинга

Но какая польза от всех этих данных, полученных от движка Capacity Engine, если вы не можете наглядно представить их себе и другим? VMware Cloud Foundation предоставляет готовые (out-of-the-box) панели мониторинга, которые дают централизованный обзор ёмкости по всем вашим датацентрам, хостам, кластерам и виртуальным машинам.

Эти легко настраиваемые дэшборды можно использовать для того, чтобы:

  • Мгновенно видеть доступные, используемые и переподписанные (overcommitted) ресурсы.
  • Проваливаться в конкретные кластеры или домены для выявления узких мест по ёмкости.
  • Сравнивать тенденции изменения ёмкости во времени с помощью наглядных тепловых карт.

Это не просто больше данных. Это лучший контекст для принятия более взвешенных решений.

Рисунок 4 – Панель Capacity Dashboard в VCF является одной из нескольких готовых панелей, которые можно настраивать.

Для получения дополнительной информации о панелях Capacity см. следующий материал:

Оптимизация текущей ёмкости

И говоря о более разумных решениях, корректировка размеров ВМ (rightsizing) до исчерпания ёмкости всегда была наилучшей практикой. VMware Cloud Foundation упрощает реализацию этой практики в масштабах всей инфраструктуры.

С VMware Cloud Foundation вы можете:

  • Автоматически выявлять ВМ с недостаточно или чрезмерно выделенными ресурсами.
  • Получать чёткое обоснование предлагаемых рекомендаций по корректировке размеров.
  • Планировать или автоматизировать задачи по изменению размеров в рамках окон обслуживания.

Благодаря этой возможности вы получаете практичный способ освободить ёмкость без ущерба для производительности — то, что оценит любая команда, управляющая инфраструктурой.

Для получения дополнительной информации о корректировке размеров см. следующий материал:

Планирование будущих потребностей в ёмкости

Думаете о внедрении нового приложения или расширении рабочих нагрузок? VMware Cloud Foundation позволяет моделировать сценарии «что, если» (what-if), анализируя исторические тенденции использования и прогнозируемый рост, рассчитанный движком Capacity Engine.

Процесс включает моделирование гипотетических изменений в среде, например добавление новых ВМ или хостов, чтобы понять их потенциальное влияние на использование ресурсов.

Это помогает вам:

  • Определить, достаточно ли у вас запаса ресурсов.
  • Обосновать инвестиции в инфраструктуру.
  • Избежать неожиданных дефицитов ресурсов.

Это проактивное планирование ёмкости, встроенное прямо в вашу инфраструктурную платформу.

Для получения дополнительной информации о планировании ёмкости см. следующий материал:

Что нового в VMware Cloud Foundation 9

Теперь давайте посмотрим, как в последнем выпуске VMware Cloud Foundation расширены основные возможности управления ёмкостью за счёт следующих новых функций:

  • Исключение аномальных временных диапазонов из расчётов прогноза ёмкости
  • Исключение хранилища из расчётов
  • Добавление кластеров в моделировании сценариев «что, если»

Исключение аномальных временных диапазонов из расчётов прогноза ёмкости

Ранее мы рассматривали входные и выходные метрики движка Capacity Engine в VMware Cloud Foundation. Очевидно, что если входные метрики некорректны, то и выходные будут ненадёжными. В последнем выпуске VMware Cloud Foundation это помогает предотвратить эффект GIGO (garbage in, garbage out — «мусор на входе, мусор на выходе») или RIRO (rubbish in, rubbish out), позволяя исключать аномальные временные диапазоны из расчётов прогноза ёмкости.

Рассмотрим сценарий:

Предположим, что вы знаете о всплеске активности в определённый период времени. Возможно, необычным событием стал сбой сети или даже DDoS-атака, которую VMware Cloud Foundation также может помочь выявить. Естественно, такие события могут вызвать искажения в шаблонах использования, что, в свою очередь, влияет на прогнозы по ёмкости. Теперь эти временные диапазоны (входные метрики, такие как Utilization/Demand) можно исключить из влияния на прогнозы ёмкости (выходные метрики, такие как Time Remaining), чтобы вы получали более надёжную информацию о состоянии вашей ёмкости.

Рисунок 5 – исключение необычных всплесков активности, которые могут исказить прогнозы ёмкости, такие как Time Remaining.

Исключение хранилища

Как уже упоминалось ранее, VMware Cloud Foundation предоставляет мониторинг в реальном времени потребления процессора, памяти и хранилища во всех доменах рабочих нагрузок, а также показывает, какой ресурс является наиболее ограниченным. Но что, если вы постоянно держите хранилище на максимальном уровне использования и применяете подход «just-in-time» для устранения дефицита? В таком случае вам не нужны дополнительные шумные оповещения о том, что вам уже хорошо известно.

Вместо этого вам важнее получать приоритетные уведомления, когда процессор и память достигают своих порогов ограничений. В этом выпуске появилась именно такая возможность.

Теперь вы можете исключать ёмкость хранилища из отчёта о наиболее ограниченных ресурсах (Most Constrained Resource). И сделать это можно несколькими способами:

  • На уровне политики – когда ёмкость хранилища исключается для ресурсов вычислительного кластера (Cluster Compute Resources), она не будет влиять на общую ёмкость, включая сценарии моделирования «что, если». При этом ёмкость хранилища всё равно будет рассчитываться для отдельных хранилищ данных.
  • На вкладке Object Capacity – как и при исключении на уровне политики, при исключении здесь ёмкость хранилища не будет влиять на общую ёмкость, включая сценарии «что, если».
  • На странице Assess Capacity – здесь ёмкость хранилища будет вычисляться, но исключаться из общих расчётов ёмкости.

После исключения хранилища кластер больше не будет отображаться как достигший критического уровня по хранилищу (Critical Storage Levels). Важно отметить, что, хотя дисковое пространство больше не будет помечено как «Critical», оно всё равно будет отображаться как Most Constrained Resource (см. изображение ниже).

Рисунок 6 – снижение «шума» оповещений путём исключения хранилища из расчётов ёмкости.

Сценарии «что, если» – поддержка добавления кластера

В последнем выпуске VMware Cloud Foundation расширены возможности планирования сценариев «что, если» (What-If Scenario Planning), добавляя поддержку оценки влияния новых ВМ на новые кластеры.

У этого есть вполне практическое применение:

Предположим, мы подключаем новую команду, которой потребуются ВМ для поддержки их бизнес-приложений. Как уже упоминалось ранее, VMware Cloud Foundation позволяет оценить влияние добавления новых ВМ или хостов в существующие кластеры. Теперь, в последнем релизе VCF, можно пойти дальше и рассмотреть вариант (и финансовые последствия) размещения новых ВМ в полностью новом кластере, указав его параметры, включая:

  • Производитель сервера (Server Make)
  • Модель сервера (Server Model)
  • Процессор (CPU)
  • Сокет (Socket)
  • Количество ядер (Number of Cores)
  • Объём памяти (Memory)
  • Год выпуска (Year)
  • Стоимость (Cost)

После настройки сценария «что, если» VMware Cloud Foundation определит, сможет ли рабочая нагрузка разместиться в новом кластере в заданный вами срок. Если рабочая нагрузка не помещается, VMware Cloud Foundation предложит изменения в сценарии, чтобы это стало возможным. Результаты также можно экспортировать для подготовки отчётов до того, как вы утвердите сценарий и приступите к его реализации.

Рисунок 7 – оценка влияния добавления новых кластеров до принятия решения.

Заключение

Управление ёмкостью — это не просто мониторинг. Это максимизация производительности, минимизация потерь и опережение растущего спроса. Благодаря базовым и новым функциям управления ёмкостью в VCF 9, VMware упрощает для ИТ-команд переход от реактивного устранения проблем к стратегическому планированию ресурсов. Если вы уже используете VMware Cloud Foundation, стоит внимательно присмотреться к этим обновлениям.

12/08/2025
VMware

Новый документ VMware: vSphere 9.0 Performance Best Practices

Недавно компания VMware опубликовала полезный для администраторов документ «vSphere 9.0 Performance Best Practices» с указанием ключевых рекомендаций по обеспечению максимальной производительности гипервизора ESX и инфраструктуры управления vCenter.

Документ охватывает ряд аспектов, начиная с аппаратных требований и заканчивая тонкой настройкой виртуальной инфраструктуры. Некоторые разделы включают не всем известные аспекты тонкой настройки:

  • Аппаратное обеспечение: CPU, память, дисковая подсистема, безопасность.
  • Настройки BIOS: рекомендуется включить AES-NI, правильно сконфигурировать энергосбережение (например, «OS Controlled Mode»), при необходимости отключить некоторые C-states в особо чувствительных к задержкам приложениях.
  • vCenter и Content Library: советуют минимизировать автоматические скриптовые входы, использовать группировку vCenter для повышения синхронизации, хранить библиотеку контента на хранилищах с VAAI и ограничивать сетевую нагрузку через глобальный throttling.
  • Тонкое администрирование: правила доступа, лимиты, управление задачами, патчинг и обновления (включая рекомендации по BIOS и live scripts) и прочие глубокие настройки.

Отличия от версии для vSphere 8 (ESX и vCenter)

Аппаратные рекомендации

  • vSphere 8 предоставляет рекомендации по оборудованию: совместимость, минимальные требования, использование PMem (Optane, NVDIMM-N), vPMEM/vPMEMDisk, VAAI, NVMe, сетевые настройки, BIOS-опции и оптимизации I/O и памяти.
  • vSphere 9 добавляет новые аппаратные темы: фокус на AES-NI, snoop-режимах, NUMA-настройках, более гибком управлении энергопотреблением и безопасности на уровне BIOS.

vMotion и миграции

  • vSphere 8: введение «Unified Data Transport» (UDT) для ускорения холодных миграций и клонирования (при поддержке обеих сторон). Также рекомендации для связки encrypted vMotion и vSAN.
  • vSphere 9: больше внимания уделяется безопасности и производительности на стороне vCenter и BIOS, но UDT остаётся ключевым механизмом. В анонсах vSphere 9 в рамках Cloud Foundation акцент сделан на улучшенном управлении жизненным циклом и live patching.

Управление инфраструктурой

  • vSphere 8: рекомендации по vSphere Lifecycle Manager, UDT, обновлению vCenter и ESXi, GPU профили (в 8.0 Update 3) — включая поддержку разных vGPU, GPU Media Engine, dual DPU и live patch FSR.
  • vSphere 9 / VMware Cloud Foundation 9.0: новый подход к управлению жизненным циклом – поддержка live patch для vmkernel, NSX компонентов, более мощные «монстр-ВМ» (до 960 vCPU), direct upgrade с 8-й версии, image-based lifecycle management.

Работа с памятью

  • vSphere 8: рекомендации для Optane PMem, vPMEM/vPMEMDisk, управление памятью через ESXi.
  • vSphere 9 (через Cloud Foundation 9.0): внедрён memory tiering, позволяющий увеличить плотность ВМ в 2 раза при минимальной потере производительности (5%) и снижении TCO до 40%, без изменений в гостевой ОС.

Документ vSphere 9.0 Performance Best Practices содержит обновлённые и расширенные рекомендации для платформы vSphere 9, уделяющие внимание аппаратному уровню (BIOS-настройки, безопасность), инфраструктурному управлению, а также новым подходам к памяти (главный из них - memory tiering).

08/08/2025
VMware

Обновлённый архитектурный постер VMware Cloud Foundation 9

Компания VMware представила обновлённую версию своего архитектурного постера VMware Cloud Foundation Architecture Poster, адаптированного под релиз платформы VCF 9. Новый плакат — это наглядный визуальный гид по ключевым компонентам программно-определяемого центра обработки данных (SDDC) и модели облачных операций.

Что нового:

  • Постер демонстрирует, как компоненты: вычислительная инфраструктура, хранение, сеть и безопасность — объединены в единый автоматизируемый стек. Он иллюстрирует, как VCF развёртывается и управляется как полноценное приватное облако.
  • Обновлённый дизайн включает QR-коды, позволяющие с лёгкостью получать доступ к дополнительным материалам: техническим руководствам и интерактивным лабораториям для практического погружения в платформу.

Постер может стать отличным наглядным инструментом для ИТ-специалистов, архитекторов и руководителей, стремящихся глубже разобраться в принципах работы современной гибридной облачной инфраструктуры.

Скачать обновлённый плакат VMware Cloud Foundation можно на официальном сайте VMware.

04/08/2025
VMware

VMware Cloud Foundation Operations 9.0 - новые возможности

Оптимальная ИТ-инфраструктура характеризуется способностью поддерживать растущее количество рабочих нагрузок со временем и управлять изменениями потребностей в ресурсах в режиме реального времени при сохранении максимальной производительности. VMware Cloud Foundation упрощает внедрение облачной операционной модели в большом масштабе, тем самым повышая гибкость ИТ, расширяя масштабируемость инфраструктуры, улучшая безопасность и снижая совокупную стоимость владения.

Современная инфраструктура требует эффективного уровня управления и эксплуатации, который охватывает полный контроль жизненного цикла компонентов, обеспечивает прозрачность затрат и предоставляет четкий обзор общей безопасности системы.

Ключевым компонентом стека VCF является решение VMware Cloud Foundation Operations, которое помогает организациям создавать, эксплуатировать и защищать инфраструктуру частного облака за счёт развертывания и поддержки компонентов на уровне всего парка, обеспечения единой видимости и повышенной производительности на всех уровнях — от рабочих нагрузок до инфраструктуры, а также соблюдения нормативных и внутренних требований. Среди преимуществ — более быстрое достижение бизнес-результатов, улучшенное использование ресурсов, сокращение времени на устранение неполадок, предсказуемость затрат и безопасная, соответствующая требованиям среда. В рамках релиза VCF 9.0 ключевыми новыми и усовершенствованными возможностями VCF Operations являются:

  • Построение стека VCF
  • Управление парком ресурсов
  • Интегрированные операции
  • Управление затратами
  • Усиленная безопасность

Построение стека VCF

VMware Cloud Foundation 9.0 изменяет подход к развертыванию и построению инфраструктуры частного облака. Установщик VCF (VCF Installer) позволяет клиентам с лёгкостью создавать повторяемые участки инфраструктуры VCF, такие как кластеры приложений, для масштабирования парка ресурсов с целью повышения операционной эффективности и согласованности компонентов.

Парк VCF (VCF fleet) — это новый термин в VCF 9.0, обозначающий всю инфраструктуру, включая VCF Operations, VCF Automation, vCenter, NSX Manager, кластер vSphere, домены рабочих нагрузок и другие компоненты внутри VCF. Можно развернуть несколько экземпляров VCF, однако модули VCF Operations и VCF Automation существуют только в единственном экземпляре.

VCF 9.0 представляет новый мастер установки (Install wizard), который пошагово и интуитивно ведёт пользователя через процесс создания инфраструктуры. Можно развернуть новый парк ресурсов (fleet) или добавить инфраструктуру к уже существующей VCF-среде. Поддерживается настройка размера инфраструктуры и высокая доступность, а также возможность масштабирования частного облака с помощью JSON-файлов. Этот JSON можно сохранить для будущих развертываний и использовать в качестве шаблона. Перед установкой доступен предварительный просмотр и проверка параметров. После завершения работы установщика пользователь может войти в VCF Operations и приступить к работе.

Управление парком ресурсов (Fleet Management)

Предприятия, стремящиеся к масштабированию, нуждаются в согласованности своей инфраструктуры. Управление парком в VCF Operations помогает создавать, управлять и масштабировать инфраструктуру частного облака, обеспечивая единообразие всех компонентов. Оно объединяет доступ к ключевым административным задачам для инфраструктурных и управляющих компонентов. Некоторые из ключевых возможностей управления парком включают:

1. Управление лицензиями

VCF Operations теперь выступает в роли менеджера лицензий для всего стека VCF. С помощью VCF Operations лицензирование становится проще, оно унифицировано за счёт использования одного лицензионного файла. Ранее использовались длинные 25-символьные шестнадцатеричные ключи, которые нужно было вводить для каждого компонента отдельно. Теперь для каждого экземпляра VCF Operations используется один лицензионный файл, что облегчает распределение лицензий, отслеживание их использования и внесение изменений по ядрам и объёму хранилища vSAN (в TiB). Расширенные сервисы, такие как VMware Private AI Foundation с NVIDIA и дополнительное хранилище vSAN, также учитываются в этом файле. Другие дополнения по-прежнему используют традиционные лицензионные ключи.

2. Единый вход и централизованное управление идентификацией

VCF Operations обеспечивает поддержку единого входа (SSO) для VCF и всех экземпляров vCenter в парке. VCF 9.0 упрощает и модернизирует механизм SSO, предоставляя простое управление источниками идентификации, что снижает операционную сложность и повышает контроль над доступом благодаря гибкой настройке. Также возможно применять настройки клиента SSO из VCF Operations к отдельным компонентам. Система поддерживает различные решения идентификации, включая Active Directory Federation Services, Azure AD, OKTA, Ping и OAuth 2.0.

3. Управление сертификатами и паролями

VCF 9.0 внедряет централизованное управление сертификатами в VCF Operations, обеспечивая упрощённый пользовательский опыт во всей среде VCF. Эта функция позволяет выполнять обновления сертификатов без сбоев, автоматически продлевать их с помощью нескольких удостоверяющих центров (CA), а также импортировать внешне подписанные сертификаты. В результате упрощается администрирование, усиливаются меры безопасности и повышается соответствие требованиям.

Централизованная панель управления обеспечивает упрощённое управление паролями за счёт интеграции и консолидации. Система предоставляет полный обзор состояния паролей и функций управления, включая обновление, ротацию и уведомления об истечении срока действия.

4. Управление жизненным циклом

VCF 9.0 улучшает управление жизненным циклом, объединяя задачи второго дня (Day 2) в едином интерфейсе VCF Operations. Это упрощает контроль версий и оркестрацию обновлений, а также оптимизирует процессы для сокращения количества перезагрузок хостов и поддержки автоматизированных обновлений сразу в нескольких кластерах.

Интегрированные операции

Мониторинг работы всей среды может быть затруднён по многим причинам: отсутствие согласованности при анализе инфраструктурных данных (диагностика, журналы, метрики, сетевые потоки), усталость от множества оповещений, необходимость отслеживания сторонних решений и контейнеров, а также ограниченная гибкость при перемещении рабочих нагрузок в рамках виртуальной среды. Последний релиз VCF Operations решает эти проблемы, объединив ряд функций, ранее распределённых между разными продуктами.

1. VCF - здоровье и диагностика

Diagnostic Findings (диагностические выводы) — единое представление для отслеживания корреляции проблем во всей инфраструктуре за счёт сканирования и анализа известных сигнатур, с отображением текущих проблем на странице Active Findings.

VCF Health (мониторинг состояния) — даёт представление о текущем состоянии всех экземпляров vCenter, включая данные о подключениях, использовании ресурсов и сервисах, а также содержит функции общего назначения, такие как:

  • Операции с виртуальными машинами
  • vMotion
  • Управление снапшотами
  • Мониторинг состояния vSAN

2. Операции с хранилищем

Понимание использования хранилища имеет ключевое значение, и VCF Operations предоставляет мощные средства для анализа тенденций потребления ресурсов. В последнем релизе VCF Operations предлагает единое окно управления всеми аспектами хранения данных, включая инвентаризацию, конфигурацию и производительность в рамках VCF.

Инструмент Storage Distribution Insights отображает, как хранилище распределено между кластерами и рабочими нагрузками. Такой подробный обзор позволяет эффективно управлять ресурсами и быстро устранять проблемы, обеспечивая оптимальную производительность и использование хранилища.

3. Сетевые операции

VCF Operations теперь включает в себя интегрированные сетевые операции, обеспечивая полный обзор сети с возможностью мониторинга её состояния, анализа трафика и получения информации о приложениях. Система может автоматически обнаруживать бизнес-приложения и их уровни, чтобы настроить их отслеживание и начать мониторинг.

4. Интегрированные журналы

VCF Operations объединяет анализ файлов журналов всех компонентов, упрощая фильтрацию событий, визуализацию тенденций и ускоряя устранение неполадок из единой консоли. Оповещения на основе логов и настраиваемые панели мониторинга позволяют администраторам отслеживать динамику событий, выявлять аномалии и быстро диагностировать проблемы.

Функция Log Assist облегчает поиск и консолидацию журналов для эффективного проведения анализа первопричин (Root Cause Analysis, RCA) и ускоренного устранения неисправностей. В последнем релизе пользователи могут создавать архивные пакеты журналов и прикреплять их к обращениям в службу поддержки для более оперативного взаимодействия с техническими специалистами.

5. Расширяемость с использованием встроенного конструктора пакетов (Management Pack Builder)

В VCF Operations теперь доступен Management Pack Builder — встроенный конструктор пакетов управления, который предоставляет панели мониторинга, оповещения и метрики для всестороннего наблюдения и управления как компонентами VCF, так и сторонними устройствами.

6. Мониторинг Supervisor-кластера и Kubernetes-сервиса vSphere

VCF Operations теперь нативно поддерживает мониторинг Supervisor-кластера и VMware Kubernetes Service (VKS). С помощью агента Telegraf данные об инвентаризации и метриках передаются из Supervisor и VKS в VCF Operations.

Предоставляются готовые дэшборды и ключевые показатели производительности (KPI) для Supervisor-кластера, включая загрузку CPU, использование памяти, дисков, состояние узлов, подов и метрики на уровне контейнеров — всё это помогает в диагностике проблем с производительностью, связанными с Supervisor.

7. Планирование миграции рабочих нагрузок

Планирование миграции в VCF предлагает комплексный подход к масштабному переносу рабочих нагрузок, объединяя мощные возможности VCF Operations for Networks и VCF Operations HCX.

В этом релизе представлены основные функции этой возможности:

  • Пользователи могут легко и эффективно определить область миграции на основе приложений и выявить зависимости, чтобы не упустить важные компоненты. Обнаружение зависимостей приложений и сетей снижает риск ошибок при миграции и повышает надёжность.
  • Миграционные волны позволяют разбить процесс переноса на управляемые этапы. Это помогает сосредоточиться на небольших группах ресурсов, лучше планировать и выполнять миграцию поэтапно, снижая риски и сложность.
  • Информация об использовании памяти, ядер и хранилища помогает учитывать ограничения ресурсов и принимать обоснованные решения для их оптимального распределения в процессе миграции.

По мере развития функции планирования миграции пользователи получат более плавный и эффективный процесс переноса с чётким пониманием потребностей в ресурсах и зависимостях, что обеспечит более продуманный и управляемый подход к миграции рабочих нагрузок как внутри VCF, так и между VCF-средами.

Управление затратами

VCF Operations помогает оценить отдачу от инвестиций в VCF. Он отслеживает общую стоимость владения всей инфраструктурой, потенциальную и фактическую экономию благодаря рекомендациям, позволяя оценить эффективность и снижение затрат со временем.

Функции управления затратами в VCF Operations позволяют с высокой точностью отслеживать инфраструктурные расходы, затраты на лицензии и сопутствующие сервисы. Также поддерживаются механизмы showback и chargeback, позволяющие командам приложений понимать и контролировать стоимость используемой ими инфраструктуры.

ИТ-администраторы и провайдеры могут использовать:

  • Cost Drivers — распределение затрат по категориям
  • Pricing Policies — создание тарифных планов
  • Showback — отображение затрат по фактическому использованию
  • Chargeback — выставление счетов на основе заданных моделей ценообразования

1. Тарифные планы (Rate Cards)

Для точного выставления счетов арендаторам провайдеры могут создавать тарифные планы (rate cards), определяя стоимость единицы потребления ресурсов. Это позволяет единообразно рассчитывать затраты в соответствии с заданными условиями.

Тарифные планы можно настраивать по различным параметрам: вычислительные ресурсы (CPU и память), хранилище, сеть, гостевые ОС, теги, фиксированные единовременные расходы, корректирующие коэффициенты. Такая гибкость позволяет адаптировать цены как к техническому потреблению, так и к бизнес-модели.

Планы совместимы с последними лицензиями VCF и позволяют точно учитывать затраты по ядрам CPU и объёму хранилища.

2. Перерасчёт затрат (Chargeback)

Провайдеры могут получать детализированные данные о перерасчёте затрат с помощью улучшенных панелей, которые отображают расходы с разных управленческих уровней:

  • Обзор (Overview): сводная информация по затратам и ценам по организациям, регионам и запущенным ВМ.
  • Организации (Organizations): распределение затрат по организациям и региональным квотам.
  • Проекты (Projects): полное представление затрат и цен по проектам в VCF Automation с детализацией по пространствам имён и развёртываниям.

VCF Operations теперь поддерживает современные модели перерасчёта для IaaS как для провайдеров, так и для корпоративных команд приложений. Возможности перерасчёта интегрированы с новыми подходами к развёртыванию, реализуемыми через VCF Automation.

3. Анализ затрат (Cost Analysis)

Функции анализа затрат позволяют организациям получить чёткое представление о расходах на частное облако, выявить неэффективности и принимать обоснованные решения для оптимизации инвестиций.

Теперь пользователи могут быстро сравнивать метрики, например, стоимость эксплуатации и цену оказания услуг, в упрощённом интерфейсе. Это ускоряет получение аналитики, помогает оперативно выявлять наиболее затратные зоны и возможности для оптимизации всего за несколько кликов.

Усиленная безопасность

Возможности управления безопасностью обеспечивают комплексный обзор как инфраструктурного, так и пользовательского уровня, что снижает общую сложность с точки зрения рисков и поддерживает высокий уровень безопасности предприятия.

1. Дэшборды SecOps

Панель управления безопасностью (Security Operations Dashboard) предоставляет детализированный, real-time обзор аутентификации пользователей, прав доступа и состояния инфраструктуры, помогая проактивно управлять безопасностью во всех развертываниях VCF.

Инструмент охватывает ключевые аспекты защиты инфраструктуры, включая:

  • Шифрование хостов
  • Соответствие режимов работы хостов
  • Шифрование кластеров vSAN
  • Предупреждения о нарушениях CVE
  • Состояние сертификатов
  • Статус шифрования виртуальных машин

2. Отчётность по соответствию требованиям (Compliance Reporting)

VCF Operations предоставляет оповещения, политики и отчёты для проверки соответствия ресурсов VCF установленным стандартам, обеспечивая непрерывный контроль над соответствием, оперативные уведомления и поддержание общей политики безопасности инфраструктуры, снижая организационные и бизнес-риски.

В качестве бенчмарков могут использоваться следующие типы стандартов:

  • Предопределённые эталоны VMware, отслеживающие состояние среды в соответствии с рекомендациями по безопасности от VMware
  • Пользовательские политики, созданные вручную, для проверки среды на соответствие внутренним требованиям
  • Готовые комплекты нормативных стандартов, включая:
    • CIS
    • DISA STIG
    • FISMA
    • HIPAA
    • ISO
    • PCI DSS

Организации могут проактивно выявлять нарушения конфигурации и отклонения от соответствия требованиям, используя выбранные эталоны. Кроме того, благодаря интеграции VCF с инструментами управления конфигурациями от VMware или сторонних разработчиков возможна автоматическая коррекция нарушений соответствия.

В версии VCF 9.0 были добавлены новые комплекты соответствия для:

  • CIS (vSphere 8.0)
  • NIST SP 800-171
  • NIST SP 800-53 R5

А также обновлены средства проверки для:

  • HIPAA
  • PCI DSS v4.0
  • ISO/IEC 27001:2022

Мы видим, как VCF Operations помогает клиентам модернизировать инфраструктуру. Он предоставляет функции, которые позволяют инфраструктуре VCF работать как единая автоматизированная система, помогая организациям достигать своих ИТ- и бизнес-целей.

Дополнительные материалы

  • Release notes - подробная информация о новых возможностях
  • Тестовая лаборатория: попробуйте VCF 9.0 в действии в новых лабах Hands-on Lab — What’s New in VMware Cloud Foundation 9.0 – Operations. Оцените возможности мониторинга, диагностики, анализа сетевых потоков, расширенного управления хранилищем, безопасности и прозрачности затрат.

Узнать больше:

30/07/2025
VMware

VMware представила унифицированный фреймворк разработки VCF SDK 9.0 для Python и Java.

VMware представила унифицированный фреймворк разработки VCF SDK 9.0 для Python и Java.

Улучшение опыта разработчиков (Developer Experience) — один из главных приоритетов в дальнейшем развитии платформы VMware Cloud Foundation (VCF). Если рассматривать автоматизацию в целом, то можно выделить две чёткие категории пользователей: администраторы и разработчики.

Администраторы в основном сосредоточены на операционной автоматизации, включая развертывание, конфигурацию и управление жизненным циклом среды VCF. Их потребности в автоматизации обычно реализуются через написание скриптов и рабочих процессов, которые управляют инфраструктурой в масштабах всей организации.

Разработчики, напротив, ориентированы на интеграцию возможностей VCF в пользовательские приложения и решения. Им необходимы API и SDK, обеспечивающие программный доступ к сервисам и данным VCF, позволяя разрабатывать собственные инструменты, сервисы и расширения. Потребности в автоматизации у этих двух групп значительно различаются и соответствуют их уникальным ролям в экосистеме VCF. Понимая эти различия, Broadcom предлагает набор интерфейсов прикладного программирования (API), средств разработки (SDK) и разнообразных инструментов автоматизации, таких как PowerCLI, Terraform и Ansible.

Оглядываясь назад, можно сказать, что VMware хорошо обслуживала сообщество администраторов, предоставляя им различные инструменты. Однако API и SDK требовали улучшения в области документации, лучшей интеграции с VCF-стеком в целом и упрощения процесса для разработчиков. До выхода VCF 9.0 разработчики использовали отдельные SDK решений, сталкиваясь с трудностями, связанными с их интеграцией — такими как совместимость, аутентификация и сложность API. С выходом VCF 9.0 VMware рада объявить о доступности Unified VCF SDK 9.0. Давайте подробнее рассмотрим, что это такое.

Unified VCF SDK

Unified VCF SDK доступен с привязками к двум языкам — Java и Python. Это объединённый SDK, который включает в себя все основные SDK решений VCF в единый, упрощённый пакет. В своей первой версии Unified VCF SDK объединяет существующие SDK и добавляет новые библиотеки для установщика VCF и менеджера SDDC.

Список компонентов VCF, включённых в первую версию Unified VCF SDK:

  • VMware vSphere
  • VMware vSAN
  • VMware Cloud Foundation SDDC Manager (новый)
  • VMware Cloud Foundation Installer (новый)
  • VMware vSAN Data Protection

Несмотря на то, что Unified VCF SDK поставляется как единый пакет, пользователи могут устанавливать и использовать только те библиотеки, которые необходимы для конкретных задач.

Для краткости в этом тексте Unified VCF SDK будет обозначаться как VCF SDK.

Преимущества

VCF SDK обеспечивает простой, расширяемый и единообразный опыт для разработчиков на протяжении всего жизненного цикла разработки.

Упрощённый жизненный цикл разработчика

С этим релизом были стандартизированы методы доставки и распространения, чтобы поддерживать различные сценарии развертывания:

  • Онлайн-установка через PyPI (Python) и Maven (Java) — для прямого доступа и лёгкой установки/обновлений.
  • Офлайн-установка через портал разработчиков Broadcom — идеально для сред с ограниченным доступом в интернет.
  • Готовность к CI/CD — интеграции через пакеты и инструкции, размещённые на GitHub, для бесшовного включения в автоматизированные пайплайны при установке и обновлении.

Улучшенная документация и онбординг

VMware переработала документацию, чтобы упростить старт:

OpenAPI-спецификация

OpenAPI-спецификация описывает API в стандартизированном машинно-читаемом формате (YAML/JSON). С выходом VCF SDK были также публикованы OpenAPI-спецификации для API-эндпоинтов. Это не просто документация — это шаг к философии API-first и ориентированности на разработчиков.

С помощью OpenAPI-спецификаций разработчики могут:

  • Автоматически генерировать клиентские библиотеки на предпочитаемых языках с помощью инструментов вроде Swagger Codegen, Kiota или OpenAPI Generator.
  • Загружать спецификации в такие инструменты, как Swagger UI, Redoc или Postman, чтобы визуально исследовать доступные эндпоинты, параметры, схемы ответов и сообщения об ошибках.
  • Понимать структуру API и его поведение.

Скачать OpenAPI-спецификацию можно с портала разработчиков Broadcom или из репозитория GitHub.

VCF Python SDK

VCF Python SDK включает в себя следующие модули:

Компонент Описание
pyVmomi (включает vSAN) pyVmomi — это Python SDK для API управления VMware vSphere, который позволяет быстро создавать решения, интегрированные с VMware ESX и vCenter Server.
vCenter Server Библиотека VMware vCenter Server содержит клиентские привязки для автоматизационных API VMware vCenter Server.
VMware vSAN Data Protection Библиотека VMware vSAN Data Protection содержит клиентские привязки для управления встроенными снапшотами, хранящимися локально в кластере vSAN, восстановления ВМ после сбоев или атак вымогателей и т.д.
Менеджер программно-определяемого датацентра (SDDC Manager) Библиотека VMware SDDC Manager содержит клиентские привязки к автоматизационным API для управления компонентами инфраструктуры программно-определяемого датацентра (SDDC).
Установщик VMware Cloud Foundation (VCF Installer) Модуль VCF Installer в составе VCF SDK содержит библиотеки для проверки, развертывания, преобразования и мониторинга установок VCF и VVF с использованием новых или уже существующих компонентов.

Каналы распространения

Unified VCF SDK доступен через различные каналы распространения. Это сделано для того, чтобы удовлетворить потребности разных типов сред и разработчиков — каждый может получить доступ к SDK в наиболее удобном для него месте. Ниже перечислены доступные каналы, откуда можно загрузить VCF SDK.

Портал разработчиков Broadcom

VCF Python SDK доступен для загрузки на портале разработчиков Broadcom. Вы можете распаковать содержимое ZIP-архива vcf-python-sdk-9.0.0.0-24798170.zip, чтобы ознакомиться с библиотеками SDK, утилитами и примерами. Однако сторонние зависимости не входят в состав архива — они перечислены в файле requirements-third-party.txt, находящемся внутри vcf-python-sdk-9.0.0.0-24798170.zip.

Файлы .whl компонентов VCF SDK находятся в папках ../pypi/*, а примеры кода для компонентов расположены в директориях вида /<имя_компонента>-samples/.

PyPI

VCF SDK доступен в PyPI, что позволяет разработчикам устанавливать и обновлять модуль онлайн. Это самый быстрый способ начать работу с VCF SDK.

Чтобы установить VCF SDK, выполните следующую команду:

$ pip install vcf-sdk

Пакеты, установленные через pip, можно автоматически обновлять. Чтобы обновить VCF SDK, используйте команду:

$ pip install --upgrade vcf-sdk

Чтобы установить конкретную библиотеку из состава VCF SDK, выполните:

$ pip install {имя-библиотеки}

Примеры:

$ pip install pyvmomi
$ pip install vcf-installer

GitHub

Разработчики также могут скачать пакет VCF SDK из репозитория VMware на GitHub.

VCF Java SDK

VCF Java SDK включает в себя следующие артефакты:

Компонент Описание
VMware vCenter Server Модуль vCenter в составе VCF SDK предоставляет операции, связанные с контент-библиотеками, развертыванием ресурсов, тегированием, а также управлением внутренними и внешними сертификатами безопасности.
Управление виртуальной инфраструктурой (VIM) Модуль VIM (Virtual Infrastructure Management) предоставляет операции для управления вычислительными, сетевыми и хранилищными ресурсами. Эти ресурсы включают виртуальные машины, хосты ESXi, кластеры, хранилища данных, сети и системные абстракции, такие как события, тревоги, авторизация и расширения через плагины.
SSOCLIENT Модуль единого входа (Single Sign-On) взаимодействует с сервисом Security Token Service (STS) для выдачи SAML-токенов, необходимых для аутентификации операций с API vCenter.
VMware vSAN Data Protection (vSAN DP) С помощью встроенных снимков, локально хранящихся в кластере vSAN, модуль защиты данных vSAN обеспечивает быстрое восстановление ВМ после сбоев или атак вымогателей. API защиты данных vSAN управляет группами защиты и обнаруживает снимки виртуальных машин.
Управление жизненным циклом виртуального хранилища (VSLM) Модуль VSLM (Virtual Storage Lifecycle Management) предоставляет операции, связанные с First Class Disks (FCD) — виртуальными дисками, не привязанными к конкретной виртуальной машине.
Служба мониторинга хранилища (SMS) Модуль SMS (Storage Monitoring Service) предоставляет методы для получения информации о доступной топологии хранилищ, их возможностях и текущем состоянии. API Storage Awareness (VASA) позволяет хранилищам интегрироваться с vCenter для расширенного управления. Провайдеры VASA предоставляют данные о состоянии, конфигурации и емкости физических устройств хранения. SMS устанавливает и поддерживает соединения с провайдерами VASA и извлекает из них информацию о доступности хранилищ.
Управление на основе политик хранения (SPBM) Модуль SPBM (Storage Policy Based Management) предоставляет операции для работы с политиками хранения. Эти политики описывают требования к хранению для виртуальных машин и возможности провайдеров хранения.
vSAN Модуль vSAN предоставляет средства конфигурации и мониторинга vSAN-кластеров хранения и связанных сервисов на хостах ESXi и экземплярах vCenter Server. Включает функции работы с виртуальными дисками, такие как монтирование, разметка, безопасное удаление и создание снимков.
Менеджер агентов ESX (EAM) Менеджер агентов ESX (ESX Agent Manager) позволяет разработчикам расширять функциональность среды vSphere путём регистрации пользовательских программ как расширений vCenter Server. EAM действует как посредник между vCenter и такими решениями, управляя развертыванием и мониторингом агентских ВМ и установочных пакетов VIB.
SDDC Manager Модуль SDDC Manager предоставляет операции для управления и мониторинга физической и виртуальной инфраструктуры, развернутой в рамках VMware Cloud Foundation.
Установщик VMware Cloud Foundation (VCF Installer) Модуль VCF Installer предоставляет операции для проверки, развертывания, преобразования и мониторинга установок VCF и VVF с использованием новых или уже существующих компонентов.

Каналы распространения

Аналогично Python SDK, JAVA SDK также доступен через различные каналы распространения, что позволяет использовать его в самых разных средах.

Портал разработчиков Broadcom

VCF Java SDK доступен для загрузки на портале разработчиков Broadcom. Вы можете распаковать содержимое ZIP-архива vcf-java-sdk-9.0.0.0-24798170.zip, чтобы ознакомиться с библиотеками SDK, утилитами и примерами.

Файлы привязок SDK .jar, утилит .jar, а также BOM-файлы находятся в папке:

../maven/com/vmware/*

Maven

Артефакты VCF SDK доступны в Maven Central под groupId: com.vmware.sdk. В таблице ниже указаны данные об артефактах VCF SDK для версии 9.0.0.0.

Чтобы начать работу с VCF SDK, добавьте зависимость в файл pom.xml вашего проекта:

<dependencies>
<dependency>
<groupId>com.vmware.sdk</groupId>
<artifactId>vcf-sdk</artifactId>
<version>9.0.0.0</version>
</dependency>
</dependencies>

GitHub

Разработчики также могут скачать пакет VCF SDK из репозитория VMware на GitHub.

Журнал изменений API

С выходом VCF 9.0 VMware начала публиковать журнал изменений API. В нём отражаются все изменения: новые API, обновления существующих и уведомления об устаревании. Ознакомиться с журналом изменений можно здесь.

Ресурсы

Репозитории Github:

Страницы Getting Started:

Заключение

С выпуском VMware Cloud Foundation 9.0 объединение различных библиотек в один SDK с улучшенной документацией, примерами кода и спецификацией OpenAPI — это важный шаг к простому, расширяемому и согласованному опыту для разработчиков.

Следующий шаг за вами — попробуйте Unified VCF SDK 9.0 и поделитесь с нами своими отзывами.

25/07/2025
VMware

Доля российских решений на рынке ПО для виртуализации достигла 60,2%

По итогам исследования iKS Consulting, на российском рынке программного обеспечения виртуализации доля отечественных решений выросла до 60,2%. Это обсуждалось в рамках форума Cloud & Connectivity 18 марта 2025 года, где были представлены данные, собранные на основе анализа 19 крупнейших российских облачных провайдеров.

VMware по-прежнему остается заметным игроком — её доля оценивается в 39% всего рынка, однако её позиции значительно сократились в сравнении с предыдущими годами.

Динамика роста рынка

Согласно данным iKS Consulting:

  • В 2021 году на отечественное ПО виртуализации приходилось лишь 1,2 млрд рублей выручки.
  • В 2022 году эта сумма выросла до 5,1 млрд.
  • В 2023 году — до 10,1 млрд.
  • По предварительным оценкам, в 2024 рынок достиг 14,4 млрд рублей.

Такая динамика отражает ускоренное развитие сегмента — рост сегмента составил почти 98% в 2023 году и ожидается в районе 40%+ в 2024–2025 гг.

Цитаты из отчета iKS Consulting

«По предварительным оценкам iKS Consulting, российский рынок виртуализации в 2024 году вырос до 14,4 млрд. […] В итоге доля российских решений на базе KVM с конца 2021 года по конец 2024 года выросла на треть, до 60,2%.»

«По состоянию на середину 2024 г. в Едином реестре отечественного ПО по классу 02.04 "Средства виртуализации" зарегистрировано 72 программных продукта; из них порядка 55% включено в Реестр в 2022-2024 гг.»

Факторы и последствия

1. Импортозамещение и регуляторное давление

С 2022 года компании VMware и Microsoft приостановили свою деятельность в России, что стимулировало рост отечественных платформ. С 1 января 2025 года использование зарубежного ПО в критичной инфраструктуре запрещено законом, что ускоряет переход на российские продукты.

2. Эволюция отечественных вендоров

Российские компании — вендоры, интеграторы и облачные провайдеры — активно инвестируют в технологии, расширяют продуктовую линейку и компетенции. В результате доход отечественных решений растёт, особенно в сегменте KVM, HCI и VDI.

3. Консолидация рынка

Мелкие игроки либо исчезают, либо интегрируются в крупные компании: «Базис» занимает около 30% рынка, за ним следуют Orion Soft (~16%) и другие — с долями от 10% и выше.

Перспективы и прогноз

  • На сегмент серверной виртуализации и HCI приходится примерно 75% рынка, VDI занимает около 19,4%, оставшиеся ~5% — «прочее ПО».
  • Среднегодовой темп роста рынка оценивается в 23% до 2030 года, при этом к тому времени объем рынка может превысить 50 млрд рублей.

Вывод

Доля российских решений в сегменте виртуализации выросла до 60,2% по итогам конца 2024 года — это результат как регуляторного воздействия и требований импортозамещения, так и активной эволюции локального ИТ. Рынок растёт быстрыми темпами, особенно в сегменте серверной виртуализации, и прогнозы говорят об устойчивом долгосрочном росте с долей в несколько десятков миллиардов рублей к 2030 году.

22/07/2025
VMware

VMware представила Industrial vSwitch (IvS) в платформе VMware Cloud Foundation 9.0

Мир промышленной автоматизации переживает глубокую трансформацию, вызванную необходимостью повышения гибкости, эффективности и надёжности. Традиционные среды операционных технологий (OT), часто характеризующиеся жёстким, проприетарным оборудованием, эволюционируют в сторону более гибких, программно-определяемых архитектур. Broadcom находится в авангарде этой трансформации. В продолжение предыдущего анонса о поддержке Broadcom компании Audi в создании автоматизации заводов нового поколения с использованием VMware Cloud Foundation (VCF), VMware подчеркивает ключевую роль, которую играет VCF Networking в процессе модернизации Audi.

В рамках инициативы Audi Edge Cloud for Production, одним из ключевых кейсов является виртуализация физических PLC (программируемых логических контроллеров), управляющих критически важными операциями на производстве, такими как сборка автомобилей роботами. Цель — виртуализировать PLC и запускать их как виртуальные машины или контейнеры, управляемые как современные ИТ-нагрузки из частного облака Audi. Эту трансформацию поддерживает Industrial vSwitch (IvS), представленный в VCF 9.0. Разработанный в сотрудничестве с экспертами в области промышленной автоматизации, IvS приносит виртуализацию на завод, обеспечивая связь почти в реальном времени между виртуальными PLC и устройствами ввода/вывода.

Что такое Industrial vSwitch?

Industrial vSwitch (IvS) — это специализированная функция в составе NSX, работающая как распределённый сетевой коммутатор для промышленных сетей. Его основная задача — обеспечить передачу PROFINET-трафика в реальном времени на уровне 2 (L2) между устройствами с требуемой задержкой менее миллисекунды. Это обеспечивает бесшовную маршрутизацию критически важного PROFINET-трафика между виртуальными PLC (vPLC), развернутыми в VCF, и физическими устройствами ввода/вывода на производстве.

IvS основан на технологии NSX Enhanced Datapath (EDP) и разработан с учётом строгих требований промышленных систем управления: низкая задержка, минимальный джиттер и детерминированные сетевые характеристики. Производственная среда требует задержки на уровне сотен микросекунд для соответствия требованиям систем реального времени.

Основные функции

Поддержка PROFINET:

  • Поддерживает протокол PROFINET DCP (обнаружение и конфигурация устройств), необходимый для настройки и управления vPLC и I/O-устройствами.
  • Обрабатывает VLAN-тегирование и удаление тегов в Ethernet-кадрах PROFINET, поддерживает классы обслуживания для RT и NRT-трафика.
  • Использует режим Dedicated в EDP для обработки пакетов с высоким уровнем производительности и минимальной задержкой.

Поддержка PRP (Parallel Redundancy Protocol):

  • Поддерживает режим PRP RedBox, позволяющий подключать vPLC к двум независимым сетям для обеспечения отказоустойчивости.
  • Отправляет управляющие кадры PRP от имени vPLC и следит за состоянием обеих сетей.
  • Поддерживает взаимодействие с другими PRP-устройствами и управляет таблицами PRP Node и VDAN.

Измерение задержек:

  • IvS отслеживает задержки на уровне пакетов внутри хоста ESX, включая одностороннюю задержку между vNIC каждой ВМ и uplink-интерфейсом, с возможностью оповещений при превышении порогов.

Почему сейчас? Переход к программно-определяемому производству

Мотивация внедрения IvS очевидна: производители стремятся виртуализировать OT-среду и модернизировать цеха ради гибкости и конкурентоспособности. Ядром этой среды являются PLC. С помощью IvS возможно:

  • Повысить гибкость и адаптивность производственных процессов
  • Оперативно внедрять новые функции через обновления ПО
  • Существенно сократить время восстановления при сбоях, повысив надёжность
  • Централизованно управлять инфраструктурой
  • Стандартизировать стеки приложений и обеспечить безопасность и управляемость как локально, так и удалённо
  • Объединить несколько PLC на одном хосте — до 12 vPLC на систему
  • Обеспечить полную отказоустойчивость с нулевым временем переключения

Архитектура и требования

ПО:

  • VMware Cloud Foundation 9.0 с обновлённым NSX
  • Хосты в домене нагрузки с Industrial vSwitch

Сетевые интерфейсы (NIC):

  • Должны поддерживать NSX Enhanced Datapath — Dedicated
  • Поддержка устройств: NVIDIA Mellanox ConnectX-6

Совместимость с ПО:

  • Протестировано с Siemens TIA Portal v20, SIMATIC S7-1500V, CodeSys IDE, Control VM

Совместимость с PRP:

  • Проверено с Cisco IE3400 и Siemens Scalance

Архитектура развертывания

vPLC и IvS развертываются в рамках VCF workload domain, образуя кластер управления для производственной среды. Решение интегрируется с существующими промышленными шинами (fieldbus) и заменяет традиционные аппаратные PLC. Взаимодействие с устройствами в цехе происходит через Industrial Ethernet (PROFINET). Для отказоустойчивости используется PRP, подключённый к двум сетям: LAN-A и LAN-B.

Пример развертывания

  • vPLC VM размещаются в домене нагрузки VCF 9 и получают выделенные NSX VLAN-сегменты для подключения к своим ячейкам на производстве.
  • IvS подключается к LAN-A и LAN-B через встроенный PRP-интерфейс и формирует PRP-каналы с коммутаторами в каждой ячейке.
  • Трафик между vPLC и I/O реплицируется по обеим сетям для высокой надёжности и соответствия таймаутам.
  • Коммутаторы на производстве конфигурируются как PRP RedBox, обеспечивая безотказную связь между устройствами fieldbus и vPLC.
  • Основные инфраструктурные сервисы (NSX Manager, vCenter и пр.) размещаются в VCF Management domain.

Как это работает?

Industrial vSwitch (IvS) специально разработан для удовлетворения уникальных требований сценария использования vPLC, который требует:

  • Платформы виртуализации с поддержкой работы в реальном времени и детерминированным поведением управления.
  • Виртуального коммутатора с минимальной задержкой и предсказуемым джиттером.
  • Устойчивости к сбоям в сети.
  • Интеграции с PROFISAFE для обеспечения безопасности персонала.

В этой архитектуре задачи виртуализации и вычислений в реальном времени решаются за счёт продвинутых возможностей платформы ESX, а сетевые требования обеспечиваются Industrial vSwitch с встроенной поддержкой PRP (Parallel Redundancy Protocol). Интеграция с PROFISAFE была реализована в тесном сотрудничестве с производителями PLC в рамках общего проектирования решения.

Как настроить Industrial vSwitch в VCF 9

Шаг 1: Создание IvS в vCenter

Первым шагом активации Industrial vSwitch является его создание в vCenter.

Шаг 2: Добавление vSwitch в NSX

Добавьте vSwitch в NSX в составе профиля транспортного узла (Transport Node Profile) и настройте параметры PROFINET, PRP и другие конфигурации, необходимые для работы в режиме реального времени.

Шаг 3: Создание профиля сегмента IvS и VLAN-сегментов

Создайте профиль сегмента IvS, который будет использоваться для всех сегментов, предназначенных для развертывания vPLC. Настройте параметры PRP и активируйте измерение задержки (Latency Measurement) в соответствии с требованиями.

Далее настройте VLAN-сегменты в NSX в соответствии с VLAN’ами, используемыми vPLC и устройствами ввода/вывода. Затем назначьте профиль сегмента IvS на соответствующий сегмент, чтобы применить конфигурации для каждого VLAN отдельно.

Шаг 4: Развертывание виртуальной машины vPLC

Разверните виртуальную машину vPLC с сетевым интерфейсом, подключённым к IvS. Параметры vNIC — Strict Latency и Latency Measurement — автоматически настроят соответствующие параметры интерфейса. В частности, конфигурация Latency Measurement должна соответствовать выбранному профилю сегмента. Это позволит включить измерение задержки при передаче (TX) и приёме (RX) пакетов между vNIC и uplink-интерфейсами хоста.

После завершения настройки IvS непрерывно отслеживает задержку пакетов для каждого vNIC виртуального vPLC, чтобы обеспечить детерминированную производительность и контролируемый джиттер. Система фиксирует максимальную задержку по каждому vNIC и генерирует оповещение, если значение превышает заданный порог. Ниже приведён пример вывода для одного интерфейса, где максимальная задержка при передаче (TX) составила 108 микросекунд, а при приёме (RX) — 67 микросекунд.

С завершением основной настройки Industrial vSwitch вы можете приступить к вводу в эксплуатацию и программированию дополнительных vPLC, подключённых к IvS, через инженерную среду разработки (IDE). Для достижения оптимальной производительности рекомендуется обратиться к официальной документации, где приведены рекомендации по тонкой настройке — включая оптимизацию параметров BIOS хоста и обеспечение корректного выравнивания по NUMA.

Взгляд в будущее

Выход Industrial vSwitch в составе VCF 9 — это важный шаг вперёд в направлении расширения программно-определяемой инфраструктуры на среду промышленной автоматизации, где критически важна работа в реальном времени. Обеспечивая высокопроизводительную и отказоустойчивую сетевую связь для виртуализированных контроллеров, IvS создаёт прочную основу для построения более гибких, эффективных и надёжных производств будущего.

В дальнейшем VMware планирует добавить поддержку дополнительных протоколов шины fieldbus, расширить сотрудничество с технологическими партнёрами и продолжить развитие платформы под задачи операционных технологий (OT).

1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V Operations Certification VCF Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge