Новости Статьи VMware Veeam StarWind vStack Microsoft Nakivo Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6320 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Вышел VMware ESXi Embedded Host Client 1.23 - новые возможности.

21/08/2017

Одновременно с релизом тонкого клиента для управления виртуальной инфраструктурой VMware vSphere Client 3.19 компания VMware выпустила и обновление веб-клиента для управления отдельными хост-серверами ESXi Embedded Host Client 1.23. Напомним, что прошлая его версия 1.21 вышла 2 месяца назад - в середине июня.

Клиент для ESXi получил следующие новые возможности (в основном, это исправления ошибок):

  • Отображение списка виртуальных машин в настройках автостарта для хост-сервера.
  • Пофикшен баг с выбором роли в Internet Explorer 11.
  • Портлет с информацией о разделах теперь работает корректно.
  • Улучшенная обработка разделов неизвестных типов.
  • Исправлена проблема с дробным числом ядер на процессор в настройках ВМ (ха-ха-ха, ну и баг!).
  • Несколько исправлений различных мастеров.
  • Убрано неубираемое ранее оповещение при импорте ВМ о том, что она содержит floppy drive.
  • Поправлено скрытое выделение непоказываемых объектов, когда пользователь нажимает Select All в отфильтрованном списке ВМ (тоже детский баг!).
  • Обработка виртуальных модулей OVA при отсутствующем поле Description (и этот!).
  • Теперь доступные сетевые физические интерфейсы NIC отображаются корректно.
  • При форматировании тома VMFS дефолтно выбирается последняя версия файловой системы.
  • Добавлено несколько обновлений безопасности.

Скачать новую версию VMware ESXi Embedded Host Client 1.23 можно по этой ссылке (надо отметить, что через функцию Update в клиенте из состава vSphere 6.5 обновления видно не будет).

Вышла новая версия VMware vSphere Client 3.19 - много новых возможностей.

18/08/2017

Компания VMware выпустила большое обновление своего средства для управления виртуальной инфраструктурой, доступное на VMware Labs. На днях вышел веб-клиент VMware vSphere Client 3.19. Напомним, что он построен на базе технологии HTML5 и работает намного быстрее своего предшественника vSphere Web Client. Пару недель назад мы писали о версии 3.18, а уже подоспело большое обновление. Видимо, это к предстоящему VMworld 2017.

Итак, новые возможности vSphere Client 3.19:

  • Добавление хостового и клиентского USB-устройства к виртуальной машине.
  • Добавление USB-контроллера.
  • Действие по добавлению лицензии на сервер vCenter, кластер или хост.
  • Редактирование и клонирование политики хранилищ (VM Storage Policy), а также для отдельных ВМ (Actions > VM Policies > Edit VM Storage Policies).
  • Компонентное представление политики хранилищ. Создание и удаление компонентов.
  • Представление Related VM Templates для политики хранилищ.
  • Монтирование датасторов VVol.
  • Новый портлет VVOL Capability Profiles Capacity.
  • Создание и изменение спецификаций кастомизации ВМ (пока без кастомных конфигураций сетевого взаимодействия)
  • Конфигурация для отдельных дисков при клонировании ВМ или шаблона на странице Select storage.
  • Списки хостов могут быть отсортированы по потреблению CPU и памяти.
  • Мониторинг использования памяти DRS для кластеров, позволяющий переключаться между графиками active и consumed memory.
  • Обновленный интерфейс в мастере миграции, в части диалога compatibility issues - возможность отсортировать список по ВМ, хостам или самой проблеме совместимости.

Как мы видим, VMware наращивает темп по приближению к функциональности старого средства управления vSphere Web Client (их отличия приведены вот тут). Скачать VMware vSphere Client 3.19 можно с VMware Labs по этой ссылке.

Пара интересных новых документов о VMware vSAN 6.6.1.

17/08/2017

На сайте документации VMware, касающейся хранилищ - storagehub.vmware.com, появилось два интересных документа, посвященных последней версии продукта для создания отказоустойчивых кластеров VMware vSAN 6.6.1.

Первый - vSAN 6.6.1 Upgrade Considerations, он рассказывает о том, как нужно проводить апгрейд на vSAN 6.6.1 с предыдущих версий. Основные разделы документа посвящены вопросам состава операций и последовательности апгрейда хранилищ, подготовке сетевой инфраструктуры, а также шагам процесса обновления версии vSAN.

Второй документ - "VMware vSAN Design and Sizing Guide". Это уже более серьезный док, где на 73 страницах рассказывается о том, как нужно строить архитектуру решения, а также планировать под нее необходимые емкости хранилищ.

Здесь содержимое документа посвящено, главным образом, планированию будущей архитектуры решения, получению сбалансированных конфигураций и обеспечению правильного жизненного цикла эксплуатации продукта. Также там рассматриваются вопросы касательно технических лимитов инфраструктуры vSAN и построения правильной сетевой инфраструктуры.

Новое на VMware Labs: vRealize Operations Export Tool.

16/08/2017

На сайте проекта VMware Labs появилась полезная утилита для пользователей решения VMware vRealize Operations (vROPs) - vRealize Operations Export Tool. Она позволяет экспортировать метрики и свойства, собранные данным продуктом.

В качестве выходного формата можно выбрать CSV или generic SQL (через JDBC).  Утилита экспорта поддерживает сложные конструкции, такие как навигация по многошаговым связям между объектами, а также их алиасы.

Типичные варианты использования vRealize Operations Export Tool - это сбор данных для централизованных хранилищ данных, импорт в системы аналитики, а также анализ массивов метрик прочими подручными средствами.

Как установить и начать использовать утилиту:

1. Распаковываем:

mkdir ~/vrops-export
cd ~/vrops-export
unzip vrops-export-<version>-bin.zip
cd vrops-export-<version>/bin

2. Меняем права доступа:

chmod +x exporttool.sh

3. Запускаем скрипт экспорта данных:

./exporttool.sh -d samples/vmfields.yaml -u admin -p password -H https://my.vrops.host -i

vRealize Operations Export Tool можно запускать как на Linux/MacOS, так и на Windows. Полный синтаксис команд приведен вот тут. На данный момент утилита оттестирована с vRealize Operations 6.4, 6.5 и 6.6. Скачать ее можно по этой ссылке. Она, кстати, доступна как Open Source.

Демо-видео VMware vSAN 6.6.1 Performance Diagnostics.

15/08/2017

Недавно мы писали о новых возможностях отказоустойчивого кластера VMware vSAN 6.6.1, среди которых есть функция Performance Diagnostics, которая позволяет запускать различные бенчмарки и сравнивать полученные результаты с предыдущими их выполнениями.

По результатам исполнения бенчмарков выдаются рекомендации по увеличению производительности кластера хранилищ, такие как увеличение размера дисковой группы, добавление новых дисковых групп или изменение числа виртуальных машин. Тест проводится около 1 часа, после чего делается вывод о том, достигнуты ли значения параметров maximum IOPS, maximum throughtput и minimum latency. Если нет - то будут выписаны рекомендации.

Дункан Эппинг решил записать небольшое видео с обзором этой возможности, где он показывает результаты работы механизма диагностики производительности:

Надо сказать, что данные, собираемые на стороне кластера vSAN, в обезличенном виде передаются на сторону облака VMware, там анализируются и ответ обратно передается на сторону vSphere Web Client. Поэтому и требуется, чтобы Customer Experience Improvement Program (CEIP) была включена (в последних версиях она включена по умолчанию).

Полезно, что если вы не знаете, как интерпретировать результаты тестов, вы можете нажать ссылку Ask VMware и попасть на статью KB, где описывается, как должны выглядеть оптимальные значения, и что предпринять, если полученные результаты вас не устраивают.

VMware PowerCLI 6.5.1 и 6.5.2 - что нового по сравнению с осенним релизом 6.5.

14/08/2017

Где-то во время релиза обновленной версии платформы VMware vSphere 6.5 компания VMware выпустила и новую версию фреймворка PowerCLI 6.5, в котором было много новых возможностей, особенно касающихся управления кластером vSAN.

На днях же вышла версия PowerCLI 6.5.2 (сразу же после релиза vSphere 6.5 Update 1), посмотрим что там появилось нового, а также заодно упомянем новые фичи прошлого апдейта - PowerCLI 6.5.1 (он вышел 3 месяца назад).

Напомним также, что теперь PowerCLI можно устанавливать и обновлять через портал Microsoft PowerShell Gallery всего одной командой:

Итак, посмотрим что нового в PowerCLI 6.5.2:

1. Параметр InventoryLocation.

Если раньше при перемещении ВМ использовался параметр Destination, который принимал тип folder, ESXi-хост, кластер или ресурс-пул (но только одно из вышеперечисленного), то теперь можно использовать параметр InventoryLocation для задания непосредственного конечного положения ВМ. Это упрощает перемещение ВМ, например, между серверами vCenter:

2. Можно использовать ISO из Content Library.

Теперь командлет New-CDDrive имеет параметр ContentLibraryIso, который можно использовать для указания ISO-образа в библиотеке.

3. Обновления экспериментальных фичей:

  • Set-HardDisk -ZeroOut. Этот параметр можно использовать для заполнения диска нулями при прямом обращении к хосту ESXi.
  • New-HardDisk -AdvancedSetting. Этот параметр используется для ассоциации правил Storage Distributed Resource Scheduler (SDRS).
  • New-VM -AdvancedSetting. Аналогично предыдущему пункту - нужен для правил SDRS.
  • Install-VMHostPatch. Весь этот командлет пока экспериментальный.

А вот что нового было в PowerCLI 6.5.1:

1. Автозагрузка модулей PowerShell.

Теперь после логина и выполнения запроса к командлету автоматически подгружаются все необходимые модули. Например, вот что происходит после выполнения Connect-VIServer (обратите внимание на состав модулей):

2. Новые и обновленные командлеты для групп кластеров DRS и правил VM/Host.

Следующие командлеты были добавлены:

  • Get-DRSClusterGroup
  • New-DRSClusterGroup
  • Set-DRSClusterGroup
  • Remove-DRSClusterGroup
  • Get-DRSVMHostRule
  • New-DRSVMHostRule
  • Set-DRSVMHostRule
  • Remove-DRSVMHostRule

3. Новый модуль VMware.VimAutomation.Srm для управления SRM.

Теперь он вынесен из основного модуля в отдельный.

4. Обновления API.

Для работы с внешними продуктами были очень существенно обновлены модули vR Ops (vRealize Operations) и Horizon (для работы с Horizon View 7.1 API).

5. Новые командлеты для iSCSI vSAN.

Здесь появились следующие командлеты для управления инициаторами и таргетами iSCSI:

  • Get-VsanIscsiInitiatorGroup
  • New-VsanIscsiInitiatorGroup
  • Set-VsanIscsiInitiatorGroup
  • Remove-VsanIscsiInitiatorGroup
  • Get-VsanIscsiTarget
  • New-VsanIscsiTarget
  • Set-VsanIscsiTarget
  • Remove-VsanIscsiTarget
  • Get-VsanIscsiInitiatorGroupTargetAssociation
  • New-VsanIscsiInitiatorGroupTargetAssociation
  • Remove-VsanIscsiInitiatorGroupTargetAssociation
  • Get-VsanIscsiLun
  • New-VsanIscsiLun
  • Set-VsanIscsiLun
  • Remove-VsanIscsiLun
  • Get-VsanStat
  • Start-VsanDiskFormatUpdate
  • Get-VSANView

Также модуль Storage получил новые командлеты для механизма storage policy based management (SPBM):

  • Start-SpbmReplicationPromote
  • Start-SpbmReplicationTestFailover
  • Stop-SpbmReplicationTestFailover

Более подробно обо всем этом написано в VMware PowerCLI 6.5.2 Cmdlet Reference. Загрузить vSphere PowerCLI 6.5.2 и получить подробную информацию о новых фичах по релизам можно на этой странице.

Виртуализация приложений: как правильно настраивать виртуальные машины

13/08/2017

Гостевой пост компании ИТ-ГРАД. Переход в облако – актуальная задача, с которой сегодня сталкиваются многие компании. Виртуализировав парк локальных серверов и перенеся на облачную площадку приложения, организация избавляется от ряда проблем, с которыми приходилось сталкиваться ранее. Однако правильность конфигурации виртуальной среды, в частности виртуальных машин, остается вопросом номер один. На что обратить внимание при работе с ВМ, как создать максимально производительную инфраструктуру и не допустить ошибок – расскажем в этой статье.

Предварительный сайзинг – залог успеха

Перед тем как приступить к развертыванию ВМ в облаке провайдера, необходимо определить хотя бы ее примерный размер. При этом важно понимать, что не всегда больше ресурсов означает больше производительности. К тому же, если компания сталкивается с вопросом миграции уже существующих приложений, следует проанализировать данные мониторинга. Это позволит определить, какие ресурсы требует ВМ и в каком объеме.


Перенос приложений в облако провайдера

При переносе приложения из локальной инфраструктуры в облачную убедитесь в корректности работы ПО. То есть приложение, которое теперь находится внутри ВМ, необходимо протестировать. Если это тяжеловесный софт, еще на начальном этапе рекомендуют придерживаться следующей методики: запустить ВМ на одном ESXi-сервере, зарезервировав при этом ресурсы процессора и памяти. После чего начать тестирование на определение производительности и работоспособности, а полученные результаты занести в baseline. Дополнительно оценивается, как приложение работает на определенной архитектуре в условиях отсутствия рабочих нагрузок.

После того как статистика по ВМ и приложениям собрана, создаются условия, приближенные к рабочим: к хосту добавляют несколько дополнительных виртуальных машин, формируя добавочную нагрузку. При этом каждая ВМ использует выделенные под нее ресурсы процессора и памяти. Теперь, когда нагрузка возросла, снова запускают тест производительности и сравнивают полученные результаты с уже имеющимся baseline. На этом этапе важно понять, снижаются ли показатели производительности и насколько. Если в условиях увеличенной нагрузки приложения работают штатно, а производительность хоть и упала, но является достаточной для функционирования сервисов, можно продолжать увеличивать количество ВМ. Но делать это необходимо внимательно, постоянно отслеживая распределение ресурсов. Читать статью далее->>

Новые возможности VMware vSAN 6.6.1 - да, их немало.

11/08/2017

Недавно мы писали о выходе первого пакета обновления платформы VMware vSphere 6.5 Update 1, в рамках которого также было выпущено еще несколько апдейтов продуктовой линейки VMware, в том числе обновление решения для создания отказоустойчивых кластеров хранилищ vSAN 6.6.1.

Основная новая функция vSAN, о которой мы уже писали - это возможность использования vSphere Update Manager для обновления кластеров vSAN 6.6.1. О ней хорошо рассказывается в следующем видео:

Между тем, в vSAN 6.6.1 появилось еще несколько интересных фич, которые обычно присущи среднему (а не минорному) обновлению:

1. Раздел vSAN Performance Diagnostics.

Теперь на вкладке vSAN в Web Client появился пункт Performance Diagnostics, в котором можно запускать различные бенчмарки и сравнивать полученные результаты с предыдущими их выполнениями:

Кроме того, по результатам исполнения бенчмарков будут выданы рекомендации по увеличению производительности кластера хранилищ, такие как увеличение размера дисковой группы, добавление новых дисковых групп или изменение числа виртуальных машин.

Тест проводится около 1 часа, после чего делается вывод о том, достигнуты ли значения параметров maximum IOPS, maximum throughtput и minimum latency. Если нет - то будут выписаны рекомендации.

Для работы этой возможности необходимо, чтобы были включены фичи Customer Experience Improvement Program (CEIP) и vSAN Performance Service.

2. Поддержка Config Generation.

С переходом vSAN 6.6 на юникастовую коммуникацию с vCenter, последний воспринимается как единственный источник доверительной конфигурации. Однако, если vCenter становился недоступным, а конфигурация кластера менялась, то при возобновлении доступности vCenter конфигурация откатывалась к прежней. Теперь же есть параметр Config Generation, содержащих GUID и время последних изменений конфига.

3. Хэлсчеки для VUM.

Так как vSAN теперь обновляется через VMware Update Manager (VUM), то в разделе Health появились новые проверки состояний:

4. Поддержка миганий индикаторов для HP Gen9.

Теперь vSAN 6.6.1 может заставлять мигать LED-индикаторы на серверах HP Gen9 на выбранных устройствах, что позволяет упростить идентификацию отдельных дисков в очень больших окружениях.

Эта фича работает как в режиме RAID, так и в режиме pass-through.

Загрузить VMware vSAN 6.6.1 можно по этой ссылке. Release Notes доступны тут. А вот тут можно скачать документ с описаниями новых возможностей.

Отчет Principled Technologies - VMware vSphere производительнее, чем RedHat Enterprise Virtualization.

10/08/2017

На днях вышел интересный отчет компании Principled Technologies, специализирующейся, в том числе, на всякого рода тестировании аппаратно-программных сред. В документе "VMware vSphere memory overcommitment delivered greater VM density than Red Hat Virtualization" рассказывается о том, что на одном и том же оборудовании с помощью гипервизора ESXi можно запустить больше виртуальных машин, чем на гипервизоре KVM платформы RHEV.

Понятное дело, что исследование ангажированное (хотя бы, если посмотреть на заголовок), но поскольку таких документов не так много, мы решили обратить на него внимание.

Для тестирования использовался стоечный сервер Lenovo x3650 M5, на котором в виртуальных машинах работала СУБД Microsoft SQL Server 2016 с нагрузкой типа OLTP. В качестве основного показателя производительности использовался OPM (orders per minute), отображающий количественную оценку исполненных транзакций.

Если не использовать техники Memory Overcommit, то результат выполнения на 15 виртуальных машинах одного хоста в числе OPM примерно одинаковый на обоих гипервизорах:

А вот когда происходит увеличение числа виртуальных машин, то vSphere показывает себя значительно лучше:

Крестиками отмечены машины, которые на RHV просто не запустились, консоль продукта выдала вот такую ошибку:

Несмотря на включение техник оптимизации памяти в Red Hat Virtualization Manager (RHV-M), таких как memory ballooning и kernel shared memory, шестнадцатая виртуальная машина все равно отказывалась запускаться на KVM:

Ну а на vSphere продолжали наращивать число ВМ, пока не уперлись в недостаток ресурсов:

Получилось, что с техниками overcommit на vSphere получилось запустить 24 виртуальных машины, а на RHV - всего 15 штук. По итогу сделали вывод, что на VMware vSphere в 1,6 раза можно запустить больше виртуальных машин:

Не сказать, что это объективное тестирование, но очевидно, что ESXi в данном случае работает лучше KVM с точки зрения всяких оптимизаций памяти и прочих ресурсов ВМ.

Выпущены VMware vSphere Central и vSphere 6.5 Topology and Upgrade Planning Tool.

09/08/2017

На днях компания VMware объявила о доступности онлайн-ресурса vSphere Central, на котором собраны все необходимые технические материалы по работе с платформой VMware vSphere. Ассеты, размещенные на vSphere Central, позволят администраторам получить все необходимые знания и навыки по работе с различными компонентами продукта, научиться обновлять их, обслуживать и прочее.

Контент на портале представлен в различных форматах, таких как текст/PDF, презентации, видео, а также живые кликабельные демонстрации продуктов и технологий (walkthrough).

Среди контента портала есть утилита vSphere 6.5 Topology and Upgrade Planning Tool, которая поможет администраторам vSphere спланировать новые развертывания решения, а также провести успешный апгрейд на версию 6.5 с прошлых версий платформы.

Если вы планируете обновление, то это средство спросит у вас текущие параметры виртуальной среды и желаемые параметры целевой инфраструктуры, а потом подскажет примерную рекомендуемую топологию:

Также, как часть процесса миграции, вам дадут текстовые и графические рекомендации по переносу сервера VMware vCenter в виртуальный модуль vCenter Server Appliance (так как сейчас это рекомендуемый сценарий эксплуатации vCenter).

Как бонус, в самом конце вам дадут список ресурсов о том, что необходимо будет сделать после обновления виртуальной инфраструктуры. Эти ресурсы можно будет отправить себе или своему коллеге по электронной почте.

Получить доступ к vSphere 6.5 Topology and Upgrade Planning Tool можно по этой ссылке. Компания VMware делает особенный акцент на том, что это средство будет постоянно улучшаться, как в плане UI, так и в плане насыщения контентом.

VMware Horizon Virtualization Pack for Skype for Business - тесты производительности.

07/08/2017

Некоторое время назад мы писали о бета-версии VMware Horizon Virtualization Pack for Skype for Business - решении, которое предназначено для оптимизации голосовых и видеовызовов Skype в виртуальных ПК бизнес-пользователями приложения. Некоторое время назад VMware объявила о выпуске финальной версии этого продукта, а также опубликовала несколько интересных материалов по теме.

Во-первых, вот такое обзорное видео продукта и используемых технологий:

Во-вторых (и это самое интересное), видеоотчет о тестировании решения при совершении звонков в рамках нескольких регионов США:

Суть теста заключалась в следующем: сначала использовали видеозвонок по скайпу типа "точка-точка", который обслуживала встроенная технология оптимизации VMware Real-Time Audio-Video (RTAV). В этом случае виртуальные десктопы находились за 3000 миль от звонящих, и трафик ходил дважды это расстояние, хотя звонящие находились физически недалеко друг от друга:

В этом случае Latency в одну сторону составляло где-то 100 миллисекунд, а производительность видеовызова была не на высоте.

Для второго теста использовался как раз Horizon Virtualization Pack for Skype for Business, который позволяет организовать прямую передачу аудио и видеопотока между конечными устройствами пользователей. Остальные условия были теми же самыми.

Соответственно, если они находятся рядом друг с другом, а датацентр далеко - то производительность видеовызова будет очень хорошей, так как трафику не потребуется пересекать всю страну. Для нашей страны такая технология тоже может быть очень актуальной, особенно для компаний, работники которых часто перемещаются между регионами и общаются между собой по скайпу.

Более подробно о решении VMware Horizon Virtualization Pack for Skype for Business можно узнать на этой странице.

Gartner опубликовала Magic Quadrant for Data Center Backup and Recovery Software 2017 - Veeam в лидерах.

04/08/2017

Аналитическая компания Gartner выпустила магический квадрант (Magic Quadrant) за 2017 год, посвященный программному обеспечению для резервного копирования и восстановления ИТ-систем датацентров. Напомним, что о квадранте по серверной виртуализации мы писали вот тут, а здесь - про квадрант об IaaS (Infrastructure-as-a-Service).

Magic Quadrant используется для оценки поставщиков какого-либо сегмента рынка информационных технологий, где Gartner использует две линейные прогрессивные экспертные шкалы:

  • полнота видения (completeness of vision)
  • способность реализации (ability to execute)

Каждый поставщик, попавший в рамки рассмотрения для исследуемого сегмента рынка, оценивается по этим двум критериям. При этом, полнота видения откладывается на оси абсцисс, способность реализации — на оси ординат. Каждый поставщик, таким образом, оказывается в одном из четырёх квадрантов плоскости, называемых:

  • Лидеры (leaders) — поставщики с положительными оценками как по полноте видения, так и по способности реализации.
  • Претенденты (сhallengers) — поставщики с положительными оценками только по способности реализации.
  • Провидцы (visionaries) — поставщики с положительными оценками только по полноте видения.
  • Нишевые игроки (niche players) — поставщики с отрицательными оценками по обоим критериям.

Как и в квадрантах прошедших 4 лет, компания Veeam - единственная в сегменте лидеров производящая специализированное ПО для бэкапа виртуальных сред Veeam Backup and Replication. Остальные - это традиционные поставщики систем резервного копирования, которых Veeam постепенно вытесняет с рынка ПО для бэкапа виртуальных машин.

Кстати, вот так выглядел этот квадрант год назад:

Если взглянуть на квадрант 2017 повнимательнее, то из существенных изменений там только одно - появилась компания Rubrik, которую прочат в конкуренты Veeam в ближайшие годы (она в списке визионеров, но имеет в своем распоряжении немного ресурсов).

Полностью отчет Gartner Magic Quadrant for Data Center Backup and Recovery Software 2017 можно скачать по этой ссылке с сайта Veeam. Кстати, Veeam еще находится в списке Топ-100 облачных компаний 2017 по версии FORBES.

Новые возможности VMware Site Recovery Manager 6.5.1.

03/08/2017

Как вы знаете, недавно компания VMware сделала доступным для загрузки обновление платформы виртуализации vSphere 6.5 Update 1, одновременно с которым были выпущены апдейты и других продуктов. Одним из них стал релиз продукта для обеспечения катастрофоустойчивости VMware Site Recovery Manager 6.5.1 (SRM).

Напомним, что выпуск версии SRM 6.5 состоялся осенью прошлого года, и там было весьма много новых возможностей. В этом же небольшом обновлении основной фичей является поддержка последней версии платформы vSphere, но не только. Давайте посмотрим на нововведения VMware SRM 6.5.1:

  • VMware Site Recovery Manager 6.5.1 теперь полностью совместим с VMware vSphere 6.5 Update 1 и средствами репликации VMware vSphere Replication 6.5.1, которые также были выпущены с апдейтом vSphere.
  • Доступна миграция vCenter Server Virtual Appliance 6.0 Update 3 на vCenter Server Virtual Appliance 6.5 Update 1, что дает пользователям прямой путь апгрейда с SRM 6.1.2 на SRM 6.5.1 (если же вы делаете апгрейд с версии SRM 6.0, то надо будет сначала обновиться на 6.1.2).
  • Поддержка новых внешних баз данных:
    • Microsoft SQL Server 2014 Service Pack 2
    • Microsoft SQL Server 2016 Service Pack 1
  • Поддержка новых гостевых ОС:
    • Windows Server 2016
    • CentOS 6.9
    • RHEL 7.3.5
    • Ubuntu 17.04 non Long Term Support (LTS)
  • Исправления ошибок

Скачать VMware Site Recovery Manager 6.5.1 можно по этой ссылке.

Вышел VM Deployer 1.4 - утилита для развертывания OVA/OVF-шаблонов.

02/08/2017

Не так давно мы писали об утилите VM Deployer, которая представляет собой Java-приложение с графическим интерфейсом, позволяющее развернуть виртуальный модуль OVA/OVF с расширенными опциями. Это удобно для тех администраторов виртуальной инфраструктуры VMware vSphere, у которых не получается развернуть модуль через vSphere Web Client или vSphere Client, либо не хватает его возможностей, а также возможностей консольной утилиты ovftool.

С того времени вышли версии VM Deployer 1.2 и 1.4, в которых уже появились функции поинтереснее, чем в первой версии, поэтому ниже мы расскажем об основных из них.

  • Генерация полной консольной команды для ovftool. В графическом интерфейсе выбираете все необходимые параметры, нажимаете кнопку - и выплевывается строчка, которую можно вставить в консоль и выполнить.
  • Развертывание ВМ из виртуального модуля сразу в несколько расположений. Например, это удобно для тестовой среды - поставил развертываться и ушел. Также это работает быстрее последовательного развертывания.
  • Конфигурирование сразу нескольких сетевых интерфейсов и виртуальных сетей. Раньше в GUI можно было сделать только один, а после развертывания добавлять и настраивать остальные.
  • Поддержка нескольких секций OVF-спецификации. Раньше не все параметры отображались - это был баг данной утилиты.
  • Экспорт виртуальной машины на локальную файловую систему. Это может пригодиться в целях бэкапа, когда нужно быстро и на короткое время сохранить машину.
  • Возможность открытия консоли VMRC к машине после ее деплоя. Также можно открыть консоль и к любой другой уже существующей машине.
  • Прямо из утилиты можно создавать новые папки на датасторах. Это можно делать при развертывании виртуальной машины из виртуального модуля, чтобы не обращаться в Web Client.
  • Возможность размещения ВМ в кластере - эта функция доступна при выборе кластера из выпадающего списка объектов инфраструктуры.

Скачать утилиту VM Deployer 1.4 можно по этой ссылке.

Вышел VMware vSphere Client 3.18 и обновилась таблица его возможностей (и невозможностей).

01/08/2017

Как вы знаете, на днях компания VMware выпустила обновленную версию платформы vSphere 6.5 Update 1, одной из новых возможностей которой стала обновленная версия клиента vSphere Client. Напомним, что этот клиент построен на базе технологии HTML5, и работает он намного быстрее своего предшественника vSphere Web Client. О прошлой версии vSphere Client 3.17 мы писали всего неделю назад.

Доступен vSphere Client на сайте проекта VMware Labs, ну а теперь его версия 3.18 включена в состав платформы vSphere 6.5 U1. На самом деле, мало что добавилось по сравнению с версией 3.17:

  • В мастере обновления распределенного коммутатора (distributed switch) теперь поддерживается апгрейд LACP на режим Enhanced mode, а также апгрейд механизма Network I/O Control на версию 3.
  • На распределенном коммутаторе теперь можно просматривать настройки групп link aggregation.

Но самое интересное - это вовсе не новый релиз клиента vSphere Client. Самое интересное - это обновленная таблица возможностей, которые позволяет делать этот клиент, а также список функций, которые он исполнять пока не позволяет:

Обе эти таблицы актуальны для самого последнего релиза 3.18, но новые версии vSphere Client, которые регулярно обновляются на VMware Labs, будут постепенно закрывать функциональность, указанную в таблице Unsupported Functionality.

Кстати, VMware уверяет, что на текущий момент vSphere Client 3.18 покрывает 90% возможностей, доступных в Web Client, а в ближайшее время эта цифра наконец-то дорастет до 100%.

Скачать VMware vSphere Client 3.18 можно по этой ссылке, также он идет в составе дистрибутива VMware vSphere 6.5 Update 1.

Вышел VMware vSphere 6.5 Update 1 - новые возможности.

31/07/2017

Спустя почти 9 месяцев с момента выпуска платформы VMware vSphere 6.5, компания VMware анонсировала первый пакет ее обновления - VMware vSphere 6.5 Update 1. Но в таком долгом сроке обновления есть и большой плюс - ведь наверняка на этот раз QA-отдел VMware успел хорошо проверить новый релиз, поэтому критических багов после обновления вылезти не должно (их, кстати, согласно списку Release Notes было немало исправлено). Тем не менее, как обычно мы советуем вам подождать недельку другую перед обновлением на новую версию:)

Давайте посмотрим, что нового появилось в VMware vSphere 6.5 Update 1:

1. vSphere Client теперь поддерживает 90% рабочих процессов.

Последний релиз vSphere Client на базе технологии HTML5 поддерживает практически все рабочие процессы, за исключением некоторых нечасто используемых операций. Совсем немного осталось до стопроцентного покрытия (хотя нам это говорили уже несколько месяцев назад). Надо отметить, что теперь полностью поддерживаются операции с Virtual Distributed Switch (VDS).

2. vCenter Server Foundation теперь поддерживает 4 хоста ESXi вместо трех.

Это сделано по просьбам клиентов, имеющих небольшую инфраструктуру и требующих одну лицензию на vCenter на четное число хостов.

3. Расширенная поддержка сторонних компонентов.

VMware поработала с основными партнерами, решения которых дополняют инфраструктуру vSphere, и выработала подход, который позволит избежать проблем совместимости различных версий платформы в будущем с такими компонентами, как Security Key Management, Proactive HA и т.п.

4. Расширенная поддержка vSphere 6.5 General Support.

VMware решила расширить поддержку платформы vSphere 6.5 до 5 лет, что означает, что она закончится 15 ноября 2021 года.

5. Апгрейд на vSphere 6.5 U1 c vSphere 6.0 U3.

VMware полностью поддерживает рабочий процесс обновления последней версии vSphere 6.0 U3 предыдущего поколения на актуальную версию vSphere 6.5 Update 1. То есть, теперь нет необходимости промежуточного обновления на vSphere 6.5.

6. Обновления драйверов.

Следующие драйвера устройств были обновлены в составе гипервизора ESXi 6.5 Update 1:

  • Cavium qlnativefc driver
  • VMware nvme driver
  • Intel i40en driver with Lewisburg 10G NIC Support
  • Intel ne1000 driver with Lewisburg 1G NIC Support
  • Intel igbn driver
  • Intel ixgben driver
  • Broadcom ntg3 driver

7. Улучшения максимумов vCenter.

Теперь у vCenter следующие максимально поддерживаемые параметры (vSphere Domains - это SSO-домены):

  • Maximum vCenter Servers per vSphere Domain: 15 (было 10)
  • Maximum ESXi Hosts per vSphere Domain: 5000 (было 4000)
  • Maximum Powered On VMs per vSphere Domain: 50,000 (было 30,000)
  • Maximum Registered VMs per vSphere Domain: 70,000 (было 50,000)

8. Другие улучшения vCenter.

  • Интерфейс установщика vCenter Server Appliance (vCSA) доступен для Microsoft Windows 2012 x64, Microsoft Windows 2012 R2 x64, Microsoft Windows 2016 x64 и macOS Sierra.
  • TcServer заменен на Tomcat 8.5.8.
  • Поддержка кастомизации гостевой ОС Ubuntu 17.04.
  • Возможность использования vSphere Update Manager для обновления кластеров vSAN 6.6.1.

  • Поддержка внешних СУБД Microsoft SQL Server 2016, Microsoft SQL Server 2016 SP1 и Microsoft SQL Server 2014 SP2.

Кстати, это последний релиз который поддерживает сторонние виртуальные распределенные коммутаторы, такие как IBM DVS 5000v, HPE 5900v или Cisco Nexus 1000v. В следующем релизе их больше нельзя будет использовать, поэтому осваивайте vDS от VMware. Более подробная информация об этом приведена в KB 2149722.

Скачать VMware vSphere 6.5 Update 1 можно по этой ссылке. Ну и еще несколько полезных ссылок для продуктов, которые были обновлены одновременно с основной платформой:

Репликация назначения прав для инфраструктуры VMware Horizon 7 и App Volumes.

28/07/2017

В последнее время от продуктовой команды VMware Horizon идет много новостей. Мы уже писали о документах "VMware Horizon Apps Performance Reference Architecture" и "Best Practices for Published Applications and Desktops in VMware Horizon Apps and VMware Horizon 7", а также о том, что VMware Horizon Cloud будет скоро доступен на платформе Microsoft Azure.

На днях пришла еще одна интересная новость - вышел документ "VMware Horizon 7 Enterprise Edition Multi-Site Reference Architecture", в котором рассказывает о том, как строить архитектуру решения Horizon 7 для нескольких площадок в целях отказо- и катастрофоустойчивости.

Как один из вариантов резервирования инфраструктуры App Volumes там рассматривается поддержание резервной инфраструктуры серверов App Volumes Managers и баз данных SQL Server на каждой площадке (их может быть не только две, но и больше):

Но проблема в том, что права доступа пользователей (Entitlements) в этом случае не синхронизированы (они хранятся на SQL Server), что повлечет за собой проблемы доступа при переключении на резервную площадку.

Для решения этой проблемы коллеги написали PowerShell-скрипт, который позволяет синхронизировать назначения прав (Entitlements) на основной и резервной площадках. При этом данный скрипт не реплицирует данные AppStacks, которые можно перенести обычным копированием, либо автоматизировать этот процесс за счет настройки Storage Groups, как это описано в документе "App Volumes Deployment Considerations".

Сначала проверьте работоспособность данного сценария, а потом уже можно добавить его, например, в планировщик Windows.

Анонсирован VMware Horizon Cloud on Microsoft Azure.

27/07/2017

Как вы помните, некоторое время назад компания VMware отказалась от своего публичного IaaS-облака и сфокусировалась на работе с партнерами (осенью прошлого года объявляли об интеграции с AWS). Ну а на днях был анонсирован скорый выход решения VMware Horizon Cloud on Microsoft Azure.

По-сути, это хостинг виртуальных десктопов Horizon View на стороне IaaS-облака Microsoft Azure с возможностью интеграции с онпремизной инфраструктурой VMware Horizon. То есть, это технология desktop-as-a-service (DaaS), которая благодаря присутствию Azure в 38 регионах позволит создать инфраструктуру доступа к виртуальным ПК крупным компаниям. Кстати, ранее VMware уже сотрудничала с Microsoft, когда разрабатывала решение Skype for Business on Horizon.

Horizon Cloud на платформе Azure будет включать в себя несколько интеграций с технологиями Microsoft, например, управление доступом Azure Active Directory (AD) из административной панели для Horizon. При этом вся инфраструктура будет управляться со стороны Microsoft Azure, а VMware предлагает партнерам сделать свои средства управления, если у клиентов Azure будет такая необходимость.

С точки зрения ценообразования, пользователям придется платить за Horizon Cloud на базе concurrent-лицензий, а за Azure нужно будет рассчитываться как за обычный IaaS.

Ожидается, что решение VMware Horizon Cloud on Microsoft Azure будет доступно во второй половине 2017 года для виртуализованных приложений и в 2018 году для виртуальных десктопов. Более подробно о решнии можно узнать из FAQ и на этой странице (там же можно записаться и на закрытую бету продукта).

Улучшения производительности VMware vSAN 6.6 по сравнению с 6.5.

26/07/2017

Весной этого года вышло обновление решения для создания отказоустойчивых кластеров для виртуальных машин на платформе vSphere - VMware vSAN 6.6. Прошлая версия продукта Virtual SAN 6.5 вышла еще осенью 2016 года, и vSAN 6.6 заметно продвинулся в плане функционала. Но, оказывается, это решение стало еще и существенно лучше в плане производительности. И на эту тему есть полезный документ "vSAN 6.6 Performance Improvements", описывающий результаты тестирования обеих версий продукта.

Для тестов использовалось одинаковое оборудование (кластер All-Flash) и 3 типа симуляции рабочей нагрузки:

  • Random Read
  • Random Write
  • Mixed random Read/Write (70/30%)

Посмотрим на графики, показывающие улучшения в различных аспектах:

Большое рабочее множество данных (Large Working Set)

Это самый нагрузочный вариант использования системы хранения, когда на нее идут длинные и непрерывные операции записи, иногда перемежающиеся операциями чтения.

Так выглядит суммаризованный график улучшения по числу IOPS для трех типов нагрузок и различных уровнях RAID:

Вот так выглядит уменьшение задержек при обращении к дискам (Latency). Чем ниже столбик - тем сильнее уменьшилась задержка:

Так выглядит отдельный график по IOPS для типа нагрузки 70% чтения и 30% записи:

Так выглядит Latency для этого типа нагрузки:

IOPS для Random Writes:

Latency для Random Writes:

Малое рабочее множество данных (Small Working Set)

Этот вариант использования хранилища меньше зависит от аппаратных особенностей и больше способен показать улучшения, сделанные в программных компонентах. Несмотря на то, что он не встречается в чистом виде (как впрочем и Large Working Set), малые рабочие множества встречаются в среде, где работают много небольших задач одновременно, обращения которых к хранилищам перемешиваются в потоке ввода-вывода.

Так выглядит суммаризованный график улучшения по числу IOPS для трех типов нагрузок и различных уровнях RAID (заметьте, что процент улучшений здесь значительно выше, чем для Large Working Set):

Вот так выглядит уменьшение задержек при обращении к дискам (Latency). Чем ниже столбик - тем сильнее уменьшилась задержка (также улучшения более существенны, чем для Large Working Set):

Так выглядит отдельный график по IOPS для типа нагрузки 70% чтения и 30% записи:

Так выглядит Latency для этого типа нагрузки:

IOPS для Random Writes:

Latency для Random Writes:

В целом, мы видим, что по всем параметрам и для всех аспектов (рабочее множество, тип нагрузки, уровень RAID) решение vSAN 6.6 обходит своего предшественника (а в некоторых случаях - весьма существенно).

Новый документ "Performance Best Practices for VMware vSphere 6.5".

25/07/2017

Компания VMware выпустила долгожданный документ, раскрывающий основные аспекты лучших практик для своей серверной платформы виртуализации в плане производительности - "Performance Best Practices for VMware vSphere 6.5".

В документе более 100 страниц, и он раскрывает практически все аспекты управления виртуальной инфраструктурой и работой виртуальных машин на хост-серверах VMware ESXi.

Вот какие вопросы позволяет решить прочтение данного документа:

  • Подбор необходимого оборудования в качестве хостов для виртуальных машин и управляющих серверов.
  • Настройка серверов ESXi и виртуальных машин на них в целях оптимизации производительности.
  • Применение рекомендаций по конфигурации различных гостевых операционных систем, работающих в ВМ.
  • Настройка всех компонентов инфраструктуры управления платформой vSphere. Это самый интересный пункт, из которого можно узнать лучшие практики по работе с DRS, HA, Fault Tolerance, vSAN и многими другими продуктами и технологиями VMware.

Это, кстати, один из важных документов при подготовке к экзамену на VMware Certified Professional. Ну а для администраторов больших инфраструктур этот документ просто обязательных к изучению, так как совсем небольшая оптимизация на стороне хост-сервера или ВМ может дать очень большой эффект для инфраструктуры в целом.

Вышла новая версия клиента VMware vSphere Client 3.17.

23/07/2017

На днях компания VMware выпустила очередное обновление главного клиента для управления виртуальной инфраструктурой - VMware vSphere Client 3.17. Напомним, что этот клиент на базе технологии HTML5 скоро заменит собой устаревший vSphere Web Client. О прошлой версии vSphere Client 3.16, которая вышла пару недель назад, мы писали вот тут.

Давайте взглянем на новые возможности VMware vSphere Client 3.17:

  • Функции создания новой политики хранения ВМ (VM Storage Policy). Пока в рамках данной версии клиента можно делать следующие вещи:
    • Миграция Host Networking на распределенный коммуатор Distributed Switch.
    • Настроить адрес шлюза на адаптерах VMkernel (только в ESXi 6.5).
    • Поддержка механизма управления трафиком Network I/O Control v3.
    • Настройки опций аппаратного обеспечения при клонировании ВМ или развертывании ее из шаблона.
    • Создание политик хранения для томов VVol.
  • Также были сделаны следующие улучшения:
    • Оповещение при изменении настроек ВМ или операциях со снапшотами, что машина управляется данным клиентом.
    • Предупреждение, если свободного места на датасторе осталось меньше, чем размер файла, который пользователь пытается залить на датастор.

Скачать тонкий клиент VMware vSphere Client 3.17 можно по этой ссылке.

Новый документ "VMware Horizon Apps Performance Reference Architecture".

21/07/2017

Не так давно мы писали про документ "RDSH Session Load-Balancing in Horizon 6 and Horizon 7", в котором рассматриваются вопросы балансировки нагрузки на ферму серверов RDSH, в рамках которой работают терминальные приложения и сессии пользователей.

Ну а на днях VMware выпустила на тему RDSH не менее интересный документ "VMware Horizon Apps Performance Reference Architecture", раскрывающий вопросы производительности большой инфраструктуры доставки приложений и терминальных сессий.

Для тестов была взята некая референсная архитектура решения, работающая на базе технологии App Volumes с пулами наиболее используемых приложений, и рассмотрены различные варианты отработки виртуальной инфраструктурой нагрузок в гостевых системах. Сами виртуальные десктопы создавались посредством технологии Instant Clone.

Вот такая архитектура рассматривалась при тестировании:

А так были распределены рабочие нагрузки по хост-серверам VMware ESXi:

Результаты рассматривали в пяти аспектах:

1. Производительность работы пользователей (User-Experience Performance Results).

Время отклика при росте количества одновременных сессий всегда находилось в норме и росло линейно:

2. Пиковые нагрузке при массовой загрузке десктопов (Boot Storms).

Хосты отрабатывали нагрузки Boot Storms на 70% загрузках мощности, после чего нормализовывали текущий уровень:

3. Производительность работы хост-серверов (Host Performance Results).

Хосты RDSH отрабатывали хорошо:

А хосты обслуживания инфраструктуры vSphere и Horizon еще лучше:

4. Производительность виртуальных машин (Virtual Machine Performance Results).

Машины в среднем не были загружены по ресурсам в пике более чем на 50%:

5. Производительность подсистемы хранения (Storage Performance Results).

Виртуальные машины RDSH выдавали вполне приемлемые показатели производительности хранилищ:

На самом деле, документ содержит десятки интересных графиков, таблиц и инсайтов. Очень рекомендуется к прочтению тем, кто планирует у себя развертывание инфраструктуры виртуализованных приложений и терминальных серверов RDSH.

Вышел VMware View Horizon Toolbox 7.2 - новые возможности и новая нумерация версий.

20/07/2017

Полтора года назад мы писали о VMware Horizon Toolbox 2 - средстве, которое позволяет получать информацию о виртуальных ПК, производительности и сессиях пользователей в инфраструктуре VMware Horizon View. По-сути, это расширение возможностей продукта View Administrator. Ну а на днях вышла версия Horizon Toolbox 7.2, которая является продолжением версии 2.1.3.

Давайте посмотрим, что нового появилось в Horizon Toolbox 7.2:

  • В первую очередь, это, конечно же, поддержка решения VMware Horizon View 7.2, которое вышло месяц назад. Номер версии Horizon Toolbox 7.2 теперь соответствует версии основного продукта.
  • Поддержка аудита действий конечных пользователей (для этого ставится агент), включая такие действия, как операции с USB-хранилищами, функции Client Drive Redirection и операции с буфером обмена. Все это делается в целях обеспечения ИТ-безопасности.
  • Функция vSphere Console Access (прямой доступ к консоли ВМ) теперь доступна для всех родительских ВМ (Parent VM).
  • Пофикшены ошибки с подсчетом сессий и отображением доступных доменов при логине.
  • Функция Remote Assistance была убрана из продукта, так как она стала частью Horizon View 7.2 (в разделе Help Desk).

Загрузить последнюю версию VMware View Horizon Toolbox 7.2 можно по этой ссылке.

Вышли превью версии VMware Workstation 2017 и VMware Fusion 2017.

19/07/2017

На днях компания VMware выпустила превью версии своих настольных платформ виртуализации VMware Workstation 2017 и VMware Fusion 2017. С момента релиза прошлых версий Workstation и Fusion прошло уже 10 месяцев, и это одни из самых ожидаемых релизов этого лета.

VMware Workstation 2017

Давайте посмотрим на новые возможности VMware Workstation Tech Preview 2017:

1. Поддержка новых ОС.

Последняя система семейства Windows 10 поддерживается VMware Workstation как гостевая и хостовая ОС. Также поддерживаются и другие новые ОС, такие как Ubuntu 17.04 и Fedora 26.

2. Механизм Guest VBS.

Теперь поддерживается технология VBS (Virtualization Based Security), которая доступна для ОС Windows 10 и Windows Server 2016. Также ожидается расширение этой поддержки к финальному релизу.

3. Технология Secure Boot.

Об этой возможности для VMware vSphere мы уже писали. Теперь функции безопасной загрузки адаптированы и для настольных платформ.

4. Поддержка Virtual NVMe.

Workstation позволяет использовать преимущества контроллера NVM Express (NVMe), который также поддерживается и в ESXi 6.5.

5. Переименование виртуальных сетей.

Теперь виртуальные сетевые адаптеры можно переименовывать в Virtual Network Editor. Эта функция доступна только для ОС Windows.

6. Функции управления vSphere/ESXi Host Power Operation.

Из VMware Workstation можно управлять хост-серверами VMware ESXi и сервером vCenter. Теперь эти возможности включают в себя операции с питанием (перезагрузка и выключение хостов), а также вход и выход из режима обслуживания (maintenance mode).

7. Импорт VCSA.

С помощью встроенного мастера теперь можно импортировать виртуальный модуль VMware vCenter Server Appliance, который позволяет управлять витуальной инфраструктурой VMware vSphere.

8. Функция Network Latency Simulation и Packet Loss.

С помощью расширенных настроек Network Adapter Advanced Settings можно симулировать поведение реальной сети с задержками в канале и потерей пакетов, что очень удобно для целей разработки и тестирования.

9. Отображение IP-адреса в консоли ВМ.

Теперь IP-адрес и MAC видно прямо в консоли ВМ, поэтому нет нужды логиниться в гостевую ОС.

10. Функция автоочистки дискового пространства.

Это очень полезная вещь, которая позволяет автоматически возвращать дисковое пространство в хостовую ОС при выключении ВМ. Для этого в расширенных настройках есть функция "Clean up disks after shutting down this virtual machine". Доступна эта возможность только в хостовой ОС Windows.

11. Сканирование на предмет наличия ВМ на дисках.

Если у вас есть виртуальные машины, которые отсутствуют в библиотеке, можно включить функцию сканирования и найти их, например, на флешке.

12. Приостановка Shared VMs при выключении хостовой ОС.

Если вы выключаете хостовую ОС или перезагружаете ее, то общие машины (Shared VMs) будут приостановлены (выведены в Suspend).

13. Интерфейс на основе GTK+ 3 UI для Linux.

Это не только улучшает интерфейс Linux-версии, но и позволяет поддерживать еще большее число хостовых операционных систем.

Загрузить VMware Workstation Tech Preview 2017 можно по этой ссылке. Главная страница доступа к бете находится здесь, а документация доступна тут.

VMware Fusion 2017

Также, как уже говорилось выше, вышла и обновленная версия технологического превью VMware Fusion Tech Preview 2017.

Посмотрим на новые возможности этой платформы виртуализации для Mac OS:

1. Улучшенный интерфейс.

В плане интерфейса было сделано много улучшений. Например, была добавлена панель "Information" для каждой ВМ в библиотеке, в которой видно IP-адрес, MAC-адрес и версию гостевой ОС. Кроме того, был полностью переработан мастер создания новой ВМ, который дает больше контроля над этим процессом.

2. Полностью переработанный Fusion REST API.

Теперь Fusion предоставляет интерфейс RESTful API на основе Swagger, который позволяет управлять inventory для ВМ, питанием, клонированием, сетевыми настройками, конфигурацией общих папок, получением адресов и т.п. Из документа "Getting Started with VMware Fusion REST API" можно получить более полную информацию об этой возможности.

3. Поддержка библиотеки Metal Graphics на хосте.

Вместо OpenGL компания Apple вводит библиотеку Metal, которая поддерживается со стороны Fusion. Это позволяет с меньшими энергозатратами рендерить 3D-графику. Также всегда есть возможность отключить поддержку Metal и вернуться на OpenGL.

4. Поддержка тачбаров новых макбуков.

Новые MacBook Pro с тачбарами теперь совместимы с Fusion. Их можно использовать для управления виртуальными машинами.

5. Улучшенное управление сетью.

С помощью расширенных настроек Network Adapter Advanced Settings можно симулировать поведение реальной сети с задержками в канале, что очень удобно для целей разработки и тестирования. Также виртуальные сетевые адаптеры можно переименовывать Virtual Network Editor. Кроме этого, появилось удобное управление правилами NAT.

6. Ручная установка разрешения из хостовой ОС.

Теперь не нужно выставлять разрешение в гостевой ОС (Retina или обычное). Это можно сделать из меню View.

7. Функции управления vSphere/ESXi Host Power Operation.

Из VMware Fusion можно управлять хост-серверами VMware ESXi и сервером vCenter. Теперь эти возможности включают в себя операции с питанием (перезагрузка и выключение хостов), а также вход и выход из режима обслуживания (maintenance mode).

8. Поддержка Guest VBS и Secure Boot.

Теперь поддерживается технология VBS (Virtualization Based Security), которая доступна для ОС Windows 10 и Windows Server 2016. Также ожидается расширение этой поддержки к релизу. Ну а о возможности Secure Boot для VMware vSphere мы уже писали. Теперь функции безопасной загрузки адаптированы и для настольных платформ.

9. Интеграция с VMware PhotonOS.

Теперь поддерживается механизм контейнеризации Docker, а также средство Kubernetes для запуска контейнеров.

10. Обновленная утилита vmrun.

VMware расширила возможности этой утилиты за счет добавления функций управления для VM NIC, форвардинга портов и скачивания шаблона Photon OS.

11. Функция автоочистки дискового пространства.

Это очень полезная вещь, которая позволяет автоматически возвращать дисковое пространство в хостовую ОС при выключении ВМ. Для этого в расширенных настройках есть функция "Clean up disks after shutting down this virtual machine".

12. Сканирование на предмет наличия ВМ в библиотеке.

Если у вас есть виртуальные машины, которые отсутствуют в библиотеке, можно просто положить их в папку ~/Virtual Machines, и они появятся в библиотеке.

Загрузить VMware Fusion Tech Preview 2017 можно по этой ссылке. Главная страница доступа к бете находится здесь, а документация доступна тут.

VMware Workspace ONE Dev Center доступен на портале VMware {code}.

17/07/2017

Больше года назад мы писали о портале VMware {code}, который объединяет в себе все необходимые ресурсы для разработчиков, работающих над продуктами и утилитами для расширения возможностей виртуальной инфраструктуры VMware vSphere и прочих ИТ-решений VMware.

На днях же на VMware {code} стал доступен первый центр решений для разработчика - VMware Workspace ONE Dev Center.

На этом портале собраны все необходимые ссылки на ресурсы для разработчиков под решения Workspace ONE и VMware AirWatch в рамках концепций unified endpoint management (UEM) и enterprise mobility management (EMM).

Dev Center продукта Workspace ONE даст разработчикам мобильных приложений ответы на такие вопросы, как:

  • Интегрировать механизм Single sign-on (SSO)
  • Добавить поддержку Application passcode и App tunneling
  • Защитить данные от утечек и многое другое

Сам портал разделен на три части:

1. Обучающий раздел

Тут присутствуют ссылки на основные технологии Workspace ONE:

2. Раздел Code

Тут собрано все, что касается непосредственно написания кода:

3. Сообщества разработчиков

Здесь сгруппированы ссылки на основные ресурсы:

Вероятнее всего, это всего лишь пробная попытка VMware объединить все аспекты разработки некоторой группы решений на едином портале. Если она окажется успешной, возможно мы увидим и другие порталы Dev Center, посвященные другим решениям VMware.

Новое на VMware Labs - утилита DRS Lens для более глубокого понимания механизма балансировки нагрузки.

14/07/2017

На сайте проекта VMware Labs появилась очередная заслуживающая внимания утилита DRS Lens, поставляемая в виде виртуального модуля (Virtual Appliance). Она позволяет администраторам виртуальных инфраструктур получить больше информации о работе механизма балансировки нагрузки на хост-серверы VMware vSphere DRS.

Полученная информация располагается на 5 дэшбордах, которые дают представление о различных аспектах DRS.

Summary

Это вкладка с общей информацией. Тут агрегируются данные с других разделов в удобное представление для администратора.

Cluster Balance

Здесь размещен график, показывающий отклонения метрики баланса кластера во временном промежутке, в котором работает DRS. Тут можно определить точки, в которых DRS реагирует на дисбаланс в кластере и перемещает виртуальные машины между хостами.

VM Happiness

На этом дэшборде впервые можно увидеть метрику VM happiness в графическом интерфейсе. Здесь представлена диаграмма, показывающая число ВМ, которые "счастливы" в кластере (то есть работают под нормальной нагрузкой) и число тех, которые "несчастны" (работают в стрессовых условиях при недостатке ресурсов). Пользователь может выбирать отдельные ВМ для просмотра метрик производительности, которые влияют на VM happiness, такие как %CPU ready, memory swapped и т.п.

vMotions

Этот дэшборд предоставляет суммаризованную информацию о миграциях vMotion, которые происходили в кластере по инициативе DRS или пользователя. Для каждого временного периода можно посмотреть разбивку миграций по каждому из этих двух видов. Это не только позволяет наблюдать за количественными показателями работы DRS в миграциях, но и оценить, не делают ли администраторы слишком много миграций vMotion, что влияет на баланс кластера.

Operations

На этом дэшборде можно отслеживать различные операции (задачи на стороне vCenter Server), которые выполнялись с течением времени. Администраторы могут сопоставлять информацию о задачах с этого дэшборда с данными других вкладок.

Все эти вещи позволят более детально ответить на вопрос - а что же именно и когда механизм DRS делает с виртуальными машинами при перемещении между хост-серверами ESXi.

Скачать VMware DRS Lens можно по этой ссылке. После развертывания виртуального модуля утилитой можно пользоваться по следующим адресам:

https://<appliance-ip>/drs/app

http://<appliance-ip>:8080/drs/app

Вторая версия Microsoft Azure Backup Server (MABS) с поддержкой VMware vSphere 6.5 и Windows Server 2016.

13/07/2017

Возможно не все из вас знают, что у компании Microsoft есть продукт Microsoft Azure Backup Server (MABS), являющийся "облачным наследником" средства резервного копирования Microsoft Data Protection Manager (MABS построен на его базе).

MABS предназначен для резервного копирования онпремизных и облачных нагрузок (IaaS) в виртуальных машинах, как на базе платформы Hyper-V и Microsoft Azure, так и на базе гипервизора VMware vSphere. Кроме того, MABS может бэкапить и физические системы с ПО Microsoft.

MABS очень хорошо подходит для небольших компаний и филиалов, где нет средств и целесообразности разворачивать дорогостоящую инфраструктуру резервного копирования, а в то же время предприятию приходиться использовать облачную инфраструктуру Microsoft Azure. Интересно, что само средство бесплатно для развертывания, но платит компания на базе модели "instance size + storage consumed" при использовании MABS. То есть оплата происходит по мере использования продукта (Pay-as-you-go).

MABS развертывается в инфраструктуре компании и позволяет делать резервные копии не только ВМ, но и приложений SQL Server, SharePoint и Exchange с поддержкой механизма VSS. Оперативное резервное копирование происходит в локальной инфраструктуре (чтобы бэкапы можно было быстро восстановить по LAN), а каждую ночь резервные копии отбрасываются еще и в облако Azure.

Недавно Microsoft выпустила Azure Backup Server v2, в котором появилось несколько важных улучшений:

  • Поддержка Windows Server 2016 - теперь последняя версия ОС и гипервизора от Microsoft поддерживается для создания резервных копий ВМ. Также MABS можно ставить на Windows Server 2016. Помимо этого поддерживаются продукты SQL Server 2016, SharePoint Server 2016 и Exchange Server 2016.
  • Поддержка VMware vSphere 6.5 - можно бэкапить виртуальные машин с серверов ESXi 6.5. Также появилась возможность восстановления ВМ в альтернативное размещение.
  • Фича Auto Protection для папки гипервизора VMware vSphere - все ВМ, которые в нее будут добавлены, будут автоматически защищены, как в локальной инфраструктуре, так и в облаке.
  • Улучшения хранилищ - теперь поддерживаются фичи Microsoft DPM 2016, включая систему резервного копирования на основе формата VHDX. Появилась поддержка механизма клонирования блоков REFS для инкрементальных бэкапов. Теперь задачи РК выполняются до 70% быстрее, сами бэкапы потребляют на 30% меньше хранилища, а также появилась технология Resilient Change Tracking (RCT) для инкрементальных резервных копий.

Для получения более подробной информации и загрузки Microsoft Azure Backup Server v2 сходите по этой ссылке. Документация по продукту доступна тут.

Приходите завтра на вебинар "15 способов оптимизировать производительность резервных копий Veeam".

12/07/2017

Как известно, большинство администраторов виртуальной инфраструктуры VMware vSphere делает резервные копии с помощью продукта Veeam Backup and Replication, поэтому мы приглашаем вас на наиполезнейший вебинар "15 способов оптимизировать производительность резервных копий Veeam".

Вебинар пройдет 13 июля в 11-00 по московскому времени. Это уже завтра.

Как ПО Veeam поможет вам повысить производительность и в полной мере использовать преимущества решения для послеаварийного восстановления, чтобы обеспечить непрерывную работу бизнеса — Availability for the Always-On Enterprise?

Примите участие в вебинаре и узнайте:

  • Как использовать всю мощь процессора сервера для задач РК
  • Как правильно построить график заданий
  • Как еще можно оптимизировать производительность, развернув новую среду или обновив существующую

Традиционно вебинары Veeam делают уклон на технические аспекты продуктов и лучшие практики, поэтому администраторам слушать будет очень интересно и полезно. Регистрируйтесь!

VMware vSphere VMkernel Observations (VOBs) - как создавать кастомные алармы для различных событий (alarms).

11/07/2017

В VMware vSphere есть механизм для создания и анализа кастомных алармов - VMkernel Observations (VOBs). VOB'ы - это системные события, которые можно использовать для пользовательских алармов в целях отладки различных аспектов виртуальной инфраструктуры (сетевого взаимодействия, кластеров vSAN, производительности и т.п.).

Чтобы добавить такой аларм, нужно знать его уникальный идентификатор (ID), ассоциированный с конкретным типом события. Эти события и их ID можно посмотреть в следующем файле на хосте ESXi:

/usr/lib/vmware/hostd/extensions/hostdiag/locale/en/event.vmsg

Если же такой аларм срабатывает, то он записывается в следующий лог-файл:

/var/log/vobd.log

Для того, чтобы создать кастомный аларм на основе VOB, нужно при создании нового аларма выбрать пункт "specific event occuring on this object":

И далее добавить соответствующий идентификатор, например, такой:

esx.problem.vob.vsan.pdl.offline

Событий, для которых можно создать кастомные алармы, очень много. Вот некоторые из них:

VOB ID VOB Description
esx.audit.vsan.clustering.enabled VSAN clustering services have been enabled.
esx.clear.vob.vsan.pdl.online VSAN device has come online.
esx.clear.vsan.clustering.enabled VSAN clustering services have now been enabled.
esx.clear.vsan.vsan.network.available VSAN now has at least one active network configuration.
esx.clear.vsan.vsan.vmknic.ready A previously reported vmknic now has a valid IP.
esx.problem.vob.vsan.lsom.componentthreshold VSAN Node: Near node component count limit.
esx.problem.vob.vsan.lsom.diskerror VSAN device is under permanent error.
esx.problem.vob.vsan.lsom.diskgrouplimit Failed to create a new disk group.
esx.problem.vob.vsan.lsom.disklimit Failed to add disk to disk group.
esx.problem.vob.vsan.pdl.offline VSAN device has gone offline.
esx.problem.vsan.clustering.disabled VSAN clustering services have been disabled.
esx.problem.vsan.lsom.congestionthreshold VSAN device Memory/SSD congestion has changed.
esx.problem.vsan.net.not.ready A vmknic added to VSAN network configuration doesn't have valid IP. Network is not ready.
esx.problem.vsan.net.redundancy.lost VSAN doesn't haven any redundancy in its network configuration.
esx.problem.vsan.net.redundancy.reduced VSAN is operating on reduced network redundancy.
esx.problem.vsan.no.network.connectivity VSAN doesn't have any networking configuration for use.
esx.problem.vsan.vmknic.not.ready A vmknic added to VSAN network configuration doesn't have valid IP. It will not be in use.
ad.event.ImportCertEvent Import certificate success
ad.event.ImportCertFailedEvent Import certificate failure
ad.event.JoinDomainEvent Join domain success
ad.event.JoinDomainFailedEvent Join domain failure
ad.event.LeaveDomainEvent Leave domain success
ad.event.LeaveDomainFailedEvent Leave domain failure
com.vmware.vc.HA.CreateConfigVvolFailedEvent vSphere HA failed to create a configuration vVol for this datastore and so will not be able to protect virtual machines on the datastore until the problem is resolved. Error: {fault}
com.vmware.vc.HA.CreateConfigVvolSucceededEvent vSphere HA successfully created a configuration vVol after the previous failure
com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent Host complete datastore failure
com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent Host complete network failure
com.vmware.vc.VmCloneFailedInvalidDestinationEvent Cannot complete virtual machine clone.
com.vmware.vc.VmCloneToResourcePoolFailedEvent Cannot complete virtual machine clone.
com.vmware.vc.VmDiskConsolidatedEvent Virtual machine disks consolidation succeeded.
com.vmware.vc.VmDiskConsolidationNeeded Virtual machine disks consolidation needed.
com.vmware.vc.VmDiskConsolidationNoLongerNeeded Virtual machine disks consolidation no longer needed.
com.vmware.vc.VmDiskFailedToConsolidateEvent Virtual machine disks consolidation failed.
com.vmware.vc.datastore.UpdateVmFilesFailedEvent Failed to update VM files
com.vmware.vc.datastore.UpdatedVmFilesEvent Updated VM files
com.vmware.vc.datastore.UpdatingVmFilesEvent Updating VM Files
com.vmware.vc.ft.VmAffectedByDasDisabledEvent Fault Tolerance VM restart disabled
com.vmware.vc.guestOperations.GuestOperation Guest operation
com.vmware.vc.guestOperations.GuestOperationAuthFailure Guest operation authentication failure
com.vmware.vc.host.clear.vFlashResource.inaccessible Host's virtual flash resource is accessible.
com.vmware.vc.host.clear.vFlashResource.reachthreshold Host's virtual flash resource usage dropped below the threshold.
com.vmware.vc.host.problem.vFlashResource.inaccessible Host's virtual flash resource is inaccessible.
com.vmware.vc.host.problem.vFlashResource.reachthreshold Host's virtual flash resource usage exceeds the threshold.
com.vmware.vc.host.vFlash.VFlashResourceCapacityExtendedEvent Virtual flash resource capacity is extended
com.vmware.vc.host.vFlash.VFlashResourceConfiguredEvent Virtual flash resource is configured on the host
com.vmware.vc.host.vFlash.VFlashResourceRemovedEvent Virtual flash resource is removed from the host
com.vmware.vc.host.vFlash.defaultModuleChangedEvent Default virtual flash module is changed to {vFlashModule} on the host
com.vmware.vc.host.vFlash.modulesLoadedEvent Virtual flash modules are loaded or reloaded on the host
com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent Virtual NIC entered passthrough mode
com.vmware.vc.npt.VmAdapterExitedPassthroughEvent Virtual NIC exited passthrough mode
com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent FT Disabled VM protected as non-FT VM
com.vmware.vc.vcp.FtFailoverEvent Failover FT VM due to component failure
com.vmware.vc.vcp.FtFailoverFailedEvent FT VM failover failed
com.vmware.vc.vcp.FtSecondaryRestartEvent Restarting FT secondary due to component failure
com.vmware.vc.vcp.FtSecondaryRestartFailedEvent FT secondary VM restart failed
com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent Need secondary VM protected as non-FT VM
com.vmware.vc.vcp.TestEndEvent VM Component Protection test ends
com.vmware.vc.vcp.TestStartEvent VM Component Protection test starts
com.vmware.vc.vcp.VcpNoActionEvent No action on VM
com.vmware.vc.vcp.VmDatastoreFailedEvent Virtual machine lost datastore access
com.vmware.vc.vcp.VmNetworkFailedEvent Virtual machine lost VM network accessibility
com.vmware.vc.vcp.VmPowerOffHangEvent VM power off hang
com.vmware.vc.vcp.VmRestartEvent Restarting VM due to component failure
com.vmware.vc.vcp.VmRestartFailedEvent Virtual machine affected by component failure failed to restart
com.vmware.vc.vcp.VmWaitForCandidateHostEvent No candidate host to restart
com.vmware.vc.vm.VmStateFailedToRevertToSnapshot Failed to revert the virtual machine state to a snapshot
com.vmware.vc.vm.VmStateRevertedToSnapshot The virtual machine state has been reverted to a snapshot
com.vmware.vc.vmam.AppMonitoringNotSupported Application Monitoring Is Not Supported
com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent vSphere HA detected application heartbeat status change
com.vmware.vc.vmam.VmAppHealthStateChangedEvent vSphere HA detected application state change
com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent vSphere HA detected application heartbeat failure
esx.audit.agent.hostd.started VMware Host Agent started
esx.audit.agent.hostd.stopped VMware Host Agent stopped
esx.audit.dcui.defaults.factoryrestore Restoring factory defaults through DCUI.
esx.audit.dcui.disabled The DCUI has been disabled.
esx.audit.dcui.enabled The DCUI has been enabled.
esx.audit.dcui.host.reboot Rebooting host through DCUI.
esx.audit.dcui.host.shutdown Shutting down host through DCUI.
esx.audit.dcui.hostagents.restart Restarting host agents through DCUI.
esx.audit.dcui.login.failed Login authentication on DCUI failed
esx.audit.dcui.login.passwd.changed DCUI login password changed.
esx.audit.dcui.network.factoryrestore Factory network settings restored through DCUI.
esx.audit.dcui.network.restart Restarting network through DCUI.
esx.audit.esxcli.host.poweroff Powering off host through esxcli
esx.audit.esxcli.host.reboot Rebooting host through esxcli
esx.audit.esximage.hostacceptance.changed Host acceptance level changed
esx.audit.esximage.install.novalidation Attempting to install an image profile with validation disabled.
esx.audit.esximage.install.securityalert SECURITY ALERT: Installing image profile.
esx.audit.esximage.profile.install.successful Successfully installed image profile.
esx.audit.esximage.profile.update.successful Successfully updated host to new image profile.
esx.audit.esximage.vib.install.successful Successfully installed VIBs.
esx.audit.esximage.vib.remove.successful Successfully removed VIBs
esx.audit.host.boot Host has booted.
esx.audit.host.maxRegisteredVMsExceeded The number of virtual machines registered on the host exceeded limit.
esx.audit.host.stop.reboot Host is rebooting.
esx.audit.host.stop.shutdown Host is shutting down.
esx.audit.lockdownmode.disabled Administrator access to the host has been enabled.
esx.audit.lockdownmode.enabled Administrator access to the host has been disabled.
esx.audit.maintenancemode.canceled The host has canceled entering maintenance mode.
esx.audit.maintenancemode.entered The host has entered maintenance mode.
esx.audit.maintenancemode.entering The host has begun entering maintenance mode.
esx.audit.maintenancemode.exited The host has exited maintenance mode.
esx.audit.net.firewall.config.changed Firewall configuration has changed.
esx.audit.net.firewall.disabled Firewall has been disabled.
esx.audit.net.firewall.enabled Firewall has been enabled for port.
esx.audit.net.firewall.port.hooked Port is now protected by Firewall.
esx.audit.net.firewall.port.removed Port is no longer protected with Firewall.
esx.audit.net.lacp.disable LACP disabled
esx.audit.net.lacp.enable LACP eabled
esx.audit.net.lacp.uplink.connected uplink is connected
esx.audit.shell.disabled The ESXi command line shell has been disabled.
esx.audit.shell.enabled The ESXi command line shell has been enabled.
esx.audit.ssh.disabled SSH access has been disabled.
esx.audit.ssh.enabled SSH access has been enabled.
esx.audit.usb.config.changed USB configuration has changed.
esx.audit.uw.secpolicy.alldomains.level.changed Enforcement level changed for all security domains.
esx.audit.uw.secpolicy.domain.level.changed Enforcement level changed for security domain.
esx.audit.vmfs.lvm.device.discovered LVM device discovered.
esx.audit.vmfs.volume.mounted File system mounted.
esx.audit.vmfs.volume.umounted LVM volume un-mounted.
esx.clear.coredump.configured A vmkcore disk partition is available and/or a network coredump server has been configured.  Host core dumps will be saved.
esx.clear.coredump.configured2 At least one coredump target has been configured. Host core dumps will be saved.
esx.clear.net.connectivity.restored Restored network connectivity to portgroups
esx.clear.net.dvport.connectivity.restored Restored Network Connectivity to DVPorts
esx.clear.net.dvport.redundancy.restored Restored Network Redundancy to DVPorts
esx.clear.net.lacp.lag.transition.up lag transition up
esx.clear.net.lacp.uplink.transition.up uplink transition up
esx.clear.net.lacp.uplink.unblocked uplink is unblocked
esx.clear.net.redundancy.restored Restored uplink redundancy to portgroups
esx.clear.net.vmnic.linkstate.up Link state up
esx.clear.scsi.device.io.latency.improved Scsi Device I/O Latency has improved
esx.clear.scsi.device.state.on Device has been turned on administratively.
esx.clear.scsi.device.state.permanentloss.deviceonline Device that was permanently inaccessible is now online.
esx.clear.storage.apd.exit Exited the All Paths Down state
esx.clear.storage.connectivity.restored Restored connectivity to storage device
esx.clear.storage.redundancy.restored Restored path redundancy to storage device
esx.problem.3rdParty.error A 3rd party component on ESXi has reported an error.
esx.problem.3rdParty.information A 3rd party component on ESXi has reported an informational event.
esx.problem.3rdParty.warning A 3rd party component on ESXi has reported a warning.
esx.problem.apei.bert.memory.error.corrected A corrected memory error occurred
esx.problem.apei.bert.memory.error.fatal A fatal memory error occurred
esx.problem.apei.bert.memory.error.recoverable A recoverable memory error occurred
esx.problem.apei.bert.pcie.error.corrected A corrected PCIe error occurred
esx.problem.apei.bert.pcie.error.fatal A fatal PCIe error occurred
esx.problem.apei.bert.pcie.error.recoverable A recoverable PCIe error occurred
esx.problem.application.core.dumped An application running on ESXi host has crashed and a core file was created.
esx.problem.boot.filesystem.down Lost connectivity to the device backing the boot filesystem
esx.problem.coredump.capacity.insufficient The storage capacity of the coredump targets is insufficient to capture a complete coredump.
esx.problem.coredump.unconfigured No vmkcore disk partition is available and no network coredump server has been configured.  Host core dumps cannot be saved.
esx.problem.coredump.unconfigured2 No coredump target has been configured. Host core dumps cannot be saved.
esx.problem.cpu.amd.mce.dram.disabled DRAM ECC not enabled. Please enable it in BIOS.
esx.problem.cpu.intel.ioapic.listing.error Not all IO-APICs are listed in the DMAR. Not enabling interrupt remapping on this platform.
esx.problem.cpu.mce.invalid MCE monitoring will be disabled as an unsupported CPU was detected. Please consult the ESX HCL for information on supported hardware.
esx.problem.cpu.smp.ht.invalid Disabling HyperThreading due to invalid configuration: Number of threads: {1} Number of PCPUs: {2}.
esx.problem.cpu.smp.ht.numpcpus.max Found {1} PCPUs but only using {2} of them due to specified limit.
esx.problem.cpu.smp.ht.partner.missing Disabling HyperThreading due to invalid configuration: HT partner {1} is missing from PCPU {2}.
esx.problem.dhclient.lease.none Unable to obtain a DHCP lease.
esx.problem.dhclient.lease.offered.noexpiry No expiry time on offered DHCP lease.
esx.problem.esximage.install.error Could not install image profile.
esx.problem.esximage.install.invalidhardware Host doesn't meet image profile hardware requirements.
esx.problem.esximage.install.stage.error Could not stage image profile.
esx.problem.hardware.acpi.interrupt.routing.device.invalid Skipping interrupt routing entry with bad device number: {1}. This is a BIOS bug.
esx.problem.hardware.acpi.interrupt.routing.pin.invalid Skipping interrupt routing entry with bad device pin: {1}. This is a BIOS bug.
esx.problem.hardware.ioapic.missing IOAPIC Num {1} is missing. Please check BIOS settings to enable this IOAPIC.
esx.problem.host.coredump An unread host kernel core dump has been found.
esx.problem.hostd.core.dumped Hostd crashed and a core file was created.
esx.problem.iorm.badversion Storage I/O Control version mismatch
esx.problem.iorm.nonviworkload Unmanaged workload detected on SIOC-enabled datastore
esx.problem.migrate.vmotion.default.heap.create.failed Failed to create default migration heap
esx.problem.migrate.vmotion.server.pending.cnx.listen.socket.shutdown Error with migration listen socket
esx.problem.net.connectivity.lost Lost Network Connectivity
esx.problem.net.dvport.connectivity.lost Lost Network Connectivity to DVPorts
esx.problem.net.dvport.redundancy.degraded Network Redundancy Degraded on DVPorts
esx.problem.net.dvport.redundancy.lost Lost Network Redundancy on DVPorts
esx.problem.net.e1000.tso6.notsupported No IPv6 TSO support
esx.problem.net.fence.port.badfenceid Invalid fenceId configuration on dvPort
esx.problem.net.fence.resource.limited Maximum number of fence networks or ports
esx.problem.net.fence.switch.unavailable Switch fence property is not set
esx.problem.net.firewall.config.failed Firewall configuration operation failed. The changes were not applied.
esx.problem.net.firewall.port.hookfailed Adding port to Firewall failed.
esx.problem.net.gateway.set.failed Failed to set gateway
esx.problem.net.heap.belowthreshold Network memory pool threshold
esx.problem.net.lacp.lag.transition.down lag transition down
esx.problem.net.lacp.peer.noresponse No peer response
esx.problem.net.lacp.policy.incompatible Current teaming policy is incompatible
esx.problem.net.lacp.policy.linkstatus Current teaming policy is incompatible
esx.problem.net.lacp.uplink.blocked uplink is blocked
esx.problem.net.lacp.uplink.disconnected uplink is disconnected
esx.problem.net.lacp.uplink.fail.duplex uplink duplex mode is different
esx.problem.net.lacp.uplink.fail.speed uplink speed is different
esx.problem.net.lacp.uplink.inactive All uplinks must be active
esx.problem.net.lacp.uplink.transition.down uplink transition down
esx.problem.net.migrate.bindtovmk Invalid vmknic specified in /Migrate/Vmknic
esx.problem.net.migrate.unsupported.latency Unsupported vMotion network latency detected
esx.problem.net.portset.port.full Failed to apply for free ports
esx.problem.net.portset.port.vlan.invalidid Vlan ID of the port is invalid
esx.problem.net.proxyswitch.port.unavailable Virtual NIC connection to switch failed
esx.problem.net.redundancy.degraded Network Redundancy Degraded
esx.problem.net.redundancy.lost Lost Network Redundancy
esx.problem.net.uplink.mtu.failed Failed to set MTU on an uplink
esx.problem.net.vmknic.ip.duplicate A duplicate IP address was detected on a vmknic interface
esx.problem.net.vmnic.linkstate.down Link state down
esx.problem.net.vmnic.linkstate.flapping Link state unstable
esx.problem.net.vmnic.watchdog.reset Nic Watchdog Reset
esx.problem.ntpd.clock.correction.error NTP daemon stopped.  Time correction out of bounds.
esx.problem.pageretire.platform.retire.request Memory page retirement requested by platform firmware.
esx.problem.pageretire.selectedmpnthreshold.host.exceeded Number of host physical memory pages selected for retirement exceeds threshold.
esx.problem.scratch.partition.size.small Size of scratch partition is too small.
esx.problem.scratch.partition.unconfigured No scratch partition has been configured.
esx.problem.scsi.apd.event.descriptor.alloc.failed No memory to allocate APD Event
esx.problem.scsi.device.close.failed Scsi Device close failed.
esx.problem.scsi.device.detach.failed Device detach failed
esx.problem.scsi.device.filter.attach.failed Failed to attach filter to device.
esx.problem.scsi.device.io.bad.plugin.type Plugin trying to issue command to device does not have a valid storage plugin type.
esx.problem.scsi.device.io.inquiry.failed Failed to obtain INQUIRY data from the device
esx.problem.scsi.device.io.invalid.disk.qfull.value Scsi device queue parameters incorrectly set.
esx.problem.scsi.device.io.latency.high Scsi Device I/O Latency going high
esx.problem.scsi.device.io.qerr.change.config QErr cannot be changed on device. Please change it manually on the device if possible.
esx.problem.scsi.device.io.qerr.changed Scsi Device QErr setting changed
esx.problem.scsi.device.is.local.failed Plugin's isLocal entry point failed
esx.problem.scsi.device.is.pseudo.failed Plugin's isPseudo entry point failed
esx.problem.scsi.device.is.ssd.failed Plugin's isSSD entry point failed
esx.problem.scsi.device.limitreached Maximum number of storage devices
esx.problem.scsi.device.state.off Device has been turned off administratively.
esx.problem.scsi.device.state.permanentloss Device has been removed or is permanently inaccessible.
esx.problem.scsi.device.state.permanentloss.noopens Permanently inaccessible device has no more opens.
esx.problem.scsi.device.state.permanentloss.pluggedback Device has been plugged back in after being marked permanently inaccessible.
esx.problem.scsi.device.state.permanentloss.withreservationheld Device has been removed or is permanently inaccessible.
esx.problem.scsi.device.thinprov.atquota Thin Provisioned Device Nearing Capacity
esx.problem.scsi.scsipath.badpath.unreachpe vVol PE path going out of vVol-incapable adapter
esx.problem.scsi.scsipath.badpath.unsafepe Cannot safely determine vVol PE
esx.problem.scsi.scsipath.limitreached Maximum number of storage paths
esx.problem.scsi.unsupported.plugin.type Storage plugin of unsupported type tried to register.
esx.problem.storage.apd.start All paths are down
esx.problem.storage.apd.timeout All Paths Down timed out, I/Os will be fast failed
esx.problem.storage.connectivity.devicepor Frequent PowerOn Reset Unit Attention of Storage Path
esx.problem.storage.connectivity.lost Lost Storage Connectivity
esx.problem.storage.connectivity.pathpor Frequent PowerOn Reset Unit Attention of Storage Path
esx.problem.storage.connectivity.pathstatechanges Frequent State Changes of Storage Path
esx.problem.storage.iscsi.discovery.connect.error iSCSI discovery target login connection problem
esx.problem.storage.iscsi.discovery.login.error iSCSI Discovery target login error
esx.problem.storage.iscsi.isns.discovery.error iSCSI iSns Discovery error
esx.problem.storage.iscsi.target.connect.error iSCSI Target login connection problem
esx.problem.storage.iscsi.target.login.error iSCSI Target login error
esx.problem.storage.iscsi.target.permanently.lost iSCSI target permanently removed
esx.problem.storage.redundancy.degraded Degraded Storage Path Redundancy
esx.problem.storage.redundancy.lost Lost Storage Path Redundancy
esx.problem.syslog.config System logging is not configured.
esx.problem.syslog.nonpersistent System logs are stored on non-persistent storage.
esx.problem.vfat.filesystem.full.other A VFAT filesystem is full.
esx.problem.vfat.filesystem.full.scratch A VFAT filesystem, being used as the host's scratch partition, is full.
esx.problem.visorfs.failure An operation on the root filesystem has failed.
esx.problem.visorfs.inodetable.full The root filesystem's file table is full.
esx.problem.visorfs.ramdisk.full A ramdisk is full.
esx.problem.visorfs.ramdisk.inodetable.full A ramdisk's file table is full.
esx.problem.vm.kill.unexpected.fault.failure A VM could not fault in the a page. The VM is terminated as further progress is impossible.
esx.problem.vm.kill.unexpected.forcefulPageRetire A VM did not respond to swap actions and is forcefully powered off to prevent system instability.
esx.problem.vm.kill.unexpected.noSwapResponse A VM did not respond to swap actions and is forcefully powered off to prevent system instability.
esx.problem.vm.kill.unexpected.vmtrack A VM is allocating too many pages while system is critically low in free memory. It is forcefully terminated to prevent system instability.
esx.problem.vmfs.ats.support.lost Device Backing VMFS has lost ATS Support
esx.problem.vmfs.error.volume.is.locked VMFS Locked By Remote Host
esx.problem.vmfs.extent.offline Device backing an extent of a file system is offline.
esx.problem.vmfs.extent.online Device backing an extent of a file system came online
esx.problem.vmfs.heartbeat.recovered VMFS Volume Connectivity Restored
esx.problem.vmfs.heartbeat.timedout VMFS Volume Connectivity Degraded
esx.problem.vmfs.heartbeat.unrecoverable VMFS Volume Connectivity Lost
esx.problem.vmfs.journal.createfailed No Space To Create VMFS Journal
esx.problem.vmfs.lock.corruptondisk VMFS Lock Corruption Detected
esx.problem.vmfs.lock.corruptondisk.v2 VMFS Lock Corruption Detected
esx.problem.vmfs.nfs.mount.connect.failed Unable to connect to NFS server
esx.problem.vmfs.nfs.mount.limit.exceeded NFS has reached the maximum number of supported volumes
esx.problem.vmfs.nfs.server.disconnect Lost connection to NFS server
esx.problem.vmfs.nfs.server.restored Restored connection to NFS server
esx.problem.vmfs.resource.corruptondisk VMFS Resource Corruption Detected
esx.problem.vmsyslogd.remote.failure Remote logging host has become unreachable.
esx.problem.vmsyslogd.storage.failure Logging to storage has failed.
esx.problem.vmsyslogd.storage.logdir.invalid The configured log directory cannot be used.  The default directory will be used instead.
esx.problem.vmsyslogd.unexpected Log daemon has failed for an unexpected reason.
esx.problem.vpxa.core.dumped Vpxa crashed and a core file was created.
hbr.primary.AppQuiescedDeltaCompletedEvent Application consistent delta completed.
hbr.primary.ConnectionRestoredToHbrServerEvent Connection to VR Server restored.
hbr.primary.DeltaAbortedEvent Delta aborted.
hbr.primary.DeltaCompletedEvent Delta completed.
hbr.primary.DeltaStartedEvent Delta started.
hbr.primary.FSQuiescedDeltaCompletedEvent File system consistent delta completed.
hbr.primary.FSQuiescedSnapshot Application quiescing failed during replication.
hbr.primary.FailedToStartDeltaEvent Failed to start delta.
hbr.primary.FailedToStartSyncEvent Failed to start full sync.
hbr.primary.HostLicenseFailedEvent vSphere Replication is not licensed replication is disabled.
hbr.primary.InvalidDiskReplicationConfigurationEvent Disk replication configuration is invalid.
hbr.primary.InvalidVmReplicationConfigurationEvent Virtual machine replication configuration is invalid.
hbr.primary.NoConnectionToHbrServerEvent No connection to VR Server.
hbr.primary.NoProgressWithHbrServerEvent VR Server error: {reason.@enum.hbr.primary.ReasonForNoServerProgress}
hbr.primary.QuiesceNotSupported Quiescing is not supported for this virtual machine.
hbr.primary.SyncCompletedEvent Full sync completed.
hbr.primary.SyncStartedEvent Full sync started.
hbr.primary.SystemPausedReplication System has paused replication.
hbr.primary.UnquiescedDeltaCompletedEvent Delta completed.
hbr.primary.UnquiescedSnapshot Unable to quiesce the guest.
hbr.primary.VmLicenseFailedEvent vSphere Replication is not licensed replication is disabled.
hbr.primary.VmReplicationConfigurationChangedEvent Replication configuration changed.
vim.event.LicenseDowngradedEvent License downgrade
vim.event.SystemSwapInaccessible System swap inaccessible
vim.event.UnsupportedHardwareVersionEvent This virtual machine uses hardware version {version} which is no longer supported. Upgrade is recommended.
vprob.net.connectivity.lost Lost Network Connectivity
vprob.net.e1000.tso6.notsupported No IPv6 TSO support
vprob.net.migrate.bindtovmk Invalid vmknic specified in /Migrate/Vmknic
vprob.net.proxyswitch.port.unavailable Virtual NIC connection to switch failed
vprob.net.redundancy.degraded Network Redundancy Degraded
vprob.net.redundancy.lost Lost Network Redundancy
vprob.scsi.device.thinprov.atquota Thin Provisioned Device Nearing Capacity
vprob.storage.connectivity.lost Lost Storage Connectivity
vprob.storage.redundancy.degraded Degraded Storage Path Redundancy
vprob.storage.redundancy.lost Lost Storage Path Redundancy
vprob.vmfs.error.volume.is.locked VMFS Locked By Remote Host
vprob.vmfs.extent.offline Device backing an extent of a file system is offline.
vprob.vmfs.extent.online Device backing an extent of a file system is online.
vprob.vmfs.heartbeat.recovered VMFS Volume Connectivity Restored
vprob.vmfs.heartbeat.timedout VMFS Volume Connectivity Degraded
vprob.vmfs.heartbeat.unrecoverable VMFS Volume Connectivity Lost
vprob.vmfs.journal.createfailed No Space To Create VMFS Journal
vprob.vmfs.lock.corruptondisk VMFS Lock Corruption Detected
vprob.vmfs.nfs.server.disconnect Lost connection to NFS server
vprob.vmfs.nfs.server.restored Restored connection to NFS server
vprob.vmfs.resource.corruptondisk VMFS Resource Corruption Detected

Ну а вот так вот будет выглядеть сработавший кастомный аларм в интерфейсе VMware vSphere Web Client:

VMware vSAN Sizer - утилита для подбора оборудования и расчета объема хранилищ под кластеры vSAN.

10/07/2017

Компания VMware сделала доступной небольшую онлайн-утилиту для сайзинга серверов хранения виртуальных машин, работающих в отказоустойчивых кластерах хранилищ - VMware vSAN Sizer. Также она производит подбор необходимых конфигураций серверов (для расчетов принимается, что все узлы будут использовать конфигурацию All-Flash SSD).

VMware vSAN Sizer доступен по адресу: https://vsansizer.vmware.com/

От пользователя требуется лишь ввести число виртуальных машин и объем их виртуальных дисков (пока указано, что для расчета используется некий усредненный тип нагрузки, возможно, в будущем будут добавлены еще профили нагрузок ВМ).

На первом этапе нам показывают, сколько нужно серверов и неразмеченного хранилища (Raw Storage):

Ниже мы видим технические характеристики каждого из хостов ESXi:

Ну а в рамках дополнительной информации можно вывести параметры дисковых групп (кэш и емкость хранения). В моем случае это 2 дисковых группы:

В утилите VMware vSAN Sizer расположена ссылка на расширенную версию, которая доступна для партнеров, но когда я зашел под партнерским аккаунтом, то увидел там только пустую белую страницу с шапкой меню.

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 | 105 | 106 | 107 | 108 | 109 | 110 | 111 | 112 | 113 | 114 | 115 | 116 | 117 | 118 | 119 | 120 | 121 | 122 | 123 | 124 | 125 | 126 | 127 | 128 | 129 | 130 | 131 | 132 | 133 | 134 | 135 | 136 | 137 | 138 | 139 | 140 | 141 | 142 | 143 | 144 | 145 | 146 | 147 | 148 | 149 | 150 | 151 | 152 | 153 | 154 | 155 | 156 | 157 | 158 | 159 | 160 | 161    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Veeam Broadcom Offtopic Microsoft Cloud StarWind VMachines NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V Private AI vDefend VCF Workstation Backup Network vSAN Tanzu VMUG HCX VCPP Labs Explore Data Protection ONE AI Intel Live Recovery VCP V2V Aria NSX DPU Update EUC Avi Community Skyline Host Client GenAI Chargeback Horizon SASE Workspace ONE Networking Ransomware Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint Director Memory SIOC Troubleshooting Stretched Bugs ESA Android Python Upgrade ML Hub Guardrails CLI Driver Foundation HPC Orchestrator Optimization SVMotion Diagram Ports Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2025, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge