Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6500 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Максимальные значения и рекомендации по конфигурации инфраструктуры VMware Horizon View 6.


Многие администраторы VMware Horizon View 6 часто задают вопрос по тем или иным максимальным парметрам инфраструктуры виртуальных ПК.

Соберем их все здесь в качестве поста-референса, к которому можно обращаться по мере необходимости.

Ограничения по сессиям пользователей в виртуальных ПК

Максимальное число активных сессий на один View Cloud Pod 20000
Максимальное число объектов View Pod на один контейнер Cloud Pod 4
Максимальное число сайтов на один View Cloud Pod 2
Число активных соединений на один View Pod 10000
Максимальное число серверов Connection Servers на один View Pod 7 (до 10000 сессий)
Число активных сессий на один Connection Server с прямым соединением (Direct connection), RDP, туннелированным соединением или PCoIP 2000

Кофигурации для виртуальных машин

Хостов на кластер (VMFS+NFS) 32
Виртуальных машин на одно ядро CPU рекомендуется около 8-10
Число виртуальных машин на одну реплику (replica VM) 4000
Число ВМ на один сервер vCenter 10000
Число ВМ на один пул 2000
Число ВМ на хост VMware ESXi 1000

Параметры хранилищ

Число машин на один LUN с поддержкой VAAI 140 (без VAAI = 128 томов
VMFS, 250+ томов NFS)
Число хостов VSAN на кластер хранилищ 32 (16 рекомендуется)
Число ВМ на кластер при использовании VSAN 3200
Дисковых групп VSAN 5
Число накопителей Flash/SSD на дисковую группу 1
Число накопителей HDD на дисковую группу 7
Число виртуальных хранилищ VSAN на кластер 1

Сайзинг технологии RDSH

Число сессий на сервер RDSH 150 (50 рекомендуется для обычных
хостов средней производительности)
Рекомендовано vCPU на хостRDSH 4
Объем vRAM на хост RDSH 64 GB (это около 1 ГБ на пользователя)
Число виртуальных машин RDSH на хост ESXi 1 на 4 логических ядра (больше не нужно)

Серверы Connection Servers

Память 12 GB recommended
Число виртуальных процессоров (vCPU) 4vCPU
Количество обслуживаемых сесссий 1 сервер на 2000 сессий
Архитектура доступности N + 1
Внешний доступ (WAN) рекомендуется 2 сервера
Connection Server
Максимальное число серверов Connection Servers на один View Pod 7

Таги: VMware, Horizon, View, Обучение, VDI, VMachines

Типы репликации виртуальных машин и некоторые подробности о VMware vSphere Replication.


В блоге компании VMware появился интересный пост с некоторыми подробностями о работе технологии репликации виртуальных машин vSphere Replication. Приведем здесь основные полезные моменты.

Во-первых, репликация с точки зрения синхронизации данных, бывает двух типов:

  • Full sync - это когда требуется полная синхронизация виртуальной машины и всех ее дисков в целевое местоположение. Для этого в версии VMware vSphere 5.x использовалось сравнение контрольных сумм дисков на исходном и целевом хранилище. Если они не совпадают, и нужно делать Full sync, исходя из начальных условий - начинается процесс полной репликации ВМ. В первую очередь, основным подвидом этого типа является Initial full sync - первичная синхронизация работающей виртуальной машины, для которой репликация включается впервые.

Кроме того, полная синхронизация включается, когда по какой-либо причине произошла ошибка отслеживания блоков виртуального диска машины при дельта-репликации и передать на целевую ВМ только изменения виртуальных дисков становится невозможным.

  • Delta sync - после того, как полная синхронизация закончена, начинается процесс передачи целевой ВМ только различий с момента полной репликации. Тут используется технология changed block tracking, чтобы понять, какие блоки надо отреплицировать с последнего Full sync. Периодичность дельта-репликации зависит от установленной политики Recovery Point Objective (RPO).

Чтобы политика RPO соблюдалась нужно, чтобы дельта-синхронизация полностью проходила за половину времени, установленного в RPO, иначе будут нарушения политики, сообщения о которых вы увидите в vSphere Client. Почему половину? Подробно мы писали об этом вот тут (почитайте, очень интересно). Также еще и в документации VMware есть информация о расписании репликации.

Если вы настроите репликацию для виртуальной машины, то автоматически работать она будет для включенной ВМ, а если она выключена, то сама работать не будет, о чем будет выдано соответствующее предупреждение:

Таким образом, репликация делится еще на 2 типа:

  • Online sync - репликация включенной ВМ, проходящая автоматически.
  • Offline sync - репликация выключенной ВМ, запускаемая вручную.

Вот так запускается репликация для выключенной ВМ:

Во время offline-репликации виртуальную машину нельзя включить, а ее диски будут залочены. Кроме того, вы не сможете отменить эту операцию. Поэтому при нажатии Sync Now будет выведено вот такое предупреждение:

Обычно offline-репликация используется для создания гарантированной копии ВМ на другой площадке (например, при переезде датацентра или частичном восстановлении инфраструктуры на другом оборудовании). Ну или если у вас была настроена online-репликация, а вы выключили ВМ, то в конце нужно сделать еще ручной Sync Now.

Также в VMware vSphere 6.0 было сделано существенное улучшение в производительности процесса репликации. Если раньше идентичность копий основного диска и реплики сверялась только на базе контрольных сумм (все данные диска надо прочитать - а это затратно по вводу-выводу и CPU), то теперь иногда используются данные о конфигурации виртуального диска на базе регионов. Например, если на исходном диске есть регионы, которые не были аллоцированы на целевом диске, то репликация это отслеживает и передает данные в эти регионы на целевое хранилище. Это работает значительно быстрее вычисления контрольных сумм.

Но такая оптимизация работает не для всех типов виртуальных дисков, а только для Lazy zeroed thick disks, thin disks и vSAN sparse disks и только на томах VMFS. Тома NFS, тома VVols, а также диски типа Eager zeroed thick не предоставляют информации об аллокации регионов, поэтому для них оптимизация работать не будет. Более подробно об этом написано тут.


Таги: VMware, vSphere, Replication, Storage, DR, VMDK

Интересный документ "Virtualizing Microsoft Applications on VMware Virtual SAN".


На днях компания VMware выпустила интересный открытый документ "Virtualizing Microsoft Applications on VMware Virtual SAN", в котором описываются результаты тестирования бизнес-критичных приложений Microsoft в кластере отказоустойчивых хранилищ VMware VSAN.

В документе рассматривается стрессовое тестирование следующих приложений, работающих в кластере Virtual SAN, состоящем из 8 узлов:

  • Microsoft Exchange 2013 с поддержкой Database Availability Groups (DAG)
  • Microsoft SQL Server 2014 с включенными AlwaysOn Availability Groups (AAG)
  • Microsoft SharePoint 2013 как фронтэнд баз данных

Для теста использовалась такая конфигурация серверов:

  • ESX host CPU - 2 x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz 10C (60 GHz)
  • ESX host RAM - 256 GB
  • Network Adapter - 2x Intel Ethernet 82599EB 10-Gigabit SFI/SFP+
  • Storage Adapter - 2x LSI Logic / Symbios Logic LSI-9300-8i
    • Firmware version: 6.00.00.00-IT
    • Driver version: MPT3SAS
  • Power Management - Balanced (поставлено в BIOS)
  • Disks SSD - 2x Intel 400 GB (SSDSC2BA400G3)
  • SSD - 2x Intel 200GB (Intel PCIe 910)
  • HDD - 12 x Seagate 900 GB

Конфигурация дисковых групп кластера Virtual SAN:

  • Diskgroup 1 - 1x Intel 400GB 3x Seagate 900GB
  • Diskgroup 2 - 1x Intel 400GB 3 x Seagate 900GB
  • Diskgroup 3 - 1x Intel 200GB 3 x Seagate 900GB
  • Diskgroup 4 - 1x Intel 200GB 3 x Seagate 900GB

Для тестирования Microsoft Exchange применялись следующие средства:

Архитектура сервисов Exchange:

Конфигурация виртуальных машин:

Результаты тестирования первого узла с ролью Mailbox средствами Jetstress:

Результаты тестирования второго узла с ролью Mailbox:

Результаты теста Load Generator:

Архитектура сервисов Microsoft SQL Server с технологией защиты данных Always On:

Для тестирования SQL Server использовался инструмент DVD Store. Конфигурация виртуальных машин:

Результаты тестов DVD Store.

Ну и в заключение - сводные результаты тестирования:

В итоге утверждается, что приложения Microsoft уровня Tier 1 прекрасно себя чувствуют в кластере VMware Virtual SAN, и их быстродействие мало чем отличается от ситуации, если бы на бэкэнде были аппаратные SAN/NFS-массивы.

За остальными подробностями обращайтесь к документу "Virtualizing Microsoft Applications on VMware Virtual SAN".


Таги: VMware, Virtual SAN, Performance, Microsoft, VSAN, Storage

Репликация в VMware Site Recovery Manager - чем отличаются Array Based Replication и vSphere Replication.


Многие из вас знакомы с продуктом VMware Site Recovery Manager, который позволяет построить катастрофоустойчивую виртуальную инфраструктуру за счет репликации виртуальных машин на хосты резервной площадки, помещения или стойки. Как известно, VMware SRM может использовать два типа репликации:

  • Array Based Replication - репликация уровня массива, котора требует наличия соответствующего типа дискового массива на основной и резервной площадке, канала репликации, а также, собственно, программного продукта, который реализует эту репликацию. Как правило, данный тип представляет собой синхронную репликацию с возможностью быстрого переключения на резервную инфраструктуру в случае сбоя без потери данных.
  • vSphere Replication - репликация уровня массива, которая не требует ничего кроме сетевого соединения между площадками, но она происходит в асинхронном режиме, а значит возможна потеря данных в случае сбоя.

Давайте попробуем рассмотреть особенность обоих методов репликации в таблице:

 Категория Репликация уровня массива (Array-Based Replication) Репликация уровня хоста ESXi (vSphere Replication)
Тип репликации Репликация на уровне массива по выделенному каналу Репликация на уровне хостов ESXi по сети
Минимальная и максимальная потеря данных (требования к контрольной точке восстановления - RPO) От 0 до максимально определенной вендором массива. От 15 минут до 24 часов
Максимальное число ВМ До 5 000 защищенных ВМ и до 2 000 машин, одновременно восстанавливаемых с одного vCenter До 2 000 ВМ (и защищаемых, и одновременно восстанавливаемых) на один vCenter
Порядок записи данных на резервной инфраструктуре (Write order fidelity) Write order fidelity поддерживается для нескольких ВМ в пределах одной consistency group Write order fidelity поддерживается для дисков VMDK одной ВМ. Для нескольких ВМ одной consistency group это не гарантируется.
Уровень репликации Репликация на уровне LUN/VMFS или томов NFS Репликация на уровне виртуальной машины
Метод настройки репликации Репликация настраивается на стороне дискового массива средствами продуктов вендора Репликация настраивается и управляется через vSphere Web Client
Тип дискового массива Необходим массив с поддержкой репликации на обеих площадках (например, EMC RecoverPoint, NetApp vFiler, IBM SVC и т.п.) Любое хранилище, включая локальное хранилище (в случае наличия в списке vSphere HCL)
Тип хранилища и протокол Только для хранилищ с протоколами FC, iSCSI или NFS Поддержка ВМ на локальном хранилище, VSAN, FC, iSCSI или NFS
Стоимость решения Относительно высокая. Нужна лицензия на функции Replication и Snapshot. vSphere Replication включена в издание vSphere Essentials Plus 5.1 и более высокие
Развертывание Необходимо привлечение администраторов хранилищ и, возможно, сетевых администраторов Администратор vSphere может настроить самостоятельно
Консистентность данных на уровне приложений В зависимости от дискового массива и производителя консистентность приложений может поддерживаться средствами агентов в гостевой ОС ВМ Поддержка VSS и Linux file system application consistency
Возможность репликации ВМ, защищенных технологией Fault Tolerance (FT) Можно реплицировать FT ВМ, но при восстановлении FT будет выключена. Также не поддерживаются ВМ с несколькими vCPU. Репликация ВМ с включенной FT не поддерживается
Возможность репликации выключенных ВМ, шаблонов, связанных клонов (Linked clones), ISO-образов Все эти объекты (как и любые другие файлы на виртуальных хранилищах) можно реплицировать на уровне томов VMFS Можно реплицировать только запущенные виртуальные машины.
Поддержка томов RDM Тома RDM в режиме физической и виртуальной совместимости могут быть реплицированы Только тома RDM в режиме виртуальной совместимости (virtual mode)
Поддержка кластеров MSCS Да, машины, являющиеся частью кластера MSCS, можно реплицировать Нет, репликация ВМ в составе MSCS-кластера не поддерживается (нельзя реплицировать диски в режиме записи с нескольких хостов - multi-writer)
Поддержка виртуальных сервисов vApp Да, полностью поддерживается Нет, объекты vApp реплицировать нельзя. Можно реплицировать машины виртуальных сервисов по отдельности, а потом вручную собрать из них vApp на резервной площадке.
Поддержка версий хостов vSphere Поддерживаются версии vSphere 3.5-6.0 Только начиная с vSphere 5.0 и более поздние версии
Несколько точек восстановления (Multiple point in time - MPIT) Снапшоты Multiple point in time и возможность отката к ним поддерживается только отдельными производителями (например, в продукте EMC RecoverPoint) До 24 точек восстановления
Снапшоты Поддержка репликации ВМ со снапшотами в неизменяемом виде Поддержка репликации ВМ со снапшотами, на на целевой площадке они будут удалены (ВМ будет в последнем состоянии, без снапшотов)
Реакция на сбой хоста Не влияет, так как репликация идет независимо на уровне дискового массива При сбое хоста, машина перезапускается на другом ESXi и вызывается полная ресинхронизация ВМ (больше подробностей в vSphere Replication FAQ)

Также при использовании репликации уровня дискового массива рекомендуется прочитать документацию к соответствующему компоненту SRA (storage replication adapter).


Таги: VMware, SRM, Replication, Hardware, vSphere, ESXi, Сравнение

Компания EMC выпустила виртуальный vVNX для создания виртуальных общих хранилищ и тестирования VVols (позже).


Недавно компания EMC сделала доступным виртуальный модуль (Virtial Appliance) vVNX community edition, представляющий собой готовую ВМ в формате OVF, с помощью которой можно организовать общее хранилище для других виртуальных машин.

Видеообзор vVNX с EMC World:

Сам продукт фактически представляет собой виртуальный VNXe 3200. Для его работы вам потребуется:

  • VMware vSphere 5.5 или более поздняя версия
  • Сетевая инфраструктура с двумя адаптерами 1 GbE или 10 GbE
  • Аппаратный RAID-контроллер (рекомендуется 512 МБ NV Cache)

Основные возможности vVNX:

  • Replication – возможность асинхронной репликации на уровне блоков для локальных и удаленных инстансов vVNX. Также поддерживается репликация между vVNX и настоящим VNXe 3200.
  • Unified Snapshots – поддержка технологии снапшотов как на уровне блоков, так и на уровне файлов. Для этого используется технология Redirect on Write (ROW).
  • VMware Integration – vVNX предоставляет несколько механизмов интеграции с платформой VMware vSphere, таких как VASA, VAI и VAAI. Это позволяет производить мониторинг хранилищ vVNX из клиента vSphere, создавать хранилища из Unisphere, а также использовать техники compute offloading.
  • Flexible File Access – к хранилищам можно предоставить доступ через CIFS или NFS. Причем оба протокола можно использовать для одной файловой системы. Также можно использовать FTP/SFTP-доступ.

Для виртуальной машины с Virtual VNX потребуется 2 vCPU, 12 ГБ оперативной памяти и до 4 ТБ хранилища для виртуальных дисков.

Также кое-где на сайте EMC заявляется, что vVNX поддерживает технологию Virtual Volumes (VVOls) от VMware, что позволяет потестировать эти хранилища, не имея физического хранилища с поддержкой этого механизма. Это неверно. Поддержка VVols в vVNX будет добавлена только в третьем квартале этого года (пруф).

Пока можно посмотреть вот это видео на эту тему:

Скачать vVNX и получить бесплатную лицензию к нему можно по этой ссылке. Материалы сообщества, касающиеся vVNX объединены по этой ссылке, а вот тут можно посмотреть видео развертывания продукта и скачать гайд по установке. Ну и вот тут вот доступен FAQ.


Таги: EMC, VNX, Storage, Virtual Appliance, VVols, VMware, vSphere

VMware Virtual Volumes - с чем работает, а с чем нет.


Как многие из вас знают, одной из новых возможностей VMware vSphere 6.0 в плане хранилищ стала новая архитектура Virtual Volumes (VVols). VVols - это низкоуровневое хранилище для виртуальных машин, с которым позволены операции на уровне массива по аналогии с теми, которые сегодня доступны для традиционных LUN - например, снапшоты дискового уровня, репликация и прочее. Тома VVols создаются на дисковом массиве при обращении платформы к новой виртуальной машине (создание, клонирование или снапшот). Для каждой виртуальной машины и ее файлов, которые вы видите в папке с ВМ, создается отдельный VVol.

Между тем, поскольку технология VVol на сегодняшний день находится в первой своей релизной версии, а продуктов у VMware очень много, на сайте VMware появился список продуктов (в пункте 1 выберите Virtual Volumes), с которыми VVols работают, и тех, где поддержка еще не заявляена.

В целом можно сказать, что внедрять VVols в производственной среде полноценно пока рано, первая версия технологии предназначена скорее для тестирования и пробной эксплуатации с отдельными системами предприятия.

Продукты и технологии, которые поддерживают Virtual Volumes (VVols):

Продукты VMware:

  • VMware vSphere 6.0.
  • VMware vRealize Automation 6.2.
  • VMware Horizon 6.1.
  • VMware vSphere Replication 6.0
  • VMware NSX for vSphere 6.x

Возможности платформы VMware vSphere 6.0:

  • Storage Policy Based Management (SPBM)
  • Thin Provisioning
  • Linked Clones
  • Native Snapshots
  • View Storage Accelerator also known as Content Based Read Cache (CBRC)
  • Storage vMotion
  • vSphere Flash Read Cache
  • Virtual SAN (VSAN)
  • vSphere Auto Deploy
  • High Availability (HA)
  • vMotion
  • xvMotion
  • vSphere Software Development Kit (SDK)
  • NFS version 3.x

Продукты и технологии, которые НЕ поддерживают Virtual Volumes (VVols):

Продукты VMware:

  • VMware vRealize Operations Manager 6.x
  • VMware vCloud Air
  • VMware Site Recovery Manager 5.x to 6.x
  • VMware vSphere Data Protection 5.x to 6.x
  • VMware Data Recovery 2.x
  • VMware vCloud Director 5.x

Возможности VMware vSphere 6.0:

  • Storage I/O Control
  • NFS version 4.1
  • IPv6
  • Storage Distributed Resource Scheduler (SDRS)
  • Fault Tolerance (FT) + SMP-FT
  • vSphere API for I/O Filtering (VAIO)
  • Array-based replication
  • Raw Device Mapping (RDM)
  • Microsoft Failover Clustering (MSCS)

Отслеживать официальную поддержку VVols со стороны продуктов и технологий VMware можно в специальной KB 2112039. Там же, кстати, находится и полезный FAQ.

Для поиска совместимого с технологией VVols оборудования необходимо использовать VMware Compatibility Guide:


Таги: VMware, VVols, vSphere, Compatibility, Storage

All-Flash массив FAS2552A - отличный старт для всех!


Производительность, готовность и большой объем дискового пространства! Компания ИТ-ГРАД представляет вашему вниманию систему, способную удовлетворить современные требования: All-Flash массив FAS2552A.

Надежная конфигурация

  • Двухузловой кластер FAS2552A (НА-пара) с 12 твердотельными накопителями по 400 ГБ

Множество преимуществ

  • Значительное ускорение работы приложений.
  • Использование флеш-дисков со всеми протоколами (FCP, ISCSI, NFS, CIFS).
  • Больше никаких простоев! Все задачи технического обслуживания (включая техническое обновление и перенос) можно выполнять без отключения системы.
  • Гибкая конфигурация. СХД может быть увеличена до 8 узлов с объемом дискового пространства 3 ПБ3. Возможно перемещение данных без отключения системы.
  • Эффективность хранения данных для всех протоколов.
  • Дедупликация, компрессия и гибкое выделение ресурсов для всех протоколов (FCP, ISCSI, NFS, CIFS).
  • Удобное резервное копирование и аварийное восстановление.
  • Функция резервного копирования Snapshot с интеграцией приложений и гибкие возможности аварийного восстановления в других ЦОД.
  • Корпоративная система хранения данных, проверенная в реальных условиях эксплуатации тысяч установленных систем. Стабильная работа с помощью Data ONTAP, лучшей в мире операционной системы для СХД, а также широкий спектр сервисов технической поддержки (например, AutoSupport).

Для запроса стоимости FAS2552A обращайтесь в компанию ИТ-ГРАД.


Таги: IT-Grad, SSD, Hardware

Платформа VMware vSphere 6 доступна для скачивания.


Компания VMware сделала доступной для скачивания новую версию платформы виртуализации VMware vSphere 6.0. Да, продукты ESXi 6.0 и vCenter 6.0 можно устанавливать прямо сейчас:

Новых возможностей VMware vSphere 6.0 так много, что все они не уместятся в одной статье, поэтому приведем тут ссылки на наши заметки с описанием нового функционала платформы:

Вся документация по VMware vSphere 6 доступна по этой ссылке: https://www.vmware.com/support/pubs/vsphere-esxi-vcenter-server-6-pubs.html.

Ссылки на скачивание отдельных продуктов:

В ближайшее время напишем еще что-нибудь интересное про vSphere 6 - stay tuned.


Таги: VMware, vSphere, Update, ESXi, vCenter, vRealize

Доступна запись вебинара "Новинки vSphere 6" на русском языке.


Мы много пишем про новые возможности платформы виртуализации VMware vSphere 6, релиз которой должен состояться уже в ближайшее время. Напомним наши последние посты:

Но и компания VMware тоже старается от нас не отставать. Например, недавно она объявила о доступности вебинара "Новинки vSphere 6" на русском языке, который можно в любое время посмотреть по запросу.

Многовато болтовни в начале, но для тех, кто готов слушать о VMware от VMware - почему бы и нет.


Таги: VMware, vSphere, Webinar, Update

Новые возможности VMware vSphere 6 по работе с хранилищами NFS 4.1.


Продолжаем вас знакомить с новыми возможностями платформы виртуализации VMware vSphere 6, которая еще не вышла, но про которую уже все что можно написано. Напомним и наши посты на эту тему:

Теперь на очереди улучшения хранилищ, а именно - возможность работы по протоколу NFS версии 4.1, которую ожидали очень долго (еще со времен ESX 3 хост-серверы работают с хранилищами по протоколу NFS 3). Об этом написал Cormac Hogan, являющийся экспертом в области инфраструктуры хранилищ VMware vSphere.

Итак, начать нужно с того, что при монтировании тома NFS на хосте ESXi важно использовать одну версию протокола, так как если один хост смонтирует том как NFS 3, а другой этот же том как NFS 4.1 - последствия для данных этого тома могут оказаться очень печальными (данные будут повреждены). Это во многом потому, что третья версия протокола использует клиентские блокировки (client side co-operative locking), а 4.1 - блокировки на стороне сервера (server-side locking).

Поэтому самый надежный метод - на хранилище разрешить использовать для тома только одну версию протокола NFS. Ну и соответственно при монтировании папки надо указать правильную версию протокола, везде одинаково:

Ну а теперь возможности при работе vSphere 6.0 с общими ресурсами NFS 4.1:

1. Multipathing и Load-blanacing

Протокол NFS 4.1, помимо улучшений производительности, имеет встроенные возможности доступа по нескольким путям и балансировки нагрузки.

В списке Servers to be added можно плюсиком из поля выше ввести список из нескольких IP-адресов серверов кластера для обеспечения балансировки нагрузки по нескольким путям. Ранее такое было доступно только для протокола iSCSI.

Отмечается, что поддержки pNFS (Parallel NFS) в VMware vSphere 6.0 нет.

2. Поддержка аутентификации Kerberos.

В NFS 3 добавлять папки нужно было только под пользователем root, соответственно на хранилищах нужно было везде включать настройку no_root_squash, что не очень-то безопасно.

В NFS 4.1 можно создать нерутового юзера для папок, а на хостах нужно создать специального пользователя следующей командой:

esxcfg-nas -U -v 4.1

Везде на хостах ESXi, имеющих доступ к одним и тем же NFS-ресурсам должны быть добавлены одинаковые пользователи. Если пользователи разные, то у вас, например, не пройдет vMotion (вывалится с ошибкой).

Чтобы возможность аутентификации Kerberos работала, нужно чтобы все хосты ESXi были введены в домен Active Directory (об этом написано на скриншоте, у восклицательного знака).

3. Работа NFS 4.1 с другими технологиями VMware.

К сожалению, поддержка NFS 4.1 в vSphere 6.0 неполная - такие хранилища не поддерживаются для следующих технологий и продуктов VMware:

  • Storage DRS
  • Storage I/O Control
  • Site Recovery Manager
  • Virtual Volumes

При этом функции кластеров высокой доступности HA и балансировка нагрузки DRS полностью поддерживается. Ну и отметим тут, что IPv6 поддерживается для доступа по протоколу NFS 4.1, однако только в режиме AUTH_SYS (то есть без аутентификации Kerberos).


Таги:

VMware vSphere Virtual Volumes (vVOLs) - что это такое и чем отличается от VAAI.


Продолжаем рассказывать о возможностях новой версии серверной платформы виртуализации VMware vSphere 6, выход которой ожидается в ближайшее время. Напомним наши последние посты на эту тему:

Сегодня у нас на очереди одна из самых интересных тем в vSphere 6 - технология организации хранилищ VMware vSphere Virtual Volumes (VVOls). Напомним, что ранее мы подробно писали о ней тут. С тех пор появилось некоторое количество новой информации, которую мы постараемся актуализировать и дополнить в этом посте.

Начнем с того, что vVOL - это низкоуровневое хранилище для виртуальных машин, с которым позволены операции на уровне массива по аналогии с теми, которые сегодня доступны для традиционных LUN - например, снапшоты дискового уровня, репликация и прочее. vVOLs - это новый способ организации хранилищ в виде удобном для массива, когда используется не традиционная файловая система VMFS, а массив сам определяет, каким образом решать задачи доступа и организации работы с данными для виртуальных машин.

Тома vVOLs создаются на дисковом массиве при обращении платформы к новой виртуальной машине (создание, клонирование или снапшот). Для каждой виртуальной машины и ее файлов, которые вы сейчас видите в папке с ВМ, создается отдельный vVOL. В итоге же, создаются следующие тома на хранилище:

  • 1 config vVOL создается для метаданных ВМ, он включает в себя конфигурационный файл .vmx, дескрипторные vmdk для виртуальных дисков, лог-файлы и прочие вспомогательные файлы.
  • 1 vVOL создается для каждого виртуального диска .VMDK.
  • 1 vVOL создается для файла подкачки, если это требуется.
  • 1 vVOL создается для каждого снапшота и для каждого снимка оперативной памяти.

Дополнительные тома vVOL могут быть созданы для клонов или реплик виртуальной машины.

Давайте посмотрим на архитектуру VVols:

Здесь мы видим следующие компоненты:

Storage Provider (SP)

Технология vVOLs при взаимодействии с аппаратным хранилищем реализуется компонентом Storage Provider (SP), который также называется VASA Provider (подробнее об интерфейсе VASA - тут). Storage provider - это предоставляемый вендором аппаратного обеспечения слой ПО, который обеспечивает взаимодействие платформы vSphere и, собственно, хранилища с организованными на нем томами vVOLs в виде контейнеров (storage containers). vVOLs используют механизм VASA 2.0, который позволяет управлять объектами виртуальных машин (дискми) прямо на хранилище.  

Protocol EndPoint (PE)

Если раньше каждый хост налаживал в случае необходимости соединение с каждым из vmdk-дисков виртуальных машин и получалось куча связей, то теперь у хранилища есть логическое I/O-устройство, через которое происходит общение с томами vVOL. PE можно считать сущностью, пришедшей на замену LUN, этих PE может быть создано сколько угодно (кстати, длина очереди у PE - 128 по умолчанию, вместо 32 у LUN).

То есть, через PE хост ESXi получает доступ к данным конкретной виртуальной машины. PE совместимы с существующими протоколами  FC, iSCSI и NFS и позволяют использовать уже имеющееся ПО для управления путями в SAN. К отдельному PE через vCenter можно привязать или отвязать тома vVOL отдельных виртуальных машин. Для хранилища не нужно много PE, одно это логическое устройство может обслуживать сотни и тысячи виртуальных томов vVOL.

Storage Container (SC)

Это логическая сущность, которая нужна для объединения томов vVOL по типам в целях выполнения административных задач. Storage Container создается и управляется на стороне дискового массива и предназначен для логической группировки и изоляции виртуальных машин (например, виртуальные машины отдельного клиента в публичном облаке vCloud).

vVOL Datastore

Это хранилище, которое непосредственно создается из vSphere Client. По-сути, это представление Storage Container (SC) для платформы VMware vSphere. Этот тип датастора можно, например, выбрать при создании виртуальной машины:

С точки зрения администрирования, эти датасторы аналогичны VMFS-томам - вы так же можете просматривать их содержимое и размещать там виртуальные машины. Но для них недоступны операции расширения или апгрейда - они полностью контролируются со стороны дискового массива.

Policy Based Management

Это механизм, который позволяет назначать виртуальным машинам политики, которые определяют ее размещение, а как следствие, и производительность с точки зрения подсистемы ввода-вывода (например, можно задавать необходимые трешхолды по ReadOPs, WriteOPs, ReadLatency и WriteLatency.).

Дисковый массив на базе этих политик позволяет разместить виртуальную машину на нужном хранилище и обеспечить необходимые операции по обеспечению нужного уровня производительности.

По прочтении этого материала возникает вопрос - а чем vVOLs лучше механизма VAAI, который уже давно существует для VMware vSphere? Ответ прост - это замена VAAI, которая позволяет еще больше функций по работе с виртуальными машинами и организации хранилищ переложить на сторону аппаратного обеспечения. В случае невозможности операций с vVOLs будет произведено переключение на использование примитивов VAAI:

Об этом более подробнее вы можете прочитать в статье "vSphere Virtual Volumes Interoperability: VAAI APIs vs VVOLs".

Ну и отметим, что ведущие вендоры аппаратного обеспечения уже приступили к реализации vVOL в своем оборудовании. Например, это уже начинает делать HP:

Этим же занимается и Dell. В ближайшее время мы будем рассказывать о практических аспектах использования vVOLs подробнее.


Таги: VMware, vSphere, vVOL, Update, ESXi, Storage

Решение NexentaConnect для создания масштабируемой инфраструктуры хранения на базе VMware Virtual SAN.


Многие из вас знают про решение VMware Virtual SAN, представляющее собой средство для создания отказоустойчивых кластеров хранилищ на базе локальных дисков серверов VMware ESXi. Но это всего лишь средство для хранения и обеспечения отказоустойчивости виртуальных машин, а можно ли все пространство хранения в небольшой компании организовать полностью на базе локальных дисков серверов и управлять ими из одной точки?

Компания Nexenta считает, что можно, предлагая пользователям VMware vSphere и VMware Virtual SAN продукт NexentaConnect, позволяющий создавать NFS и SMB ресурсы для размещения данных виртуальной среды и пользователей на локальных дисках хост-серверов.

NexentaConnect это надстройка над Virtual SAN, которая предоставляет следующие возможности централизованно управляемого хранилища:

  • Экспорт файловых шар по протоколам NFSv3, NFSv4 и SMB 2.1.
  • Оптимизированный кэш на чтение, размещенный на стороне хост-серверов.
  • Техники сжатия данных и дедупликации.
  • Быстрая настройка прямо из vSphere Web Client.
  • Совместимость с VMware HA и DRS.
  • Интеграция с доменом AD (поддержка AAA и Kerberos).
  • Использование преимуществ Virtual SAN.

NexentaConnect состоит из следующих компонентов:

  • Плагин для vSphere (как для Web Client, так и для vSphere Client).
  • NexentaConnect Manager – виртуальный модуль (Virtual Appliance) на базе Ubuntu Linux (64 Bit), предоставляющий сервисы управления решением, такие как мониторинг, планировщик событий, база данных, обслуживание операций и т.п.
  • NexentaConnect Filers – это компоненты, реализующие, собственно, экспорт сетевых шар. Развертываются автоматически по одному на кластер Virtual SAN в момент создания первой общей папки.

Особенности файлеров:

  • Отдельная файловая система, составленная из виртуальных дисков VMDK по 2 ТБ (для каждой из политик хранения). 2 ТБ - это для того, чтобы обеспечить поддержку со стороны VMware VSAN. Всего можно объединить до 30 VMDK на файлер.
  • Размер блока 128 КБ.
  • Развертывание при первом обращении - масштабирование пространства хранения по требованию.
  • Развертывание как Thin provisioned, так и в режиме заранее аллоцированного пространства.

Параметры файлеров:

  • ОС Ubuntu Linux (64 Bit)
  • 4 vCPU
  • 16 GB RAM
  • Минимум 2 виртуальных диска (до 30)
  • Объем диска до 2 TB
  • 2 сетевых адаптера

Достоинства продукта:

  • Сжатие данных алгоритмом LZ4 в реальном времени с небольшой нагрузкой на CPU.
  • До 500 MB/s на компрессию (на ядро).
  • До 1.5 GB/s на декомпрессию (на ядро).
  • Дедупликация нулевых блоков.
  • Дедупликация данных в режиме Tech Preview (полноценная будет во второй версии).

Требования для развертывания NexentaConnect:

  • VMware vSphere 5.5 или выше
  • VMware vCenter Server 5.5 U1 или выше (Windows и Linux)
  • ESXi 5.5 U1 или выше
  • Кластер VMware vSphere с установленным Virtual SAN
  • VMware vSphere Web Client
  • VMware HA (опционально)
  • Службы каталога (Directory Services - опционально)
  • Microsoft Windows Active Directory 2008 R2 или выше
  • VMware vCenter Server 5.5 U1 или выше
  • DNS
  • DHCP

NexentaConnect - это еще один способ построить Scale-Out файловый сервер (то есть масштабирующиеся по требованию службы хранения). Например, это востребованной в инфраструктуре виртуальных ПК предприятия, где требуется хранить не только виртуальные машины, но и данные их пользователей.

Об одном из подобных решений - StarWind Virtual SAN - мы регулярно пишем (сейчас это лучшее решение на рынке). Вот тут, например, мы писали про документ о построении инфраструктуры файловых сервисов на базе StarWind.

Добавим, что решение NexentaConnect доступно не только для инфраструктуры VMware vSphere, но и для Citrix XenServer (пока в бете). Больше подробностей о продукте можно узнать вот на этой странице.


Таги: VMware, Virtual SAN, Storage, NFS, SMB, Virtual Appliance

Новый документ - VMware Horizon 6 Reference Architecture.


На днях компания VMware выпустила очень полезный для администраторов виртуальных инфраструктур документ VMware Horizon 6 Reference Architecture на 53 страницах, в котором приведена типовая конфигурация VDI-среды на 2000 виртуальных ПК, расширяемая до 10 000 пользователей в случае необходимости.

В документе рассмотрена архитектура на базе серверной инфраструктуры Supermicro и хранилища EMC VNX 5500. На данной конфигурации удалось добиться следующих результатов:

Конфигурация программно-аппаратного комплекса:

  • Хосты ESXi с процессорами 2.1 ГГц Intel E5-2658 или 2.9 ГГц E5-2690
  • 128 ГБ RAM на один хост ESXi
  • Хранилище для виртуальных ПК EMC VNX5500 на базе протокола NFS (20 ТБ)
  • Сетевое оборудование 10 Gigabit Ethernet (GbE)
  • Виртуальные машины Windows 7 с одним vCPU и 1GB vRAM (типовая "легкая" пользовательская нагрузка)
  • Виртуальные машины с ролью Microsoft Remote Desktop Session Host (RDSH) с четырьмя vCPU и 24 ГБ RAM
  • ПО VMware Horizon 6 на платформе VMware vSphere 5.5

А вот собственно и сама аппаратная конфигурация описанной в документе архитектуры:

В качестве составляющих программной среды используются все компоненты решения VMware Horizon 6 (View, Mirage 5.0 и Workspace Portal 2.0), работающие на платформе VMware vSphere 5.5.

Документ очень насыщен техническими деталями и рекомендуется к прочтению всем тем, кто планирует масштабное развертывание инфраструктуры виртуальных и физических ПК на базе семейства решений VMware Horizon 6.


Таги: VMware, Horizon, Whitepaper, View, Обучение, Mirage, Workspace

Обновился VMware I/O Analyzer на VMware Labs - новые возможности.


Почти три года назад мы писали про средство VMware I/O Analyzer, предназначенное для генерации нагрузки и анализа статистики ввода-вывода хостов VMware ESXi, доступное на сайте проекта VMware Labs. Не так давно вышло обновление этого средства, которое, как оказалось, живет и развивается.

VMware I/O Analyzer поставляется в виде виртуального модуля (готовой ВМ), предоставляющего администраторам следующие возможности:

  • Интегрированный фрейворк для тестирования производительности хранилищ средствами генераторов нагрузки.
  • Готовый к развертыванию виртуальный модуль (управляющая ВМ и "воркеры" - генераторы нагрузки).
  • Прост в настройке и возможность исполнения тестов на одном или нескольких хостах ESX/ESXi.
  • Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС.
  • Возможность экспорта данных для последующего анализа.
  • Средства "повторения" нагрузки на хранилища путем ее воспроизведения из трейса ввода-вывода.
  • Возможность загрузки трейсов ввода-вывода для автоматического извлечения необходимых метрик.
  • Графическая визуализация метрик и результатов анализа производительности.

В обновленном VMware I/O Analyzer 1.6.x появились следующие возможности:

  • Улучшенный планировщик заданий ввода-вывода.
  • Сам виртуальный модуль теперь на платформе SLES 64-bit, а сервер на Tomcat 6.
  • Экспериментальная поддержка статистик клиента NFS.
  • Возможность использования непостоянной (non-persistent) конфигурации (без сохранения настроек).
  • Сама ВМ с I/O Analyzer теперь версии 7, что позволяет запускать и использовать ее в ESX/ESXi 4.x.
  • Улучшения на бэкэнде, позволяющие поддерживать до 240 и более генераторов нагрузки.

На самом деле с 2011 года много что изменилось в этом продукте, поэтому ознакомьтесь с юзер-гайдом, в котором есть история добавления фичей по версиям.

Скачать VMware I/O Analyzer можно по этой ссылке. Очень хорошо, что подобные утилиты не ограничиваются одним релизом, а развиваются и обрастают функционалом.


Таги: VMware, Storage, Performance, Analyzer, vSphere, ESXi, VMachines, Virtual Appliance

Самообслуживание с помощью Cisco UCS Director: как дать пользователям возможность самостоятельно создавать виртуальные сервера.


В этом посте специалисты компани ИТ-ГРАД расскажут о решении Cisco UCS Director и покажут как сделать так, чтобы конечные пользователи могли самостоятельно сформировать запрос на портале самообслуживания Cisco UCS Director и автоматически получить готовую виртуальную машину.

Для этого мы с вами научимся создавать наборы политик и объединять несколько политик в группу в рамках vDC, а также создадим каталог (шаблон) на базе этих политик, чтобы предоставить пользователям доступ к этому каталогу через портал самообслуживания.

Начнем с инфраструктуры. Инфраструктура, на базе которой мы будем выполнять все настройки, состоит из:

  • NetApp Clustered DataONTAP 8.2 Simulator в качестве дискового массива;
  • виртуальной инфраструктуры развернутой на базе:
  • ESXi appliance 5.5.0;
  • vCenter appliance 5.5.0a.

Выглядит это примерно так:

Сразу отмечу, что все настройки политик и параметров для шаблона(ов) виртуальных машин в нашем посте будут относиться к VMWare vSphere инфраструктуре..Читать статью далее


Таги: IT-Grad, Cisco, UCS, Hardware, Cloud, Cloud Computing, Обучение, VMware, vSphere

Вышла платформа виртуализации Red Hat Enterprise Virtualization 3.4.


На прошлой неделе мы писали о том, что компания Red Hat выпустила мажорную версию своего дистрибутива Red Hat Enterprise Linux 7, где появилось достаточно много новых возможностей, в том числе касающихся технологий виртуализации. Несколько дней спустя было объявлено и о выпуске платформы Red Hat Enterprise Virtualization 3.4 (RHEV), полностью поддерживающей обновленную ОС RHEL 7. Напомним, что о возможностях бета-версии решения мы уже писали вот тут.

Напомним, что RHEV основана на гипервизоре Kernel-based Virtual Machine (KVM) и поддерживает открытую облачную архитектуру OpenStack. Давайте посмотрим, что нового появилось в обновленном RHEV версии 3.4.

Инфраструктура

  • Сервис настройки SNMP для поддержки сторонних систем мониторинга.
  • Сохранение настроек облачной инсталляции RHEV для возможности ее восстановления при сбое или для целей тиражирования в других облаках.
  • Переписаны и улучшены сервисы аутентификации RHEV.
  • Возможность горячего добавления процессора в ВМ (Hot Plug CPU). Тут нужна поддержка со стороны ОС.
  • Нерутовые юзеры теперь имеют доступ к логам.
  • Новый установщик, основанный на TUI (textual user interface).
  • Поддержка IPv6.
  • Возможность выбора соединения с консолью ВМ в режиме Native Client или noVNC.
  • Возможность изменения некоторых настроек запущенной виртуальной машины.
  • Полная поддержка RHEL 7 в качестве гостевой ОС.
  • Возможность включения/отключения KSM (Kernel Samepage Merging) на уровне кластера.
  • Возможность перезагрузки ВМ из RHEVM или консольной командой.

Сетевое взаимодействие

  • Более плотная интеграция с инфраструктурой OpenStack:
    • Улучшения безопасности и масштабируемости для сетей, развернутых с помощью Neutron.
    • Поддержка технологии Open vSwitch (расширяемый виртуальный коммутатор) и возможностей SDN-сетей.
  • Network Labels - метки, которые можно использовать при обращении к устройствам.
  • Корректный порядок нумерации виртуальных сетевых адаптеров (vNIC).
  • Поддержка iproute2.
  • Единая точка конфигурации сетевых настроек множества хостов в указанной сети.

Возможности хранилищ

  • Смешанные домены хранилищ (mixed storage domains) - возможность одновременного использования дисковых устройств из хранилищ  iSCSI, FCP, NFS, Posix и Gluster для организации хранения виртуальных машин.
  • Multiple Storage Domains - возможность распределить диски одной виртуальной машины по нескольким хранилищам в пределах датацентра.
  • Возможность указания дисков, которые будут участвовать в создании снапшотов, а также тех, которые не будут.
  • Улучшен механизм восстановления ВМ из резервной копии - теперь есть возможность указать снапшот состояния, в которое хочется откатиться.
  • Асинхронное управление задачами Gluster-хранилищ.
  • Read-Only Disk for Engine - эта функция дает средству управления Red Hat Enterprise Virtualization Manager возможность использовать диски только для чтения.
  • Доступ по нескольким путям (multipathing) для хранилищ iSCSI.

Средства виртуализации

  • Агенты гостевых ОС (ovirt-guest-agent) для OpenSUSE и Ubuntu.
  • SPICE Proxy - возможность использовать прокси-серверы для доступа пользователей к своим ВМ (если они, например, находятся за пределами инфраструктурной сети).
  • SSO (Single Sign-On) Method Control - возможность переключаться между различными механизмами сквозной аутентификации. Пока есть только два варианта: guest agent SSO и без SSO.
  • Поддержка нескольких версий одного шаблона виртуальной машины.

Улучшения планировщика и средств обеспечения уровня обслуживания

  • Улучшения планировщика виртуальных машин.
  • Группы Affinity/Anti-Affinity (правила существования виртуальных машин на хостах - размещать машины вместе или раздельно).
  • Power-Off Capacity - политика электропитания, позволяющая выключить хост и подготовить его виртуальные машины к миграции в другое место.
  • Even Virtual Machine Distribution - возможность распределения виртуальных машин по хостам на базе количества ВМ.
  • High-Availability Virtual Machine Reservation - механизм позволяет гарантировать восстановление виртуальных машин в случае отказа одного или нескольких хост-серверов. Он работает на базе расчета доступной емкости вычислительных ресурсов хостов кластера.

Улучшения интерфейса

  • Фиксы багов, касающихся того, что интерфейс не всегда реагировал на происходящие в инфраструктуре события.
  • Поддержка низких разрешений экрана (когда не было видно некоторых элементов консоли управления на низких разрешениях).

Скачать Red Hat Enterprise Virtualization 3.4 можно по этой ссылке. Документация доступна тут.


Таги: Red Hat, RHEV, Update, Linux, KVM

Вышел Red Hat Enterprise Linux 7 - новые возможности виртуализации KVM и QEMU.


На прошлой неделе компания Red Hat выпустила мажорное обновление операционной системы Red Hat Enterprise Linux 7.

Новая версия ОС RHEL имеет множество новых интересных возможностей, среди которых немало касаются технологий виртуализации. Некоторые основные новые возможности RHEL 7:

  • Встроенная поддержка упакованных приложений в формате Docker.
  • Kernel patching utility Technology Preview - патчинг ядра без перезагрузки ОС.
  • Прямая и непрямая интеграция с Microsoft Active Directory, подробнее описано вот тут.
  • Для разделов boot, root и user data дефолтной файловой системой теперь является XFS.
    • Для XFS максимальный размер файловой системы увеличен со 100 ТБ до 500 ТБ.
    • Для ext4 этот размер увеличен с 16 ТБ до 50 ТБ.
  • Улучшенный процесс установки ОС (новый визард).
  • Возможность управления серверами Linux с использованием Open Linux Management Infrastructure (OpenLMI).
  • Улучшения файловых систем NFS и GFS2.
  • Новые возможности технологии виртуализации KVM.
  • Возможность выполнять RHEL 7 в качестве гостевой OS.
  • Улучшения NetworkManager и новая утилита командной строки для выполнения сетевых задач NM-CLI.
  • Поддержка сетевых соединений Ethernet на скорости до 40 Гбит/с.
  • Поддержка беспроводной технологии WiGig (IEEE 802.11ad) (на скорости до 7 Гбит/с).
  • Новый механизм Team Driver, который виртуально объединяет сетевые устройства и порты в единый интерфейс на уровне L2.
  • Новый динамический сервис FirewallD, представляющий собой гибкий сетевой экран, имеющий преимущество перед iptables и поддерживающий несколько трастовых зон (network trust zones).
  • GNOME 3 в режиме классического рабочего стола.

Более подробно о новых возможностях RHEL 7 рассказано вот в этом документе Red Hat.

В плане виртуализации в Red Hat Enterprise Linux 7 появились следующие основные нововведения:

  • Технологическое превью возможности virtio-blk-data-plane, которая позволяет выполнять команды ввода-вывода QEMU в отдельном оптимизированном потоке.
  • Появилось технологическое превью технологии PCI Bridge, позволяющей поддерживать более чем 32 PCI-устройства в QEMU.
  • QEMU Sandboxing - улучшенная изоляция между гостевыми ОС хоста RHEL 7.
  • Поддержка "горячего" добавления виртуальных процессоров машинам (vCPU Hot Add).
  • Multiple Queue NICs - каждый vCPU имеет собственные очереди на передачу и получение, что позволяет не задействовать другие vCPU (только для гостевых ОС Linux).
  • Технология сжатия страниц памяти при горячей миграции (Page Delta Compression) позволяет гипервизору KVM проводить миграцию быстрее.
  • В KVM появились функции поддержки паравиртуализованных функций ОС Microsoft, например, Memory Management Unit (MMU) и Virtual Interrupt Controller. Это позволяет гостевым ОС Windows работать быстрее (по умолчанию эти функции отключены).
  • Поддержка технологии EOI Acceleration, основанной на интерфейсе Advanced Programmable Interrupt Controller (APIC) от Intel и AMD.
  • Технологическое превью поддержки USB 3.0 в гостевых ОС на KVM.
  • Поддержка гостевых ОС Windows 8, Windows 8.1, Windows Server 2012 и Windows Server 2012 R2 на гипервизоре KVM.
  • Функции I/O Throttling для гостевых ОС на QEMU.
  • Поддержка технологий Ballooning и transparent huge pages.
  • Новое устройство virtio-rng доступно как генератор случайных чисел для гостевых ОС.
  • Поддержка горячей миграции гостевых ОС с хоста Red Hat Enterprise Linux 6.5 на хост Red Hat Enterprise Linux 7.
  • Поддержка назначения устройств NVIDIA GRID и Quadro как второго устройства в дополнение к эмулируемому VGA.
  • Технология Para-Virtualized Ticketlocks, улучшающая производительность, когда виртуальных vCPU больше чем физических на хосте.
  • Улучшенная обработка ошибок устройств PCIe.
  • Новый драйвер Virtual Function I/O (VFIO) улучшающий безопасность.
  • Поддержка технологии Intel VT-d Large Pages, когда используется драйвер VFIO.
  • Улучшения отдачи точного времени виртуальным машинам на KVM.
  • Поддержка образов формата QCOW2 version 3.
  • Улучшенные статистики Live Migration - total time, expected downtime и bandwidth.
  • Выделенный поток для Live Migration, что позволяет горячей миграции не влиять на производительность гостевых ОС.
  • Эмуляция процессоров AMD Opteron G5.
  • Поддержка новых инструкций процессоров Intel для гостевых ОС на KVM.
  • Поддержка форматов виртуальных дисков VPC и VHDX в режиме "только для чтения".
  • Новые возможности утилиты libguestfs для работы с виртуальными дисками машин.
  • Новые драйверы Windows Hardware Quality Labs (WHQL) для гостевых ОС Windows.
  • Интеграция с VMware vSphere: Open VM Tools, драйверы 3D-графики для OpenGL и X11, а также улучшенный механизм коммуникации между гостевой ОС и гипервизором ESXi.

Release Notes новой версии ОС доступны по этой ссылке. О функциях виртуализации в новом релизе RHEL 7 можно почитать вот тутздесь - на русском). Исходные коды rpm-пакетов Red Hat Enterprise Linux 7 теперь доступны только через Git-репозиторий.


Таги: Linux, QEMU, KVM, Update, RHEL, Red Hat

Обновления от VMware: vCenter Server 5.5 Update 1b, патч ESXi Update 1 для решения проблем NFS-хранилищ и OpenSSL, а также vCloud Director 5.5.1.2.


На прошедшей неделе компания VMware вплотную занялась патчингом и фиксингом своих продуктов, закрывая те проблемные места, которые накопились за прошедшие пару-тройку месяцев. Прежде всего, было выпущено обновление ESXi550-201406401-SG, которое решает сразу две проблемы на VMware vSphere 5.5 Update 1.

Во-первых, мы уже писали о том, что  в VMware vSphere 5.5 Update 1 был баг - если использовать NFS-хранилища, то они периодически отваливаются, переходя в состояние APD (All paths down). Это касается и VSA-хранилищ. В логах при этом наблюдается что-то вроде такого:

2014-04-01T14:35:08.074Z: [APDCorrelator] 9413898746us: [vob.storage.apd.start] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down state.
2014-04-01T14:35:08.075Z: [APDCorrelator] 9414268686us: [esx.problem.storage.apd.start] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down state.
2014-04-01T14:36:55.274Z: No correlator for vob.vmfs.nfs.server.disconnect
2014-04-01T14:36:55.274Z: [vmfsCorrelator] 9521467867us: [esx.problem.vmfs.nfs.server.disconnect] 192.168.1.1/NFS-DS1 12345678-abcdefg0-0000-000000000000 NFS-DS1
2014-04-01T14:37:28.081Z: [APDCorrelator] 9553899639us: [vob.storage.apd.timeout] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down Timeout state after being in the All Paths Down state for 140 seconds. I/Os will now be fast failed.
2014-04-01T14:37:28.081Z: [APDCorrelator] 9554275221us: [esx.problem.storage.apd.timeout] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down Timeout state after being in the All Paths Down state for 140 seconds. I/Os will now be fast failed.

В выпущенном обновлении эта ошибка была исправлена.

Во-вторых, была также исправлена ошибка безопасности в OpenSSL, которая может оказаться даже серьезнее, чем исправленный ранее баг OpenSSL Heartbleed. В ESXi существует вероятность атаки типа MiM (Man in the Middle), о которой подробнее рассказано вот тут. Этот баг в приведенном выше обновлении был также зафикшен. Кстати, в своем блоге компания VMware объявила о том, что ее команда безопасности расследует новые возможные уязвимости OpenSSL, и вот тут приведены результаты ее работы.

Чтобы скачать патч, идем на VMware Patch Portal, выбираем там продукт "ESXi Embedded & Installable", версию релиза 5.5.0 и дату - 10 июня. Получаем ссылку на патч:

Применить этот патч можно и не скачивая его с сайта VMware, а просто с помощью следующей последовательности команд:

# открываем фаервол для http

esxcli network firewall ruleset set -e true -r httpClient

# устанавливаем образ ESXi-5.5.0-20140604001-standard из хранилища VMware Online depot

esxcli software profile update -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml -p ESXi-5.5.0-20140604001-standard

# перезагружаем хост ESXi

reboot

Также на днях компания VMware выпустила обновления продукта vCenter Server 5.5 Update 1b:

и vCloud Director 5.5.1.2:

Оба этих исправления прежде всего несут в себе фиксы в плане безопасности протокола OpenSSL, однако там есть и другие мелкие улучшения. Рекомендуется их установить.

Надо отметить, что VMware vCenter Server Appliance не подвержен багу OpenSSL, поэтому и исправлений для него нет.


Таги: VMware, vSphere, Security, Bug, Bugs, ESXi, vCenter, vCloud, Director

Возможности изданий StarWind Virtual SAN 8.0 - отличия бесплатного и коммерческого изданий.


Как вы знаете, совсем недавно была выпущена новая версия продукта StarWind Virtual SAN, предназначенного для создания отказоустойчивых хранилищ на базе iSCSI для виртуальных машин VMware vSphere и Microsoft Hyper-V. О новых возможностях этого продукта мы уже рассказывали тут, кроме того, скоро мы расскажем о нововведениях более детально.

Некоторое время назад мы уже писали об изданиях решения StarWindтут), но сейчас продукт существенно поменялся - появились новые возможности и улучшения, которые мы просуммировали в таблице ниже:

Возможности продукта StarWind iSCSI SAN Free Edition (бесплатно) StarWind Virtual SAN для VMware и Hyper-V Комментарий
Емкость хранилищ
Для одного узла - не ограничено, для HA-конфигурации - 128 ГБ
Зависит от типа лицензии - от 1 до 512 ТБ
Можно купить лицензию на 1 ТБ и расширять ее апгрейдами
Размер допустимого к использованию кэша
512 МБ
Не ограничено
Для коммерческой лицензии можно использовать всю память сервера под кэш
Централизованное управление
StarWind Management Console
Консоль бесплатного и коммерческого издания - одна. Апгрейд происходит с помощью ключа.
Число серверов на лицензию
2
2 или 3
Для коммерческой лицензии можно использовать 3 узла при соблюдении лицензированной емкости. Подробнее тут.
Число одновременных соединений по iSCSI
Не ограничено
Обе версии позволяют неограниченное число клиентов.
Число лицензированных портов Ethernet
Не ограничено
Любые порты можно как угодно агрегировать и использовать.
Число дисков хоста
Не ограничено
Диски можно использовать в любой конфигурации.
Техническая поддержка Ограничена (только веб-форум) Полная поддержка (уровень Standard или Premium) Уровень Standard - время реакции 4-12 часов (почта, телефон), можно сделать апгрейд на премиум-поддержку.
Отказоустойчивость узлов типа Active-Active
Поддержка прозрачной для виртуальных машин отказоустойчивой конфигурации (как Failover, так и Failback). Для бесплатной версии - только для 128 ГБ.
Асинхронная WAN-репликация
Возможность асинхронной репликации между узлами и возможность создания катастрофоустойчивого решения для хранилищ. Теперь также возможна репликация даже на очень медленных каналах
Использование ресурсов NAS/SAN
Поддержка в качестве хранилищ как NAS, так и SAN-ресурсов. Утилита NAS Configurator - помогает сделать экспорт NFS/SMB-шары для использования в кластерах StarWind High Availability или MS Cluster.
Технология Disk bridge
Технология эмуляции SCSI-слоя, что позволяет использовать любые типы хранилищ (PATA/SATA/RAID).
Техника SPTI
Техника, позволяющая соединять физические устройства с удаленными машинами.
Хранение данных в виде файла образа (Image File)
Хранение виртуальных дисков машин в виде файла.
Поддержка технологии CDP и снапшотов
Более подробно - тут.
Возможности Thin Provisioning (растущие по мере наполнения диски)
Аллоцируется только необходимое для записей данных пространство диска.
Технология High speed caching
Использование памяти для защищенного и высокопроизводительного кэширования.
Сервисы мониторинга и нотификаций администраторов
Единая консоль мониторинга происходящих с хранилищами событий и средство оповещения администраторов по email или SNMP.
Дедупликация данных (собственный высокопроизводительный механизм)
Inline-дедупликация StarWind не создает нагрузку на подсистему хранения и не "крадет" IOPS'ы у продуктивного хранилища.

Из таблицы видно, что бесплатная версия StarWind Virtual SAN Free мало чем отличается от платной, кроме ограничения на размер отказоустойчивого хранилища в 128 ГБ. Поэтому если у вас есть необходимость в создании кластеров хранилищ на базе локальных дисков серверов - StarWind на сегодняшний день является единственным на сегодняшний день продуктом, позволяющим сделать это бесплатно.

Скачать пробную или бесплатную версию StarWind Virtual SAN для VMware или Hyper-V можно по этой ссылке.


Таги: StarWind, iSCSI, SAN, Virtual SAN, Сравнение, Storage

Анонсирована финальная версия VMware Log Insight 2.0.


Не так давно мы писали о доступности бета-версии средства VMware Log Insight 2.0, предназначенного для автоматизированного управления файлами журналов, а также сбора различных данных, их анализа и поиска. Вчера компания VMware анонсировала релизную версию VMware Log Insight 2.0.

Приведем здесь полный список новых возможностей решения Log Insight 2.0:

1. Улучшения производительности масштабируемости:

  • VMware заявляет, что Log Insight работает в 6 раз быстрее конкурента - продукта Splunk.
  • До 8 раз увеличена скорость сбора данных и до 6 раз - скорость выполнения запросов.
  • До 2 ТБ анализируемых данных на узел.
  • До 30% улучшения производительности отдельных узлов.
  • Возможность масштабирования до 6 узлов при анализе данных.

2. Высокая доступность:

  • Улучшения скорости обмена до 5-10 раз при работе в режиме Cluster mode.
  • Нет единой точки отказа - при запросах можно использовать внешний балансировщик, перенаправляющий запросы к узлам. Появилась интеграция с решением vCenter Operations Management Suite.
  • Единый интерфейс для работы со всеми данными узлов.

3. Проактивная аналитика:

  • Обучаемая система типов событий и распознавания схем данных с интеллектуальной группировкой (близкие сообщения хранятся рядом).
  • "Умные поля" в отчетах (распознается тип данных в поле).
  • Сбор данных с таких продуктов VMware, как NSXvCloud Automation Center, Horizon View.

4. Улучшенные дэшборды и графический интерфейс:

  • Интерфейс на основе HTML 5.
  • Простое добавление фильтров на лету.
  • Возможность взаимодействия между разными виджетами одного дэшборда.
  • Теперь работа с диаграммами стала намного удобнее (новые виды диаграмм, можно прятать колонки, можно добавлять чарты на дэшборд).

5. Поддержка RESTful API при работе с логами.

6. Улучшенные механизмы мониторинга собственного состояния.

7. Агент для сбора логов Windows:

  • Перенаправляет Windows event logs.
  • Мониторит изменения файлов журнала.
  • Функции централизованной отчетности и управления логами.
  • Потребляет мало ресурсов (до 5% CPU и 100-200 МБ оперативной памяти).
  • Поддерживает автоматическую ротацию логов.

Кроме того, в скором времени будут доступны дополнительные контент-паки для следующих продуктов:

  • Brocade SAN Content Pack – мониторит события с FC-коммутаторов Brocade, генерирует алерты
  • Microsoft Active Directory Content Pack
  • Microsoft Exchange Content Pack
  • Microsoft Windows Content Pack

Дефолтный контент-пак для VMware vSphere содержит следующие представления:

  • General – Overview
  • General – Inventory
  • General – Security
  • vCenter – Alarms
  • vCenter – Tasks
  • ESXi
  • DRS
  • HA
  • Networking
  • Storage – Overview
  • Storage – SCSI latency/errors
  • Storage SCSI Sense Codes
  • Storage – NFS
  • Virtual Machine

Теперь лицензирование VMware Log Insight построено не на базе объема обрабатываемых данных, а на базе анализируемых систем (стоит это $200 за систему). Можно также купить лицензию на 1 физический процессор (CPU) сервера Log Insight.

Сам продукт VMware Log Insight 2.0 будет доступен для загрузки во втором квартале этого года. Более подробно о продукте можно узнать тут, а контент-паки можно загрузить отсюда.


Таги: VMware, vCenter, Log Insight, Update, Storage

OpenSSL HeartBleed и VMware vSphere - вышли патчи 5.5 Update 1a и 5.5c.


Пару недель назад мы писали об уязвимости OpenSSL HeartBleed, которая коснулась виртуальной инфраструктуры VMware vSphere, а также других продуктов компании VMware. Напомним, что эта уязвимость позволяла злоумышленнику получить доступ к памяти сервера, где могут храниться логины/пароли и другая информация пользователей.

На прошлой неделе компания VMware выпустила фиксы для этого бага в виде обновлений VMware vSphere 5.5 Update 1a и VMware vSphere 5.5c, подробнее о которых написано в специальной статье KB 2076665.

Но тут, как часто бывает, вышла оказия. Нашелся еще один баг в VMware vSphere 5.5 Update 1 - оказывается, если для этого билда использовать NFS-хранилища, то они периодически отваливаются, то есть переходят в состояние APD (All paths down). Это касается и VSA-хранилищ. В логах при этом наблюдается что-то вроде такого:

2014-04-01T14:35:08.074Z: [APDCorrelator] 9413898746us: [vob.storage.apd.start] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down state.
2014-04-01T14:35:08.075Z: [APDCorrelator] 9414268686us: [esx.problem.storage.apd.start] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down state.
2014-04-01T14:36:55.274Z: No correlator for vob.vmfs.nfs.server.disconnect
2014-04-01T14:36:55.274Z: [vmfsCorrelator] 9521467867us: [esx.problem.vmfs.nfs.server.disconnect] 192.168.1.1/NFS-DS1 12345678-abcdefg0-0000-000000000000 NFS-DS1
2014-04-01T14:37:28.081Z: [APDCorrelator] 9553899639us: [vob.storage.apd.timeout] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down Timeout state after being in the All Paths Down state for 140 seconds. I/Os will now be fast failed.
2014-04-01T14:37:28.081Z: [APDCorrelator] 9554275221us: [esx.problem.storage.apd.timeout] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down Timeout state after being in the All Paths Down state for 140 seconds. I/Os will now be fast failed.

Решения для этой проблемы пока нет, поэтому рекомендуется просто откатиться на VMware vSphere 5.5 (без Update 1), если вы используете NFS-хранилища или модуль VSA.

Так вот, поэтому vSphere 5.5 Update 1 и просто vSphere 5.5 надо обновлять разными патчами для устранения уязвимости OpenSSL HeartBleed (чтобы на 5.5 не накатилась проблема с APD):

VMware ESXi 5.5, Patch Release ESXi550-201404001
Это патч только для фикса хостов ESXi 5.5 Update 1

VMware ESXi 5.5, Patch Release ESXi550-201404020
А этот патч для фикса хостов разных версий 5.5 за исключением ESXi 5.5 Update 1, а именно:
ESXi 5.5.0 hosts
ESXi 5.5.0 hosts patched with ESXi550-201312101-SG bulletin
ESXi 5.5.0 hosts patched with ESXi550-201312401-BG bulletin
ESXi 5.5.0 hosts patched with ESXi550-201403101-SG bulletin
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20131201001s-standard image profile
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20131201001s-no-tools image profile
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20131204001-standard image profile
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20131204001-no-tools image profile
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20140301001s-standard image profile
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20140301001s-no-tools image profile

Для серверов vCenter есть также соответствующие патчи:

VMware рекомендует сначала обновить серверы vCenter, а потом уже обновлять хосты ESXi. Сама процедура обновления описана в KB 2076692.

После обновления, на хостах ESXi надо перегенерить сертификаты и сменить пароли root. Делается это так:

cd /etc/vmware/ssl
/sbin/generate-certificates
chmod +t rui.crt
chmod +t rui.key
passwd root

Ну и надо отметить, что для всех остальных продуктов VMware также вышли фиксы уязвимости OpenSSL HeartBleed. Информация о них доступна по этой ссылке: http://www.vmware.com/security/advisories/VMSA-2014-0004.html.


Таги: VMware, Security, vSphere, ESXi, vCenter, Bug, Bugs, NFS, Storage

Вышла бета Red Hat Enterprise Virtualization (RHEV) 3.4 - новые возможности.


Чуть больше, чем через два месяца после релиза платформы виртуализации Red Hat Enterprise Virtualization (RHEV) 3.3, компания Red Hat выпустила бета-версию RHEV 3.4, где появилось значительное количество новых возможностей.

А именно, вот что нового нам обещают в RHEV 3.4:

  • Более плотная интеграция с инфраструктурой OpenStack:
    • Улучшения безопасности и масштабируемости для сетей, развернутых с помощью Neutron.
    • Поддержка технологии Open vSwitch (расширяемый виртуальный коммутатор) и возможностей SDN-сетей.
  • Улучшения enterprise-функций сетевого взаимодействия:
    • Единая точка конфигурации сетевых настроек множества хостов в указанной сети.
  • Улучшения enterprise-функций хранилищ:
    • Смешанные домены хранилищ (mixed storage domains) - возможность одновременного использования дисковых устройств из хранилищ  iSCSI, FCP, NFS, Posix и Gluster для организации хранения виртуальных машин.
    • Возможность указания дисков, которые будут участвовать в создании снапшотов, а также тех, которые не будут. Кроме того, улучшен механизм восстановления ВМ из резервной копии - теперь есть возможность указать снапшот состояния, в которое хочется откатиться.
  • Улучшения средств управления на всех уровнях:
    • Улучшения планировщика виртуальных машин.
    • Группы Affinity/Anti-Affinity (правила существования виртуальных машин на хостах - размещать машины вместе или раздельно).
    • Возможность горячего добавления процессора в ВМ (Hot Plug CPU). Тут нужна поддержка со стороны ОС.
    • Сервис настройки SNMP для поддержки сторонних систем мониторинга.
    • Сохранение настроек облачной инсталляции RHEV для возможности ее восстановления при сбое или для целей тиражирования в других облаках.

Решение RHEV 3.4 Beta доступно уже сегодня для всех пользователей Red Hat Enterprise Virtualization. Скачать решение RHEV можно на этой странице.


Таги: Red Hat, RHEV, Update, Beta, VMachines, Cloud, Cloud Computing

Вышел релиз-кандидат StarWind SAN V8 - еще больше новых возможностей с прошлой беты.


На днях компания StarWind Software выпустила долгожданный Release Candidate своей новой версии решения для создания отказоустойчивых хранилищ под виртуализацию - StarWind SAN V8 RC. Напомним, что несколько ранее вышла третья бета-версия данного продукта. Ну а в текущей версии появилось еще несколько новых возможностей, которых не было в предыдущих бетах.

Итак, окончательно определился список новых возможностей StarWind V8, которые мы увидим в финальном релизе продукта:

  • L2 Flash Cache - кэш уровня L2, который работает непосредственно с кэшем уровня L1 в RAM, что существенно улучшает производительность.
  • Файловая система LSFS, которая изначально работает с большими блоками данных, что положительно сказывается на сроке службы флеш-накопителей (SSD), на которых размещаются виртуальные машины (это дело недалекого будущего). Файловая система LSFS преобразовывает small random writes в большие последовательные операции записи, что также существенно увеличивает производительность.
  • Inline-дедупликация StarWind, которая не создает нагрузку на подсистему хранения и не "крадет" IOPS'ы у продуктивного хранилища.
  • Улучшенный интерфейс мастеров развертывания хранилищ для Windows Server 2012 с поддержкой скриптов PowerShell.
  • Возможность интеграции с механизмом SMI-S для Windows Server 2012 R2.
  • Massive Scale-Out storage architecture - возможность масштабирования узлов кластера хранилищ до любого числа (а не только 3 как сейчас).
  • Asynchronous WAN-replication - возможность асинхронной репликации между узлами и возможность создания катастрофоустойчивого решения для хранилищ. Теперь также возможна репликация даже на очень медленных каналах.
  • Поддержка примитивов VAAI для устройств на одном узле и устройств с синхронной репликацией: поддерживаются команды WRITE SAME, EXTENDED COPY, ATS.
  • Репликация конфигурации узла, включая информацию о снапшотах, что позволяет в случае сбоя сохранить созданную оригинальную конфигурацию и реплицировать ее уже, например, на третий узел.
  • VSS-провайдеры для поддержки устройств с LSFS - появились Hardware VSS provider (для устройств с синхронной/асинхронной репликацией) и Software VSS Provider (только для обычных LSFS-устройств).
  • Утилита NAS Configurator - помогает сделать экспорт NFS/SMB-шары для использования в кластерах StarWind High Availability или MS Cluster.
  • Утилита VSA Builder - позволяет развернуть готовую виртуальную машину StarWind VSA на серверах VMware ESXi.
  • V2V Converter в StarWind Management console - теперь прямо из консоли можно конвертировать файлы дисков виртуальных машин из формата VMDK в VHD и обратно, а также из/в нативный формат IMG StarWind.

Release notes по продукту StarWind SAN V8 доступны здесь. Скачать релиз-кандидат можно по этой ссылке. До финальной версии осталось совсем чуть-чуть.


Таги: StarWind, SAN, Update, Storage, iSCSI

NetApp представила новую линейку масштабируемых корпоративных систем хранения данных FAS8000 - спрашивайте в компании ИТ-ГРАД.


Гостевой пост от компании ИТ-ГРАД.

Системы хранения данных NetApp серии FAS8000 — это сочетание унифицированной горизонтально масштабируемой архитектуры с лидирующими функциями управления данными. Системы отличаются быстрой адаптацией к меняющимся потребностям предприятия и соответствуют требованиям к продолжительности безотказной работы, масштабируемости и рентабельности.

  • Быстрое выполнение бизнес-операций. Выгодно используя высокие показатели производительности, а также преимущества многоядерной архитектуры и самоуправляемых флэш-технологий ускорения, унифицированные горизонтально масштабируемые СХД FAS8000 увеличивают пропускную способность и уменьшают время ожидания, обеспечивая стабильную работу приложений с разнородными рабочими нагрузками SAN и NAS.
  • Рационализация ИТ-операций. Благодаря упрощенному управлению и апробированной интеграции со средами поставщиков облачных услуг вы можете смело внедрять систему FAS8000 в свой центр обработки данных и гибридное облако. Бесперебойные операции упрощают долговременный процесс масштабирования и увеличивают период бесперебойной работы, обеспечивая проведение ремонта аппаратных компонентов, модернизацию технических средств и других обновлений без отключения системы.
  • Обеспечение эффективного показателя общей стоимости владения. Апробированные технологии повышения эффективности и отличное соотношение «цена-производительность» оптимизируют занимаемое дисковое пространство и улучшают показатели окупаемости в долгосрочной перспективе. Программное обеспечение виртуализации СХД FlexArray позволит интегрировать существующие массивы с системами FAS8000, повышая уровень консолидации и ценность вашего бизнеса.

Для получения более детальной информации о дисковых массивах NetApp - обращайтесь в компанию ИТ-ГРАД. Там специальные цены!


Таги: IT-Grad, NetApp, Hardware, Update, NFS

Обновился документ "Security of the VMware vSphere Hypervisor" - безопасность ESXi.


Те из вас, кто интересуется безопасностью виртуальной инфраструктуры VMware vSphere, наверняка знают такое нужное руководство, как "VMware vSphere Hardening Guide", которое предоставляет рекомендации и практичные советы по комплексной защите виртуальной инфраструктуры, включая хосты, виртуальные машины, сервер vCenter и т.п.

Однако этот документ - еще не все, что есть полезного на тему безопасности от VMware (кстати, централизованно все ресурсы находятся в VMware Security Center). Недавно обновился документ "Security of the VMware vSphere Hypervisor" (25 страниц), который описывает инфраструктуру безопасности непосредственно хоста ESXi на уровне ядра и интерфейсов.

Содержание документа:

  • Secure Virtual Machine Isolation in Virtualization
    • Virtualization Extensions
    • Instruction Isolation
    • Memory Isolation
    • Memory Protection
    • Device Isolation
      • Device Access to Hardware
      • I/O Remapping
    • Resource Provisioning, Shares, and Limits
      • Provisioning
      • Shares
      • Limits
  • Network Isolation
    • ESXi Networks
    • Virtual Machine Networks
    • Virtual Networking Layer
      • Virtual Switches
      • Virtual Switch VLANs
      • Virtual Ports
      • Virtual Network Adapters
      • Virtual Switch Isolation
      • Virtual Switch Correctness
  • Virtualized Storage
    • Linked Clones
    • Raw Device Mapping
    • I/O Path
    • SAN Security
    • iSCSI Security
    • VMFS
    • NFS Security
  • Secure Management
    • ESXi Is Not Linux
    • Administrative Interfaces
    • DCUI
    • Host Agent
    • VMware vSphere ESXi Shell
    • Network Access to Administrative Interfaces
    • SSL Certificates
    • Management Interface Firewall
    • Security of Management Protocols
    • Administrative User Access
    • Limit Root Access
    • Lockdown Mode
  • Platform Integrity Protection
    • Secure Software Packaging
    • Software Assurance and Integrity Protection
  • VMware Secure Development Life Cycle

Документ отличает высокий технический уровень, который позволяет понять процессы, происходящие в недрах ESXi. Вот так, например, выглядит схема прохождения инструкций процессора на различных уровнях:

А вот так - использование физической и виртуальной памяти хостов виртуальными машинами:

Ну и вообще в документе немало интересного.


Таги: VMware, ESXi, Security, Whitepaper, Update

Виртуальные машины с Microsoft Exchange 2013 НЕ поддерживаются на файловых хранилищах NFS.


Интересный наброс произошел некоторое время назад в среде виртуализаторов. Оказывается, что Microsoft Exchange 2013 (который станет одним из главных почтовых серверов в ближайшем будущем) не поддерживается для размещения его в виде виртуальной машины на томах NAS / NFS. Вот такая штука - многие используют, а не знают, что это не поддерживается.

При этом NAS-хранилища SMB 3.0, появившиеся в Windows 8 и Windows Server 2012, вполне себе поддерживаются. Напомним, что NFS-протокол используют хранилища таких производителей, как Tintri, Maxta, NetApp и Nutanix.

Об этом всем можно прочитать в официальном документе "Exchange 2013 Virtualization" на TechNet:

All storage used by an Exchange guest machine for storage of Exchange data must be block-level storage because Exchange 2013 doesn't support the use of network attached storage (NAS) volumes, other than in the SMB 3.0 scenario outlined later in this topic. 

То есть, данные Exchange (почтовые ящики, очереди и т.п.) должны храниться только на блочных хранилищах SCSI или iSCSI (block-level storage), а для файловых хранилищ, кроме SMB 3.0, поддержки нет.

В статье "NFS and Exchange - not a good combination" эксперт по инфраструктуре Microsoft Exchange Тони Рэдмонд раскрывает причину такого явления - дескать, все дело в механизме ESE (Extensible Storage database engine), используемом сервером Exchange. Блочное хранилище на базе протокола SCSI поддерживает обязательный сброс транзакции в случае сбоя, а вот файловое хранилище обеспечивает этот сброс "по мере возможности".

Для тех, кто недоволен ситуацией есть вот такая голосовалка "Support storing exchange data on VMDKs on file shares(nfs/smb)", где можно не только отдать свой голос за поддержку файловых хранилищ, но и пообщаться с экспертами на эту тему.

Роман, а вы что скажете? Когда у Exchange будет поддержка NFS, и не надо будет кастомерам рассказывать об использовании NetApp в блочном режиме?


Таги: Microsoft, Exchange, NFS, VMDK, SCSI, VHD, VMachines, Storage

Как защитить служебные виртуальные модули (Virtual Appliances) в виртуальной инфраструктуре VMware vSphere.


Как многие из вас знают, в виртуальной инфраструктуре VMware vSphere некоторое количество программного обеспечения распространяется в виде виртуальных модулей (Virtual Appliances), представляющих собой готовые виртуальные машины с необходимыми сервисами внутри.

К ним, например, относятся следующие вспомогательные модули от самой VMware:

  • vCenter Server Virtual Appliance 5.5 (VCVA) - главный сервер управления виртуальной инфраструктурой vSphere на базе ОС SUSE Linux.
  • vCenter Orchestrator 5.5 (vCOva) - средство автоматизации операций для виртуальных машин и хост-серверов.
  • vCenter Operations Manager 5.7.1 (vCOPs) - средство комплексного мониторинга и анализа виртуальной среды.
  • vCenter Infrastructure Navigator 2.0 (VIN) - решение для автоматического обнаружения и визуализации компонентов приложений и зависимостей инфраструктуры.
  • vCloud Automation Center Virtual Appliance 6.0 (vCACva) -  средство управления облачной инфраструктурой предприятия (SaaS, PaaS, IaaS) за счет единого решения, построенного поверх VMware vCloud Director.
  • vCenter Management Assistant (vMA) - вынесенная "сервисная консоль" за пределы хост-серверов ESXi в отдельный виртуальный модуль, с которого удобно выполнять консольные команды RCLI (например, мониторинга - resxtop), а также хранить и запускать различные скрипты. 
  • VMware Log Insight - централизованное средство сбора и анализа логов, о нем мы уже писали тут.
  • Horizon Workspace Manager 1.5 (наша статья тут) -  средство автоматизации инфраструктуры виртуальных и физических ПК.
  • vCloud Connector 2.5.1 (vCC) - средство миграции виртуальных машин на платформе VMware vSphere из частного облака предприятия в публичное хостинг-провайдера и обратно.

Все эти модули (а также и модули от сторонних производителей), будучи неотъемлемыми компонентами виртуальной среды, нуждаются в защите. Чтобы облегчить эту задачу пользователям, компания VMware выпустила документ "Hardened Virtual Appliance Operations Guide", в котором на 16 страницах вкратце рассказывают о том, как нужно защищать эти виртуальные модули в следующих контекстах:

  • Root password - поставить нормальный пароль (сменить дефолтный!).
  • Password Expiry - поставить нормальную политику устаревания паролей.
  • Выполнить скрипт повышенной безопасности для параноиков (Dodscript.sh - сделан для Минобороны США). Там же написано про то, как поменять Security Banner (то есть скрин логина в консоль ESXi, на котором вывешено предупреждение об ответственности за несанкционированный доступ).
  • Secure Shell, Administrative Accounts, and Console Access - использовать защищенный доступ к консоли виртуальных модулей.
  • Time Sourcing and Synchronization - применять синхронизацию времени с доверенным источником.
  • Log Forwarding – Syslog-ng and Auditd - перенаправлять собираемые логи на отдельный защищенный сервер.
  • Boot Loader (Grub) Password - поставить пароль на загрузчик, исключающий также загрузку в Single user mode.
  • Отключить сервисы NFS и NIS.

Начинание это, безусловно, является хорошим шагом со стороны VMware в плане обеспечения безопасности виртуальных модулей и инфраструктуры в целом. Но как-то маловато 16 страниц, вы не находите?


Таги: VMware, Virtual Appliance, Security, ESXi, vSphere, Whitepaper

Документы: что такое VMware vSphere Flash Read Cache (vFlash) и официальный FAQ.


Мы уже писали про распределенный кэш на SSD-накопителях локальных дисков серверов ESXi, который имел рабочее название vFlash, а затем превратился в полноценную функцию VMware vSphere Flash Read Cache платформы VMware vSphere 5.5.

Сегодня мы хотим обратить внимание на два интересных документа, которые раскрывают подробности использования этой технологии.

Напомним, что Flash Read Cache позволяет использовать кэширование данных только на чтение для дисков VMDK виртуальных машин, работает она на уровне гипервизора и существенно улучшает производительность виртуальных машин, которые интенсивно используют подсистему ввода-вывода для операций на чтение. Очевидно, что SSD-кэш, который по производительности находится между оперативной памятью и обычными дисками, существенно повышает быстродействие в системах, где периодически наблюдается недостаток ресурсов RAM. Все это дело работает в кластере до 32 хостов ESXi.

Итак, первый документ о том как работает технология Flash Read Cache - "What’s New in VMware vSphere Flash Read Cache":

В этом документе описано, как работает инфраструктура vFlash в рамках виртуальной инфраструктуры vSphere, для каких целей можно использовать данную технологию, требования, а также шаги по установке и настройке этого механизма.

Второй документ - это официальный FAQ VMware по технологии Flash Read Cache - "VMware vSphere Flash Read Cache 1.0 FAQ". Так как она появилась впервые, и не все технические особенности ясны администраторам, в документе даны ответы аж на 67 вопросов.

Интересные факты из этого FAQ:

  • В качестве интерфейсов накопителей поддерживаются SATA, SAS и PCI Express.
  • До 8 устройств vFlash на один хост ESXi и до 4 ТБ емкости на устройство (до 400 ГБ на один VMDK). На один контейнер VFFS (то есть на хост) поддерживается до 32 ТБ.
  • В качестве хранилищ ВМ механизмом поддерживаются тома VMFS/NFS/vRDM (pRDM не поддерживается).
  • Настраивается только через Web Client.
  • При изменении настроек vFlash все кэши для дисков сбрасываются.
  • Thin provisioning не поддерживается технологией vFlash.
  • При миграции виртуальной машины средствами vMotion можно использовать 2 политики: Always migrate the cache contents (copy) - кэш копируется вместе с ВМ и Do not migrate the cache contents (drop) - кэш очищается. Техники VMware HA / SVMotion также полностью поддерживается.
  • Механизм VMware DRS при миграции не затрагивает машины с включенным Virtual Flash Read Cache.
  • Операции, которые очищают кэш ВМ: suspend, изменение конфигурации, удаление, перезапуск машины или хоста, восстановление из снапшота. Операции, которые не очищают кэш: снятие снапшота, клонирование, миграция vMotion, fast suspend/resume.
  • В vCenter есть 3 специальных метрики для мониторинга vFlash (IOPS, Latency и объем кэша).
  • Кэшем vFlash можно управлять через ESX CLI: get –m <module> -c <cache file name>
  • Файлы кэша vFlash находятся в следующей директории на хосте: /vmfs/volumes/vffs/vflash

Информацию об официально поддерживаемых механизмом VMware vSphere Flash Read Cache устройствах можно найти по этой ссылке: http://www.vmware.com/resources/compatibility/search.php?deviceCategory=vfrc


Таги: VMware, vSphere, vFlash, ESXi, Storage, Performance, Whitepaper

Критерии выбора СХД под виртуализацию. Москва


Невозможно ощутить все преимущества виртуализации, не имея системы хранения данных. В рамках семинара "Критерии выбора СХД под виртуализацию" на примере СХД NetApp специалисты компании ИТ-ГРАД расскажут про основные критерии, на которые стоит обратить внимание при выборе системы хранения данных для построения виртуальной инфраструктуры.
Таги:

Анонсы VMworld Europe 2013 - новая версия VMware vCenter Operations Management Suite 5.8


Как и ожидалось, начали поступать интересные анонсы с проходящей сейчас в Барселоне конференции VMworld Europe 2013. Главной новостью, конечно же, стал анонс новой версии пакета VMware vCenter Operations Management Suite 5.8, который пришел на смену версии 5.7.

Напомним, что продукты семейства VMware vCenter Operations (VCOPS) упрощают и автоматизируют управление виртуальной средой с помощью средств анализа для сбора данных и визуализации, которые необходимы для соблюдения уровней обслуживания и обеспечения эксплуатационной эффективности в динамичных гибридных облачных средах (в основном крупных компаний и сервис-провайдеров).

Ранее продукт VMware vCO Management Suite был несколько перепакован, и теперь он включает в себя следующие компоненты (в максимальной комплектации Enterprise):

  • VMware vCenter Operations Manager - средство комплексной визуализации производительности, ресурсов и работоспособности инфраструктуры, операционных систем и приложений.
  • VMware vCenter Configuration Manager - ПО для автоматизации управления конфигурацией виртуальных и физических серверов и непрерывной оценки уровня соответствия ИТ-политикам, нормативным требованиям и стандартам в области безопасности.
  • VMware vCenter Hyperic - средства мониторинга физических аппаратных ресурсов, операционных систем, баз данных и приложений.
  • VMware vCenter Infrastructure Navigator - решение для автоматического обнаружения и визуализации компонентов приложений и зависимостей инфраструктуры.
  • VMware vCenter Chargeback Manager - средство учета и анализа расходов для виртуальной инфраструктуры, а также создания отчетов.

В версии vCO Management Suite 5.8 появились следующие новые возможности:

Monitor business critical applications

Теперь средства мониторинга vCO поддерживают Microsoft Exchange Server и SQL Server, что существенно упращает управление инфраструктурой приложений Microsoft средствами vCenter Operations Management Packs. Теперь для этих и других приложений можно будет отслеживать специфические метрики производительности, а также взаимосвязи между компонентами.

Например, отслеживается состояние компонентов MSSQL Agent, MSSQL Analysis, MSSQL Report и баз данных MSSQL. Отметим, что Management Packs будут доступны только для самого дорогого издания Enterprise.

Monitor fiber channel storage

Теперь vCO дает возможность отслеживать статус хранилищ на уровне отдельного HBA-адаптера, всей фабрики или дискового массива. Основная задача такого мониторинга - ответ на вопрос, почему подсистема хранения работает медленно. На данный момент поддерживаются только FC-хранилища, но обещается и поддержка iSCSI и NFS.

В том числе, мониторятся различные виды ошибок (например, CRC), latency и прочие характерные для хранилищ параметры. Infrastructure management packs будут частью изданий vCenter Operations Management Suite Advanced и Enterprise.

Monitor Hyper-v servers

В этой версии поддерживается мониторинг инфраструктуры не только VMware vSphere, но и кластеров Microsoft Hyper-V, то есть гетерогенной инфраструктуры.

Для этого агент Hyperic устанавливается на хост-серверы Hyper-V. Можно также использовать пакет SCOM management pack для vCenter Operations (для тех, кто мониторит инфраструктуру через Microsoft SCOM).

Для Hyper-V можно мониторить следующие вещи:

  • Cluster, Host, VM Utilization – топ 25 машин по CPU, Memory, Disk IOPS, Network и т.п.
  • Datastore Capacity and Performance – использованное дисковое пространство, Latency, число команд в секунду и т.п.
  • Load Heatmaps – CPU, Memory, Disk, Network.

Monitor Amazon AWS services

В целях поддержки гибридных облачных инфраструктур в VCOPS 5.8 есть мониторинг инфраструктуры Amazon, включая  EC2, Elastic Block Store, Elastic Map Reduce, Elastic Load Balancing и Auto Scaling Group средствами пакета AWS management pack. Данный MP работает совместно с Cloudwatch service (по REST API), предоставляемым Amazon.

vCOPS предоставляет метрики на VM utilization dashboard, включая статистики по использованию CPU, памяти, диска и прочего для служб Amazon AWS.

Ну и сравнение изданий vCenter Operations Management Suite 5.8, которые в целом остались прежними:

Доступен VCOPS 5.8 будет в середине декабря 2013 года.

В следующих новостях мы расскажем об анонсах следующих продуктов, также сделанных на VMworld 2013 в Европе:

  • vCloud Automation Center 6.0
  • vCenter Log Insight 1.5
  • IT Business Management Suite 8.0
  • VMware Horizon View 5.3
  • VMware Horizon Mirage 4.3

Не отключайтесь!


Таги: VMware, VCOPS, Update, Operations, vCO, Navigator, vSphere, vCenter, Monitoring

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Kubernetes VMachines Enterprise Offtopic Broadcom Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VKS VCF Memory VMConAWS vSAN Private AI VMmark Operations Certification NVMe AI vDefend VCDX Explore Tanzu Workstation Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint Tiering Upgrade VCAP Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge