Новости Статьи VMware Veeam StarWind vStack Microsoft Nakivo Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6260 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Все презентации VMware Explore 2024 US и Europe доступны для скачивания в PDF

Ближайшие вебинары StarWind Software в декабре.


Компания StarWind, поставщик ПО номер 1 для создания отказоустойчивых кластеров хранилищ в инфраструктурах VMware vSphere и Microsoft Hyper-V (о возможностях продукта - тут), в начале декбря проведет три интересных вебинара:

Building The Highly Available Hyper-V Cluster on Free Microsoft Hyper-V Server - Practice

На этом вебинаре вы узнаете о том, как построить недорогой и эффективный кластер Failover Cluster на базе хранилищ StarWind, а также как можно управлять этим кластером с помощью средств компании 5nine.

Бонус: участники вебинара получают шанс выиграть NFR-лицензию StarWind на 6 месяцев использования.

Вебинар пройдет 3 декабря в 19-00 по московскому времени. РЕГИСТРАЦИЯ.


How to build Microsoft Scale-Out File Server without SAS JBODs

На этом вебинаре Макс Коломейцев, менеджер по продукту Virtual SAN, расскажет о том, как можно построить масштабируемый файл-сервер без применения массивов SAS JBOD, используя возможности протокола SMB 3.0.

Вебинар пройдет 9 декабря в 20-00 по московскому времени. РЕГИСТРАЦИЯ.


Fighting the "I/O Blender" Effect in Virtual Environments

В рамках данного вебинара будет рассказано о том, каким образом можно побороть эффект I/O Blender в виртуальных окружениях (он заключается в том, что запросы ввода-вывода от виртуальных машин "смешиваются" на хост сервере перед направлением к хранилищу). Должно быть очень интересно.

Бонус: участники вебинара получают шанс выиграть NFR-лицензию StarWind на 6 месяцев использования.

Вебинар пройдет 11 декабря в 22-00 по московскому времени. РЕГИСТРАЦИЯ.


Таги: StarWind, Webinar, Storage, iSCSI

Почему резервное копирование одной виртуальной машины VMware vSphere на хранилище Virtual SAN делается медленно?


Многие пользователи VMware Virtual SAN (VSAN), когда проводят тест бэкапа одной виртуальной машины, замечают, что время резервного копирования этой ВМ существенно больше, чем таковое для машины, размещенной на дисковом массиве.

Дункан в своем блоге подробно разбирает эту проблему. Тут дело вот в чем - когда вы используете дисковый массив, то виртуальная машина "размазывается" по дискам RAID-группы, что позволяет читать одновременно с нескольких дисков. Это дает хорошую производительность операции резервного копирования для одной машины.

Кластер же VSAN работает немного по-другому. Это объектное хранилище, в котором виртуальный диск ВМ хранится на одном хосте и его реплика существует на втором. Кроме этого, есть кэш на SSD-диске (но его еще нужно "прогреть"). То есть выглядит все это следующим образом:

Соответственно, при бэкапе одной виртуальной машины данные читаются только с двух HDD-дисков, а не с нескольких как в традиционной архитектуре дисковых массивов, при этом сам кластер VSAN может состоять из нескольких хостов (до 32 узлов). То есть, это архитектурное ограничение.

Однако если мы будем делать одновременный бэкап нескольких виртуальных машин с хранилища Virtual SAN время этой операции уже будет сравнимо с дисковым массивом, поскольку будет задействовано сразу несколько дисков на каждом из хостов, плюс хорошо прогреется кэш. Поэтому проведение такого теста (ведь он ближе к реальным условиям) и было бы более показательным при сравнении Virtual SAN и традиционных хранилищ.

То же самое относится и к VDI-инфраструктуре на базе VSAN - многие пользователи отмечают, что первая фаза операции Recompose (когда создается реплика - полный клон ВМ) отрабатывает весьма медленно. Однако если вы делаете много таких операций - кэш прогревается, и одновременное создание нескольких клонов начинает работать заметно быстрее в расчете на одну машину.


Таги: VMware, Virtual SAN, Backup, VSAN, Performance, Storage, vSphere, ESXi

VMware vSphere Replication Calculator - расчет необходимого канала под репликацию.


На сайте компании VMware есть полезная утилита vSphere Replication Calculator, которая позволяет рассчитать целевые параметры репликации в зависимости от следующих факторов:

  • Наличие у вас Network-based storage
  • Число виртуальных машин и объем виртуальных дисков - как следствие размер реплицируемых данных (Size of dataset)
  • Интенсивность изменения данных (Data change rate)
  • Требования к контрольной точке восстановления (Recovery point objective, RPO)
  • Имеющийся канал на резервную площадку (Link speed)

В качестве результата расчетов можно выбрать одно из трех представлений (все зависит от значения поля "Are you trying to solve..."):

  • Необходимая минимальная пропускная способность сети на резервную площадку (recommended minimum throughput) с приемлемой latency (настраивается как входной параметр).
  • Рекомендуемое минимальное время RPO в качестве политики, выражающей требования к контрольной точке восстановления.
  • Максимальное число реплицируемых виртуальных машин при условии заданного объема изменяющихся данных.

Получившийся отчет можно сохранить в PDF.


Таги: VMware, Replication, vSphere, VMachines, Storage

Ноябрьские вебинары StarWind - еще больше информации о продукте Virtual SAN и программных хранилищах.


Компания StarWind, поставщик ПО номер 1 для создания отказоустойчивых кластеров хранилищ в инфраструктурах VMware vSphere и Microsoft Hyper-V (о возможностях продукта - тут), спешит анонсировать свои ноябрьские вебинары.

Занесите даты себе в календарь:

6 ноября в 17-00 по московскому времени

Бесплатный вебинар "How to Reduce Disaster Recovery Expenses up to 50% - DR & BC Best Practices for Virtual Environments".

На вебинаре будут рассмотрены следующие темы:

  • Бизнес-потребности в решениях для непрерывности бизнеса и восстановления после сбоев (BC/DR).
  • Чем решения BC/DR отличаются от простой аппаратной отказоустойчивости.
  • Стратегии для внедрения BC/DR на основе вида приложения и целевого уровня сервиса (Service Level Objectives).
  • Выбор между решениями для восстановления средствами дискового массива и средствами гипервизора.
  • Выбор между решениями для восстановления на уровне ВМ и на уровне LUN.
  • Технические решения для отказоустойчивости виртуальных серверов, включая Microsoft Hyper-V, VMware vSphere и платформы с открытым исходным кодом.
  • Сторонние решения для восстановления виртуальных сред.

РЕГИСТРАЦИЯ


11 ноября в 17-00 по московскому времени

Бесплатный вебинар "Building a Highly Available Hyper-V Cluster Using Free Microsoft Hyper-V Server"

На вебинаре будут рассмотрены следующие темы:

  • Достоинства кластера высокой доступности Hyper-V failover cluster
  • Упрощение управления кластером и виртуальными машинами средствами 5nine Manager for Hyper-V
  • Сокращение затрат, увеличение надежности и минимизация оборудования за счет StarWind Virtual SAN
  • Удовлетворение потребностей виртуальной среды за счет расширения и масштабирования решения

РЕГИСТРАЦИЯ


16 ноября в 23-00 по московскому времени

Бесплатный вебинар "Reduce Disaster Recovery & Business Continuity Expenses with Windows Server Clustering and Geo-Clustering"

На вебинаре будут рассмотрены следующие темы:

  • Требования технологии Windows Failover Clustering.
  • Рекомендации по кворумным дискам, сетевому окружению и хранилищам.
  • Геокластеризация для восстановления после сбоев.
  • Использование StarWind Virtual SAN для многоузловых и просто масштабируемых кластеров

РЕГИСТРАЦИЯ


Таги: StarWind, Webinars, Storage, iSCSI, Virtual SAN

Новый документ "Windows Server Technical Preview Step-by-Step Guide Storage Quality of Service".


На конференции TechEd Europe 2014 компания Microsoft не только сделала несколько интересных анонсов, касающихся облачной платформы Azure, но и выпустила занимательный документ "Windows Server Technical Preview Step-by-Step Guide Storage Quality of Service".

Напомним, что в новой версии платформы Windows Server vNext от компании Microsoft появится механизм Storage Quality of Service (QoS) - возможность динамического отслеживания производительности хранилищ и горячая миграция виртуальных машин при превышении этими хранилищами пороговых значений (IOPS). Все это делается на базе заранее настроенных политик. По-сути, это аналог механизма Storage DRS от компании VMware в продукте vSphere.

В этом документе от Microsoft на 16 страницах объясняется работа механизма Storage QoS и как его использовать для мониторинга производительности хранилищ и выравнивания нагрузки (забавное понятие "Noisy neighbor mitigation").

Содержание документа:

  • Summary
  • Goals & Behaviors
  • Background
  • Scenario 1: Enabling Storage QoS and basic performance monitoring
  • Scenario 2: Creating and monitoring with policies
  • Known Issues

Таги: Microsoft, vNext, Hyper-V, Storage, QoS, Performance

Небольшой гайд по использованию VMware Virtual Flash в vSphere 5.5.


Некоторое время назад мы писали о технологии VMware vFlash (она же Virtual Flash), которая позволяет использовать высокопроизводительные накопители SSD (вот тут - о производительности) для решения двух важных задач:

  • Предоставление виртуальным машинам дополнительного места, в которое будут свопиться страницы памяти в случае недостатка ресурсов на хосте (это намного более производительно, чем свопить на обычный HDD-диск). Эта техника называется Virtual Flash Host Swap и пришла на смену механизму Swap to SSD.
  • Прозрачное встраивание в поток ввода-вывода на хосте между виртуальными машинами и хранилищами, что позволяет существенно ускорить операции чтения данных виртуальных дисков. Называется это VMware Flash Read Cache (vFRC).

Ниже мы вкратце расскажем о настройке этих двух механизмов через VMware vSphere Web Client (в обычном C#-клиенте этого, к сожалению, нет). Если что, более подробно о технике vFRC можно почитать по этой ссылке.

Итак, в vSphere Web Client переходим на вкладку "Manage" для нужного хоста, далее в разделе "Settings" выбираем пункт "Virtual Flash Resource Management". Это кэш, который мы добавляем для того, чтобы в случае нехватки места, его могли использовать виртуальные машины, чтобы не свопить данные на медленный магнитный диск, кроме того он же будет использоваться для целей vFRC.

Нажимаем Add Capacity:

Выбираем диски, которые мы будем использовать как Host Swap и нажимаем "Ок" (все данные на них будут стерты):

Всего под нужды Virtual Flash может быть выделено до 8 дисков суммарной емкостью до 32 ТБ. Видим, что ресурс добавлен как Virtual Flash Resource (его емкость отдельно учитывается для vFRC и Host Cache):

Настройка Virtual Flash Host Swap

Первым делом рекомендуется настроить именно этот кэш, а остаток уже распределять по виртуальным машинам для vFRC.

Выбираем пункт "Virtual Flash Host Swap Cache Configuration" в левом меню, а далее в правой части мы нажимаем кнопку "Edit":

Указываем необходимый объем, который планируется использовать, и нажимаем "Ок":

После того, как мы настроили нужное значение - в случае недостатка ресурсов на хосте виртуальные машины будут использовать высокоскоростные диски SDD для своих нужд внутри гостевой ОС (файлы подкачки прочее).

Настройка VMware Flash Read Cache (vFRC)

Напомним, что это кэш только на чтение данных, операции записи будут производиться на диск, минуя флэш-накопители. Соответственно, такой кэш улучшает производительность только операций чтения.

Сам кэш vFRC можно настроить на уровне отдельных виртуальных машин на хосте VMware ESXi, а также на уровне отдельных виртуальных дисков VMDK.

Чтобы выставить использование нужного объема vFRC для отдельной виртуальной машины, нужно выбрать пункт "Edit Settings" из контекстного меню ВМ и на вкладке "Virtual Hardware" в разделе "Virtual Flash Read Cache" установить нужное значение для соответствующего виртуального диска:

Если этого пункта у вас нет, то значит у вас версия виртуального "железа" (Virtual Machine Hardware) ниже, чем 10, и ее нужно обновить.

По ссылке "Advanced" можно настроить размер блока для кэша (значение Reservation, установленное тут, обновит значение на предыдущем скрине):

Чтобы понять, какие значения SSD-кэша можно и нужно выставлять для виртуальных машин, рекомендуется почитать документ "Performance of vSphere Flash Read Cache in VMware vSphere 5.5".

 


Таги: VMware, Cache, vFRC, vSphere, Performance, VMachines, Storage, SSD

Новая функция Backup I/O Control в Veeam Backup & Replication v8 как средство соблюдения SLA для приложений.


Некоторые из вас знают, что сейчас в Лас-Вегасе проходит конференция VeeamOn 2014 - первое всемирное офлайн-событие компании Veeam Software, производящей продукт для резервного копирования виртуальных машин номер один на рынке - Veeam Backup and Replication.

Недавно мы писали о новой версии Veeam B&R v8, а на конференции специалисты Veeam рассказали множество интересных подробностей о новых фичах. Одна из таких функций - Backup I/O Control - позволяет ограничивать производительность процедуры резервного копирования на отдельном хранилище.

Veeam очень много сделала в технологическом плане, чтобы бэкапы с хранилища виртуальных машин снимались как можно быстрее - это и распараллеливание задач, и интеллектуальный выбор бэкап-прокси, и многое другое. В итоге бэкапы стали сниматься очень быстро, даже слишком быстро.

Для обычных компаний, системы которых не работают по ночам - это очень хорошо, бэкап отработал ночью, а днем пользователи спокойно работают, а вот для тех компаний, чьи серверы полностью загружены в режиме 24/7, нагрузка хранилищ задачами резервного копирования может оказаться существенной и негативно сказаться на производительности продуктивных систем.

Для этого в Veeam Backup and Replication есть ограничение числа задач, которые могут исполняться одновременно на бэкап-прокси:

Однако это совсем неудобно - непонятно, как и на что это влияет при выполнении операций резервного копирования, потому и была придумана возможность Backup I/O Control, которая ограничивает процесс РК таким образом, чтобы соблюсти требования по производительности хранилищ для нормальной работы виртуальных машин и приложений.

А что является главным мерилом производительности (ну, одним из главных)? Это задержка при операциях чтения-записи, то есть latency. Так вот функция Backup I/O Control в Veeam Backup & Replication v8 позволяет вам указать требуемое latency при превышении которого задача резервного копирования будет "урезаться" и создавать меньшую нагрузку на хранилище:

Если мы укажем данные значения, то при достижении Latency 20 мс новые задачи для данного хранилища перестанут назначаться, а вот если уже вырастет до 30 мс, то и вовсе нагрузка текущих задач будет уменьшена, чтобы соблюсти требования по SLA.

Пример как это работает. Для текущей нагрузки операций резервного копирования включаем функцию Backup I/O Control и нагрузка РК снижается так, чтобы средний уровень latency не превышал 20 мс (зеленая линия). Отключаем эту фичу - и видим, что задержка снова начинает расти, то есть бэкап разгоняется, создавая большую нагрузку.

Конечно же, включение функции Backup I/O Control увеличивает требования к окну резервного копирования, зато позволяет на абсолютно понятном уровне установить устраивающие значения для хранилищ, превышать которые задачи Veeam B&R не будут. Очень удобно.

Для версии Veeam Backup and Replication Enterprise такие настройки можно установить только глобально, а вот в версии Enterprise Plus это уже можно сделать для каждого датастора в отдельности:

Продолжаем следить за новостями с VeeamOn. Выпуск Veeam Backup & Replication v8 ожидается в четвертом квартале этого года, то есть вот-вот.


Таги: Veeam, Backup, Update, Storage, Performance, Enterprise

Чем StarWind Virtual SAN лучше VMware Virtual SAN.


Не секрет, что на рынке для создания отказоустойчивых программных хранилищ для виртуальных машин есть два лидера - это StarWind Virtual SAN (о котором мы часто пишем) и VMware Virtual SAN (продукт компании VMware для своей платформы vSphere).

В таблице ниже мы решили показать, почему StarWind Virtual SAN во многом лучше VMware Virtual SAN, рассмотрев значимые для администраторов технические критерии выбора продукта. Конечно же, это не все критерии и по каким-то параметрам Virtual SAN от VMware будет работать лучше, кроме того продукты представляют собой различные архитектуры построения отказоустойчивых кластеров, но тем не менее в каком-то ракурсе сравнить их все-таки можно.

Итак:

Критерий сравнения StarWind Virtual SAN VMware Virtual SAN
Минимальное число узлов кластера 2 3
Максимальное число узлов Не ограничено (разные кластеры) 32 (один кластер)
Максимальная емкость кластеров Не ограничена (разные кластеры) 148 ТБ (один кластер)
Наличие Flash-накопителей (SSD) Не требуется Обязательно
Тип RAID Любой Только 5, 10
Наличие коммутатора 10G Не обязательно Обязательно
Технология дедупликации Встроенная (in-line) Отсутствует
Поддержка создания кластеров хранилищ для ВМ Hyper-V Да Нет
Кэш В памяти (WB or WT) или Flash cache Только Flash cache

Более подробно о новых возможностях восьмой версии StarWind Virtual SAN можно узнать вот тут, а тут доступен документ со сравнением платного и бесплатного изданий продукта.


Таги: StarWind, Virtual SAN, Сравнение, VMware, vSphere, Storage, HA, iSCSI

Что такое vSphere APIs for IO Filtering (VAIO) в VMware vSphere 6, и почему это важно для пользователей.


Не так давно мы писали о новых возможностях лидирующей на рынке платформы виртуализации VMware vSphere 6, которая на данный момент доступна в публичной бета-версии.

Одной из новых возможностей был заявлен механизм vSphere APIs for IO Filtering (VAIO - как ноутбуки от Sony), который позволяет получать прямой доступ к потоку ввода-вывода (I/O Stream) гостевой ОС виртуальной машины. Несмотря на то, что об этой штуке писали достаточно мало, механизм VAIO в будущем будет способствовать созданию множества партнерских продуктов для решения самых разнообразных задач. VAIO основан на механике Storage Policy Based Management (SPBM), которая предназначения для управления хранением виртуальных машин.

Техническая реализация данного механизмв подразумевает использование драйвера VAIO (filter driver), который устанавливается на хосте VMware ESXi как пакет VIB и не требует установки никакого специального ПО в гостевой ОС виртуальной машины. Работает он на уровне VMDK-диска отдельной ВМ и позволяет не только получать данные из потока ввода-вывода, но и изменять его при течении данных в ту или другую сторону.

Это открывает возможности для применения VMware VAIO при решении следующих типов задач:

  • Encryption – стороннее ПО за счет использования механизма VAIO может на лету шифровать и расшифровывать поток данных от виртуальной машины. Таким образом на хранилище будут помещаться уже шифрованные данные. Гранулярность работы VAIO позволяет обслуживать данные идущие даже не от всей виртуальной машины, а только от одного приложения.
  • De-duplication - этот механизм уже использует решение VMware Virtual SAN. В реальном времени можно дедуплицировать данные, проходящие через драйвер и в таком виде уже класть на хранилище в целях экономии дискового пространства. Теперь это станет доступно и партнерам VMware.
  • Tiering - данные различной степени важности, критичности или классифицированные по другим критериям теперь можно класть на хранилища с разными характеристиками производительности и доступности (ярусы). Механизм VAIO тут поможет проанализировать характер данных и определить конечное их место назначения.
  • Analytics - теперь можно анализировать непосредственно поток данных от конкретной виртуальной машины и на основе этого строить множество различных решений, включая решения по кэшированию (например, такой продукт как CahceBox можно будет напрямую подключить к гипервизору). Затем можно, например, искать в трафике данные определенных приложений, либо, например, использовать механизм write-back кэширования.

На первом этапе запуска технологии VAIO компания VMware решила остановиться на двух путях ее имплементации:

1. Возможности кэширования данных на SSD-накопителях (write-back кэширование для операций записи). Дизайн-документ для API тут делала компания SanDisk, которая первой будет использовать VAIO в своих продуктах. Вот их презентация:

А вот технология write-back кэширования на стороне сервера с использованием механизма VAIO:

2. Возможности высокопроизводительной репликации. Реализация данного аспекта VAIO позволит получать прямой доступ к потоку ввода-вывода и сразу же передавать его на другой хост, не прибегая к дополнительным механизмам, которые сегодня используются для реализации техник репликации. На данный момент заявлено, что такой тип репликации будет поддерживать ПО EMC RecoverPoint, команда которого принимала участие в разработке техники VAIO.

Однако несмотря на все плюсы технологии vSphere APIs for IO Filtering, в ней есть и негативные стороны:

  • Во-первых, это вопрос надежности. Так как между виртуальной машиной и хранилищем есть дополнительное звено, которое может рухнуть, понижается и совокупная надежность платформы виртуализации.
  • Во-вторых, это вопрос производительности. Прослушка трафика посредством VAIO неизбежно создает нагрузку на аппаратные ресурсы хоста ESXi.
  • В-третьих, это вопрос безопасности. Представим, что я написал софт, который прозрачно шифрует и расшифровывает трафик отдельной виртуальной машины на хосте ESXi, после чего внедрил его в инфраструктуру предприятия, где все это произошло незаметно для пользователей и администраторов. Затем я просто убираю это ПО из гипервизора (например, при увольнении), после чего данные на хранилищах превращаются в тыкву, а компания сталкивается с серьезной проблемой.

В целом же, подход VMware в данном вопросе очень радует - она открывает партнерам возможности разработки собственных продуктов для решения задач пользователей, а значит предоставляет и неплохую возможность заработать.

Первые реализации механизма vSphere APIs for IO Filtering мы должны увидеть уже в первой половине 2015 года, когда выйдет обновленная версия платформы VMware vSphere 6.


Таги: VMware, VAIO, API, Storage, Partners, VMachines

Производительность Microsoft Exchange Server в кластере VMware Virtual SAN.


Компания VMware выпустила интересный документ "Microsoft Exchange Server Performance on VMware Virtual SAN", в котором рассматривается случай тестирования нагрузки виртуальных серверов Microsoft Exchange размещенных в кластере Virtual SAN и работающих на серверах VMware ESXi.

В VMware использовали конфигурацию кластера VSAN из пяти узлов (Dell PowerEdge R720xd с процессорами Intel Xeon Processors E5-2650 и 128 ГБ памяти в каждом), на одном из узлов была машина с контроллером Active Directory, а для генерации нагрузки использовался отдельный клиент:

Детальная конфигурация стенда:

В качестве программной платформы использовался Exchange Server 2010, установленный в ОС Windows Server 2008 R2. На каждом хосте было размещено две виртуальных машины с Exchange - роли Mailbox и HUB.

С помощью Exchange Load Generator была сгенерирована нагрузка пользователей отсылающих и получающих письма. Для теста взяли 12 000, 16 000 и 20 000 пользователей с профилем нагрузки 150 отправляемых писем в день. Каждый почтовый ящик был инициализирован в размере 100 МБ.

При тестах Sendmail на указанном количестве пользователей выведен средний результат выполнения операций (Avg) и результат, уложившийся в 95 процентов опытов (95% latency).

Поскольку принято считать, что Latency до 500 миллисекунд для Exchange считается нормальной при отправке писем - то результаты тестов показывают, что такая конфигурация вполне жизнеспособна на десятках тысяч пользователей.

Больше подробностей можно узнать непосредственно из документа.


Таги: VMware, Virtual SAN, Exchange, Microsoft, Storage, Performance

Новый документ по решению проблем кластеров хранилищ - VMware Virtual SAN 5.5 Validation Guide.


Компания VMware выпустила интересный и полезный документ в виде таблицы - Virtual SAN 5.5 Validation Guide. Он позволяет решать проблемы, возникшие в кластерах хранилищ VSAN, как на стадии пре-инсталляции, так и после развертывания решения.

Изначально эту таблицу использовали сотрудники технической поддержки VMware для решения проблем, возникающих в среде Virtual SAN, но потом его было решено выпустить публично в целях стимуляции самоподдержки пользователей.

Документ составлен техническими специалистами VMware для своих нужд, поэтому там так предельно много конкретики, что очень полезно администраторам VMware vSphere в повседневной работе.

В первой части рассматриваются засады, которые может получить пользователь при развертывании кластера Virtual SAN, в во второй уже приводятся ситуации, которые могут возникнуть после инсталляции и в процессе эксплуатации решения.

При этом (где это возможно) приводятся шаги vCenter Web Client или сценарии CLI (RVC, ESXCLI, PowerCLI), которые позволят идентифицировать и ликвидировать проблему. Документ живет и постоянно обновляется, поэтому можно периодически заглядывать - не обновилась ли его версия (сейчас это 2.1).

Также очень рекомендуют в целях траблшутинга обращаться к инструменту vSphere Ruby Console (RVC), который позволяет автоматизировать множество задач. Полезные ссылки:


Таги: VMware, Virtual SAN, VSAN, Troubleshooting, Storage

Приглашаем на вебинар "New Microsoft Storage Best Practices for Hyper-V & SQL Server: SMB 3.0 and Scale-Out File Servers".


Компания StarWind Software, поставщик номер 1 решений для создания отказоустойчивых программных хранилищ, приглашает на бесплатный вебинар "New Microsoft Storage Best Practices for Hyper-V & SQL Server: SMB 3.0 and Scale-Out File Servers".

Самое время отвлечься от первых осенних будней и послушать интересных людей (Максу можно задавать вопросы по-русски):

Вебинар пройдет сегодня, 2 сентября, в 20-00 по московскому времени. Регистрируйтесь!

На вебинаре будет обсуждаться тема создания масштабируемого SoFS-кластера хранилищ для виртуальных машин на основе технологии SMB 3.0, которая появилась в Windows Server 2012 R2.

Кстати, будет и раздача слонов: случайным образом будут выбраны 3 участника вебинара, которые получат карточки Старбакса на 20 долларов, а также годовую подписку на журнал Wired.

Скачать пробную версию StarWind Virtual SAN можно по этой ссылке. О возможностях этого продукта мы писали вот тут. Кроме того, есть бесплатная версия этого продукта, скачать которую можно здесь.


Таги: StarWind, Storage, Windows, Server, Webinar

VMware выпустила Virtual SAN Sizing Tool для сайзинга инфраструктуры хранилищ на базе серверов ESXi.


На днях компания VMware выпустила долгожданный онлайн-сервис Virtual SAN Sizing Tool, который позволяет оценить необходимые аппаратные мощности, требующиеся для поддержания инфраструктуры хранилищ VSAN на базе локальных дисков серверов VMware ESXi.

В качестве исходных данных утилиты принимается конфигурация типовой виртуальной машины:

а также типовая аппаратная конфигурация хост-сервера ESXi:

Для виртуальных машин вам могут показаться непонятными параметры "Number of failures to tolerate" и "Number of disk stripes per object" - о них мы писали вот в этой статье.

В качестве результата расчетов будет выведена следующая информация:

  • Число хостов заданной конфигурации, необходимых для поддержания инфраструктуры VSAN.
  • Размер SSD-диска для дисковой группы HDD на хосте.
  • Максимумы по числу компонентов в кластере (машины, диски).
  • Полезная емкость кластера (зависит также от параметра FTT).
  • Емкость кластера по оперативной памяти.

Кроме того, дается брейкдаун по использованию дисковых емкостей, а также объем оперативной памяти под нужды Virtual SAN на хостах:

При расчетах используются следующие допущения:

  • Все хосты кластера имеют одинаковый аппаратный профиль, включая число HDD и SSD-дисков, объем памяти и количество ядер CPU.
  • Предполагается, что у всех виртуальных машин одинаковые требования к хранилищу: как по дисковой емкости и числу дисков, так и по нагрузке на СХД.
  • Предполагается, что у всех виртуальных машин одинаковая VSAN Policy, то есть параметры FTT и disk stripes per object.

Никаких кнопок для начала расчета нажимать не нужно - данные формируются "на лету". Приступить к работе с VMware Virtual SAN Sizing Tool можно по этой ссылке.


Таги: VMware, Virtual SAN, Sizing, VSAN, Storage, VMachines

Постетите стенд StarWind Software на конференции VMware VMworld 2014.


Если вы хотите узнать кое-что интересное о продуктах компании StarWind - поставщика номер 1 в сфере программных решений для создания отказоустойчивых хранилищ, приходите на стенд номер 401 на конференции VMworld 2014, которая проходит с 24 по 28 августа в Сан-Франциско.

26 и 27 августа основатель компании StorageIO, Грег Шульц, проведет 4 живых мини-сессии, где расскажет о тех проблемах, с которыми сталкивается малый средний бизнес при построении серверной инфраструктуры и инфраструктуры хранилищ. Ну и, конечно же, о том, как решать эти проблемы.

Вот расписание сессий Грега:

Как бонус вы получаете шанс выиграть книгу Грега с его подписью и несколько переносных SSD-дисков.

Если будете на VMworld, то РЕГИСТРИРУЙТЕСЬ обязательно!


Таги: VMware, VMworld, StarWind, SMB, Storage

Обновился VMware I/O Analyzer на VMware Labs - новые возможности.


Почти три года назад мы писали про средство VMware I/O Analyzer, предназначенное для генерации нагрузки и анализа статистики ввода-вывода хостов VMware ESXi, доступное на сайте проекта VMware Labs. Не так давно вышло обновление этого средства, которое, как оказалось, живет и развивается.

VMware I/O Analyzer поставляется в виде виртуального модуля (готовой ВМ), предоставляющего администраторам следующие возможности:

  • Интегрированный фрейворк для тестирования производительности хранилищ средствами генераторов нагрузки.
  • Готовый к развертыванию виртуальный модуль (управляющая ВМ и "воркеры" - генераторы нагрузки).
  • Прост в настройке и возможность исполнения тестов на одном или нескольких хостах ESX/ESXi.
  • Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС.
  • Возможность экспорта данных для последующего анализа.
  • Средства "повторения" нагрузки на хранилища путем ее воспроизведения из трейса ввода-вывода.
  • Возможность загрузки трейсов ввода-вывода для автоматического извлечения необходимых метрик.
  • Графическая визуализация метрик и результатов анализа производительности.

В обновленном VMware I/O Analyzer 1.6.x появились следующие возможности:

  • Улучшенный планировщик заданий ввода-вывода.
  • Сам виртуальный модуль теперь на платформе SLES 64-bit, а сервер на Tomcat 6.
  • Экспериментальная поддержка статистик клиента NFS.
  • Возможность использования непостоянной (non-persistent) конфигурации (без сохранения настроек).
  • Сама ВМ с I/O Analyzer теперь версии 7, что позволяет запускать и использовать ее в ESX/ESXi 4.x.
  • Улучшения на бэкэнде, позволяющие поддерживать до 240 и более генераторов нагрузки.

На самом деле с 2011 года много что изменилось в этом продукте, поэтому ознакомьтесь с юзер-гайдом, в котором есть история добавления фичей по версиям.

Скачать VMware I/O Analyzer можно по этой ссылке. Очень хорошо, что подобные утилиты не ограничиваются одним релизом, а развиваются и обрастают функционалом.


Таги: VMware, Storage, Performance, Analyzer, vSphere, ESXi, VMachines, Virtual Appliance

Апгрейд VMFS-3 на VMFS-5, почему это плохо, и как найти такие тома.


Как вы знаете, автор этого сайта придерживается правила "лучше переставлять, чем обновлять" (когда речь идет о мажорных версиях продукта - см., например, вот тут и тут).

В VMware vSphere 5.0 компания VMware обновила свою кластерную файловую систему до версии VMFS 5. При этом в vSphere 5.x тома VMFS-3 поддерживаются, а также доступен апгрейд с третьей версии на пятую (напомним, что в пятой версии появилась поддержка дисков в 64 ТБ). Более подробная информация об апгрейде VMFS приведена в документе "VMware vSphere VMFS-5 Upgrade Considerations".

Так вот, апгрейженный том VMFS-5 имеет ограниченную функциональность в отличие от созданного заново тома, а именно:

  • Апгрейженный том продолжает использовать исходный размер блока (в новой версии VMFS 5.x размер блока унифицирован - 1 МБ). Это иногда может привести к чрезмерному потреблению места на диске (если много мелких файлов), но что самое неприятное - к падению производительности Storage vMotion.
  • Апгрейженный том не имеет таких возможностей как Sub-Block Size, увеличенное число файлов на хранилище и разметка GPT.
  • Обновленный том VMFS-5 продолжает иметь раздел, начинающийся с сектора 128, это может вызвать некоторые проблемы с выравниванием блоков. Новый раздел VMFS 5 начинается с сектора 2048.

Таким образом, получается, что лучше создать новый том VMFS-5, чем обновлять существующие тома VMFS-3. Но это все было давно, ну а вдруг у вас остались такие вот обновленные VMFS, из-за которых у вас иногда что-то работает не так?

Проверить, какой у вас том, можно в vSphere Client или vSphere Web Client. Смотрим размер блока:

Если он не 1 МБ - то это точно апгрейженный том, и его неплохо бы пересоздать. А вот если 1 МБ, то вовсе не факт, что это новый том (как раньше, так и сейчас был такой размер блока). В этом случае вам поможет вот этот скрипт, который выводит список всех томов VMFS и показывает, новый это том или апгрейженный.

Запустить этот скрипт можно таким образом:

1. Загружаем его и переименовываем его в check_vmfs.sh, убрав расширение .doc.

2. Копируем скрипт на виртуальный модуль vMA. Можно также запускать скрипт локально на сервере ESXi - для этого его туда надо загрузить через Veeam FastSCP или WinSCP.

3. Включаем демон SSH на хостах ESXi, где вы будете выполнять скрипт. (в vSphere Client нужно зайти в Configuration \ Software \ Security profile \ Services \ SSH).

4. Удаленно выполнить скрипт на серверах через SSH можно с помощью команды:

ssh root@<ESXi IP> 'ash -s' < ./check_vmfs.sh

Далее попросят пароль и будет выведен результат работы скрипта.

Здесь нужно смотреть на значение Sub Blocks, если Sub Blocks = 3968, то это апгрейженный VMFS-5, и его неплохо бы пересоздать. У нормального VMFS-5 значение Sub Blocks равно 32000.

Такое вот работающее правило "лучше переставлять, чем обновлять". Любители PowerShell могут также посмотреть вот эту статью.


Таги: VMware, VMFS, Storage, ESXi, Upgrade

Сравнение скоростных характеристик дисковых массивов фирм DotHill и NetApp.


В этом посте мы сравним дисковые массивы DotHill 3730 и NetApp 5412. Сравнение и тестирование проводилось с целью определить целесообразность смены систем хранения данных DotHill на СХД NetApp. Один из заказчиков ИТ-ГРАД много лет использовал дисковые массивы DotHill 3730 для хранения всякого нужного, но пришло время их менять. Не то чтобы они были плохие, просто за несколько лет эксплуатации накопились обиды...


Таги: NetApp, IT-Grad, DotHill, SAN, Storage

Выравнивание блоков для хранилищ VMware Virtual SAN - нужно ли?


Те из вас, кто еще застал VMware ESX 2.x-3.x, наверняка помнят, что в VMware vSphere несколько лет назад иногда возникала проблема некорректного выравнивания блоков на двух уровнях - гостевой ОС по одношению к VMFS и VMFS по отношению к блокам дискового массива (подробнее здесь и здесь):

В такой ситуации смещения блоков на разных уровнях (гостевая ОС, VMFS, дисковый массив) чтение одного кластера в ОС виртуальной машины потенциально могло привести к чтению сразу трех чанков дискового массива.

Были даже специальные утилиты (о них мы писали тут и тут), которые занимались этой проблемой и позволяли получить вот такую правильную картинку, где чтение одного кластера в гостевой ОС приводило к чтению только одного чанка дискового массива.

Выравнивание на стороне файловой системы VMFS было реализовано еще в VMFS-3 (для vSphere 3.x и 4.x), где стартовый Logical Block Address (LBA) выставлялся в значение 128, а в VMFS-5 (начиная с vSphere 5.x) выравнивается по LBA 2048.

Корректное выравнивание в гостевых ОС Windows было также реализовано достаточно давно, начиная с Windows Server 2008 и Windows Vista (естественно, и в версиях 7/8 тоже), начало партиций уже выровнено как положено.

Как же дела обстоят с хранилищами VMware Virtual SAN, которые не используют VMFS?

Тут надо понимать два момента:

1. Virtual SAN использует свое собственное нативное хранилище объектов, и не использует VMFS, поэтому проблем VMFS<->хранилище и VMFS<->гостевая ОС не существует.

2. Проблема гостевая ОС<->хранилище потенциально может существовать для старых ОС (например, Windows Server 2003), однако даже в этом случае она будет мало влиять на производительность.

И вот почему проблема выравнивания блоков в среде VMware VSAN является надуманной:

1. Все операции записи идут через SSD-накопитель как буфер, где они складываются в пачки и только потом идут на HDD, соответственно, импакта тут нет.

2. Операции чтения также обслуживаются кэшем на SSD (vFRC), поэтому тут тоже почти не будет потерь производительности в невыровненной конфигурации.

Поэтому, вывод один - не заморачивайтесь проблемой выравнивания блоков в среде VMware Virtual SAN.


Таги: VMware, Storage, Virtual SAN, VSAN, Performance

Приходите на вебинар о хранилищах для бесплатного гипервизора VMware ESXi - "Hardware agnostic Virtual SAN for VMware ESXi Free" и выиграйте бесплатный билет на VMworld US 2014.


Как известно, огромное количество системных администраторов используют бесплатную платформу виртуализации VMware ESXi Free (он же vSphere Hypervisor). Почти все они интересуются вопросом, как организовать надежное хранилище для виртуальных машин, не покупая дорогостоящие аппаратные СХД.

Как раз таким ИТ-специалистам будет интересно послушать бесплатный вебинар "Hardware agnostic Virtual SAN for VMware ESXi Free", который пройдет 7 августа в 22-00 по московскому времени.

На мероприятии будет рассказано о технических аспектах решения номер 1 на рынке для создания программных iSCSI-хранилищ под VMware vSphere - StarWind Virtual SAN (мы писали о нем вот тут), а также об экономических составляющих решения. Напомним, что у продукта есть бесплатное издание с возможностями отказоустойчивости узлов хранилищ (ограничение только по объему хранения), что является беспрецедентным предложением на рынке.

Ну и пришедшим на вебинар - невероятный бонус: будет разыгран один бесплатный билет на конференцию VMware VMworld 2014 US, а также пять бесплатных билетов на выставку VMworld US 2014 (expo passes). Победитель будет выбран случайным образом в конце мероприятия.

ЗАРЕГИСТРИРОВАТЬСЯ


Таги: StarWind, Webinar, ESXi, Storage, iSCSI, VMware

Microsoft выпустила сервис Microsoft Azure StorSimple, новый виртуальный модуль и 2 дисковых массива.


Может быть кто-то из вас в курсе: был такой стартап StorSimple, производивший облачные системы хранения данных, купленный в 2012 году компанией Microsoft. Подход StorSimple подразумевает хранение часто используемых данных на стороне частного облака компании и передачу остальных данных в публичное облако Microsoft Azure. То есть это решение, помимо, собственно, хранения данных, выступает еще и как Cloud Storage Gateway (напомним также, у Amazon есть подобное решение).

Тома на этих массивах (сделаны они на базе хранилищ Xyratex - сейчас это Seagate) доступны по интерфейсу iSCSI (ожидается поддержка SMB), в качестве накопителей используются диски SSD и SAS. Данные уровня Tier 1 хранятся на этих дисках, а редко используемые данные перемещаются в облако Azure, при этом создается как бы "растянутый" том между локальным и облачным хранилищем. При этом, конечно же, данные продолжают оставаться доступными пользователям - они только испытывают несколько бОльшие задержки при доступе к ним. Основное назначение массивов StorSimple - неструктурированные данные, то есть "файловые помойки" из документов Office и т.п. При этом пользователи получают такие бонусы облачной инфраструктуры, как Disaster Recovery и прочее.

На прошлой неделе компания Microsoft сделала сразу несколько интересных анонсов, касающихся решений StorSimple:

  • Вышло 2 новых массива: StorSimple 8100 и 8600.
  • Анонсирован виртуальный модуль StorSimple Virtual Appliance.
  • Новый облачный сервис "Microsoft Azure StorSimple".

Массивы StorSimple 8100 и 8600

Сырая емкость массива StorSimple 8100 составляет 15 ТБ, а массива 8600 - 40 ТБ. За счет использования технологий компрессии и дедупликации данных можно достичь 75 ТБ эффективной емкости для модели 8100 и 200 ТБ для модели 8600. Если же используются облачные хранилища Azure, то совокупный объем хранения на устройство может достигать 200 ТБ и 500 ТБ соответственно.

Эти массивы будут доступны к заказу с 1 августа 2014 года. Полные спецификации на них доступны по этой ссылке, а краткая информация по их возможностям доступна тут.

StorSimple Virtual Appliance

Виртуальный модуль StorSimple Virtual Appliance размещается на стороне публичного облака Windows Azure и позволяет проводить репликацию данных в виртуальные машины с массивов StorSimple серии 8000 (более ранние не поддерживаются) в облако. Далее можно уже получать доступ к этим данным, не затрагивая производственное окружение (например, анализ данных).

Также важным моментом тут являются возможности восстановления в случае сбоя - если вы потеряете аппаратный модуль StorSimple, то всегда сможете восстановить данные, отреплицированные в облако.

При этом восстановление в случае сбоя хранилища StorSimple или потери данных выглядит очень элегантно - вы просто монтируете тома с сервиса Azure к новому или уже существующему дисковому массиву StorSimple.

Сервис Microsoft Azure StorSimple

Одновременно с запуском новых массивов и виртуальных модулей компания Microsoft анонсировала и новый сервис Azure StorSimple, который и обеспечивает управление гибридной инфраструктурой хранения.

Центральная консоль Azure StorSimple Manager позволяет из единой точки управлять дисковыми массивами серии 8000, а также виртуальными модулями StorSimple Virtual Appliance:

Из нее же и происходит бэкап и восстановление данных из облака, здесь же отслеживается производительность и заполненность доступных емкостей хранилищ.

Более подробнее о семействе решений StorSimple можно узнать на этой странице (а также в блоге Microsoft). Кстати, если кому-то интересна стоимость решений, то вот штатовский прайс:

За модель 8600 придется отвалить аж 170 килобаксов. Не знаю, нужно ли кому-то такое решение у нас тут, не привыкших к таким дорогим штукам.


Таги: Microsoft, StorSimple, Update, Hardware, Cloud, Azure, Cloud Computing, Storage, Backup

VMware vSphere Virtual Volumes (VVols) - использование различных vSphere API для операций клонирования виртуальных машин.


Как мы писали недавно, в новой версии платформы VMware vSphere 6, которая сейчас находится в стадии публичной беты, появились возможности использования томов VVols (о которых мы писали здесь). Сейчас эта функциональность также находится в бете и доступна для загрузки вот тут

Концепция VVol (она же VM Volumes) увеличивает уровень гранулярности работы хост-сервера с хранилищем за счет непосредственных операций с виртуальной машиной, минуя сущности "LUN->том VMFS->Datastore". Тома VVol является неким аналогом существующих сегодня LUN, но с меньшим уровнем гранулярности операций по сравнению с томами VMFS (последние, как правило, создаются из одного LUN). Таким образом, ВМ находится на одном VVol как всадник на лошади.

Чтобы виртуальные машины можно было создавать на томах VVols и производить с ними различные операции, нужно чтобы дисковый массив поддерживал такой интерфейс как vSphere APIs for Storage Awareness (VASA). Через этот API возможна передача функций, обычно выполняемых хостом ESXi, на сторону аппаратного хранилища. Кроме того, есть также интерфейс vSphere Storage API – Array Integration (VAAI), который также используется для offloading'а операций на сторону массива, особенно когда дело касается операций миграции и клонирования ВМ.

Давайте посмотрим, как эти два API (VASA и VAAI) работают с хранилищем при операциях клонирования виртуальных машин, которые часто нужны в инфраструктуре виртуальных ПК на базе VMware Horizon View.

Сценарий 1 - клонирование ВМ в рамках одного контейнера VVol

В этом случае через API VASA вызывается функция cloneVirtualVolume, которая полностью передает на сторону дискового массива операцию клонирования ВМ:

Сценарий 2 - клонирование ВМ в рамках разных VVol

В этом случае все зависит от того, на каких хранилищах находятся данные VVol. Если VVol-a и VVol-b находятся на двух массивах одного вендора, настроенных единообразно, и управляются одним VASA Provider, то в этом случае используется API VASA и вызывается функция cloneVirtualVolume.

Если же VVol-a и VVol-b находятся на одном массиве и настроены по-разному, либо хранилища VVol-a и VVol-b находятся на двух массивах разных вендоров или моделей, то операция через VASA API может не пройти. Тогда происходит переключение на VAAI API, который использует датамувер ESXi (vmkernel data mover) и примитивы VAAI для клонирования виртуальной машины. При этом в случае неудачи передачи операций клонирования на сторону массива датамувер может начать перемещать данные через хост ESXi (подробнее - тут):

Конечно же, предпочтительнее делать все через VASA API - такая операция пройдет быстрее, поскольку в ней не будет задействован хост ESXi. Поэтому тут важна унификация конфигурации хранилищ и дисковых массивов в инфраструктуре. Ну и надо, конечно же, смотреть, чтобы закупаемые массивы в полной мере поддерживали VASA и VAAI.

Сценарий 3 - клонирование ВМ с тома VMFS на VVol

Если получается так, что ВМ надо склонировать с тома VMFS на хранилище VVol, то тут будет работать только операция XCOPY / WRITE_SAME интерфейса VAAI.

При этом работает это только для операции в направлении VMFS->VVol, при обратном клонировании этот API использован не будет.

Узнать больше о томах VVol и позадавать вопросы на эту тему вы можете на специальной странице Virtual Volumes beta community.


Таги: VMware, vSphere, VVol, VAAI, VASA, ESXi, Storage, Hardware, VMachines

Купите StarWind сейчас - платите через 3 месяца.


Как мы уже много писали, компания StarWind не так давно выпустила финальную восьмую версию своего решения номер 1 - StarWind Virtual SAN V8, предназначенного для создания отказоустойчивых хранилищ для VMware vSphere и Microsoft Hyper-V. О новых изданиях продукта вы можете узнать из нашей статьи вот тут.

Если вы уже попробовали StarWind в своей тестовой среде (а особенно просто сделать это с помощью бесплатного комплекта для виртуализации от StarWind) и готовы к приобретению продукта, но денег прямо сейчас нет, вы можете получить лицензии для производственной среды при условии их оплаты в течение 90 дней с момента подписания счета (заказа).

Торопитесь, акция действует только до 31 июля. Чтобы принять в ней участие - пишите на sales@starwindsoftware.com.

Напомним основные возможности продукта StarWind Virtual SAN:

  • Отказоустойчивость узлов типа Active-Active.
  • Возможность создания двух или трехузловой конфигурации кластера хранилищ.
  • Высокопроизводительная асинхронная WAN-репликация.
  • Поддержка в качестве хранилищ как NAS, так и SAN.
  • Хранение данных в виде файла образа (Image File).
  • Поддержка технологии CDP и снапшотов.
  • Возможности Thin Provisioning (растущие по мере наполнения диски).
  • Технология High speed caching.
  • Единая консоль мониторинга происходящих с хранилищами событий и средство оповещения администраторов по email или SNMP.
  • Дедупликация данных (собственный высокопроизводительный механизм).

Скачать решение StarWind Virtual SAN можно по этой ссылке.


Таги: StarWind, Storage, Virtual SAN, SMB, iSCSI

Как расширить локальный том VMFS в VMware ESXi.


Как многие из вас знают, в платформе виртуализации VMware vSphere есть множество удобных средств работы с хранилищами, включая средства позволяющие расширить том VMFS прямо из GUI клиента vSphere Client - достаточно лишь сделать Rescan HBA-адаптеров. Однако если необходимо расширить локальный том (Local VMFS), то тут встроенных средств уже нет, и все нужно аккуратно делать самому, как это описано в KB 2002461. Приведем здесь этот процесс, проиллюстрировав его скриншотами.


Таги: VMware, VMFS, Storage, Обучение, vSphere, ESXi

Новые документы "VMware Virtual SAN Ready Nodes" и "Virtual SAN Hardware Quick Reference Guide" - готовые серверы для VSAN и рекомендации по сайзингу.


Недавно компания VMware выпустила интересный документ "VMware Virtual SAN Ready Nodes", в котором приведены примеры серверных конфигураций от различных производителей, которые подходят в качестве узлов отказоустойчивого кластера хранилищ VMware Virtual SAN.

В обновленной версии документа были удалены некоторые старые конфигурации серверов, а новые добавлены. В ближайшие несколько недель ожидается пополнение документа новыми моделями и конфигурациями узлов.

К каждой спецификации на сервер прилагается профиль нагрузки, для которой предлагается его использовать, например, VDI-инфраструктура с числом виртуальных ПК до 100 или серверная инфраструктура на 60 ВМ. Также прилагается примерная конфигурация виртуальной машины, например:

Virtual Machine Profle: 2 vCPU, 6 GB Memory, 2 x 60 GB virtual disks

Пока в документе есть серверы только четырех производителей (но скоро точно будет больше):

  • Dell
  • Fujitsu
  • HP
  • SuperMicro

Также у компании VMware на тему выбора и сайзинга кластеров Virtua SAN есть полезный документ "Virtual SAN Hardware Quick Reference Guide", где рассматриваются различные профили нагрузок виртуальных машин, размещенных на хранилищах отказоустойчивого кластера VSAN.

В первой таблице документа в столбцах приведены примеры нагрузок (например, полные клоны виртуальных десктопов или средняя серверная нагрузка), а в строчках рассматриваются различные аппаратные характеристики узлов, такие как вычислительные мощности, число дисков и их емкость, память, сетевые адаптеры и т.п.:

Также в документе есть рекомендации по сайзингу кластера хранилищ, а также рекомендуемым аппаратным характеристикам (например, число дисковых групп или необходимая минимальная глубина очереди на дисковом контроллере).

Напомним также, что есть еще документ "VMware Virtual SAN Hardware Design Guide", который может вам помочь с выбором узлов для кластера Virtual SAN.


Таги: VMware, Virtual SAN, Hardware, VSAN, Whitepaper, vSphere, Storage

Комплект бесплатных средств для виртуализации на платформе Microsoft Hyper-V от компании StarWind.


Многие администраторы в небольших компаниях, которые начинают пробовать виртуализацию, нуждаются не только в самой платформе, но и в дополнительных средствах, таких как:

  • Средство создания общих хранилищ (если нет выделенного массива).
  • Средство резервного копирования виртуальных машин.
  • Средство для мониторинга виртуальной инфраструктуры.

Если вы попробуете сделать это на VMware, то у вас вряд ли это получится бесплатно с использованием надежных и проверенных средств, а вот на Hyper-V такая возможность есть.

Компания StarWind Software предлагает загрузить и установить комплект средств "Free Virtualization", которые позволят вам создать полностью бесплатную инфраструктуру на платформе Microsoft Hyper-V Server:

Кликнув на любую из картинок выше, вы получите набор следующих бесплатных утилит:

  • Veeam Backup and Replication Free Edition для быстрого и надежного создания резервных копий (мы писали о нем вот тут).
  • StarWind Virtual SAN Free для создания отказоустойчивой инфраструктуры iSCSI-хранилищ (вот тут мы писали о его новых возможностях, а здесь - про бесплатную версию).
  • 5nine Manager Free for Hyper-V для мониторинга и одновременного управления несколькими хостами Microsoft Hyper-V Server (по-сути, это очень неплохая альтернатива System Center Virtual Machine Manager, мы писали о нем вот тут, а также здесь).

Этот комплект - отличное решение для быстрого старта с виртуализацией от Microsoft. Так что попробуйте - скачивайте комплект Free Virtualization. Бесплатный гипервизор Microsoft Hyper-V Server можно загрузить по этой ссылке.


Таги: StarWind, Бесплатно, Storage, Hyper-V, Server, 5nine, Veeam, Backup, iSCSI, Free

Geek porn! Анбоксинг массива NetApp E2700.


Публикуем очередной гостевой пост компании ИТ-ГРАД. Никто не скажет лучше про продукт, чем пиарщики его вендора. Поэтому мы просто процитируем одну из брошюр NetApp о новоиспеченной E2700 серии: СХД NetApp E2700 представляет собой простое решение для хранения данных в средах SAN. Она легко интегрируется практически в любые среды хранения данных, основанные на приложениях, предлагает множество вариантов хостингового подключения и поддерживает различные типы дисков и дисковых полок...


Таги: NetApp, IT-Grad, Hardware, Unboxing, Storage

Ближайшие вебинары компании StarWind по продукту StarWind Virtual SAN V8.


Как мы уже много писали, компания StarWind недавно выпустила финальную восьмую версию своего решения номер 1 - StarWind Virtual SAN V8, предназначенного для создания отказоустойчивых хранилищ для VMware vSphere и Microsoft Hyper-V. О новых изданиях продукта вы можете узнать из нашей статьи вот тут, а для тех, кого интересуют практические аспекты применения продукта, будут интересны бесплатные вебинары компании StarWind, которые состоятся уже совсем скоро.

Бесплатный вебинар: Don't Let Storage Eat Your Hyper-V Savings

На этом мероприятии речь пойдет об экономической составляющей решения для виртуализации на платформе Hyper-V. Просто сравните стоимость и эффективность приобретения дорогостоящего хранилища и приобретение лицензий на StarWind Virtual SAN с возможностью построения надежного и отказоустойчивого хранилища на базе двух или трех узлов Hyper-V, которые являются не только серверами хранения, но и исполняют виртуальные машины.

Вебинар пройдет 25 июня в 21-00 по московскому времени. Регистрируйтесь!


Бесплатный вебинар: Do More with Less Hardware Using Software Defined Storage Management

На этом вебинаре речь пойдет о технологических преимуществах продукта StarWind Virtual SAN, таких как технология отказоустойчивости, файловая система LSFS, Inline-дедупликация StarWind, высокопроизводительное кэширование и прочее.

Вебинар пройдет 2 июля в 23-00 по московскому времени. Регистрируйтесь!

На всех вебинарах будет возможность задать вопросы на русском языке!


Таги: StarWind, Virtual SAN, Storage, Webinars

Вышел Veeam Backup & Replication 7.0 Patch 4: полная поддержка VSAN.


Не так давно мы писали о грядущей новой версии продукта Veeam Backup and Replication v8, предназначенного для резервного копирования и репликации виртуальных машин на платформах VMware vSphere и Microsoft Hyper-V. Напомним, что в восьмой версии продукта будет поддержка работы с массивами NetApp, а также было анонсировано средство для восстановления объектов каталога - Veeam Explorer for Active Directory.

Но пока новой версии нет, а администраторы VMware vSphere во всю уже начинают внедрять кластеры отказоустойчивости хранилищ VMware Virtual SAN. Специально для них компания Veeam уже сейчас выпустила обновление Veeam Backup & Replication 7.0 Patch 4, в котором технология VSAN полностью поддерживается (версия билда 7.0.0.871). Если раньше эти хранилища просто не показывались в списке объектов для резервного копирования, то теперь все они выводятся как датасторы:

Несмотря на то, что это всего лишь патч, в нем появилось множество новых возможностей:

  • VMware Virtual SAN (VSAN) - в дополнение к базовой поддержке VSAN, которая есть и у других вендоров бэкапа, в решении Veeam учитывается специфика VSAN при работе механизма intelligent load-balancing. Это позволяет при резервном копировании использовать те прокси-сервера, которые будут выкачивать диски виртуальной машины, размещенные на том же хосте ESXi, что и прокси-сервер. Это позволяет максимально быстро проводить бэкап и не загружать дополнительно продуктивную сеть трафиком резервного копирования. Это очень полезная вещь, пример ее применения смотрите тут.
  • Поддержка Microsoft SQL Server 2014 - теперь эта СУБД поддерживается не только как продакшен-нагрузка в резервируемой виртуальной машине, но и как бэкэнд база данных для сервера Veeam Backup and Replication, а также Enterprise Manager.
  • License key auto update - теперь продукт будет автоматически обращаться к серверу лицензий Veeam, чтобы обновить ключи, если таковое необходимо. Это нововведение упрощает жизнь сервис-провайдерам, которые используют модель лицензирования на основе подписки (постоянно приходится продлять ключик).
  • Backup Copy - максимальное число точек восстановления для задачи Backup Copy выросло до 999. Также эта задача поддерживает функцию "докачки" бэкапа при разрыве сетевого соединения.
  • Hyper-V - добавлена поддержка нескольких Hardware VSS Providers, которые раньше не обнаруживались, а как следствие не могли использоваться при выполнении задачи РК. Также лучше стали создаваться снапшоты - теперь используется алгоритм ожидания окончания теневого копирования на томе вместо мгновенного завершения задачи.

По поводу поддержки VSAN есть интересный аспект работы при выборе прокси-серверов для резервного копирования. Если большая часть объектов хранилища машины размещена на одном хосте - то будет использоваться его бэкап-прокси, а вот если разница между объемом объектов менее 5% на двух хостах, то будут использованы оба прокси. Примеры:

  • Host A = 70% хранения, Host B = 30 % , Host C = 0%, будет использован прокси только на Host A.
  • Host A = 40% , Host B = 41% , Host C = 19%, будут использованы прокси на Host A и Host B одновременно.

Скачать обновление Veeam Backup & Replication 7.0 Patch 4 можно по этой ссылке.


Таги: Veeam, Backup, Update, Storage, VSAN, VMware, vSphere, VMachines

Возможности изданий StarWind Virtual SAN 8.0 - отличия бесплатного и коммерческого изданий.


Как вы знаете, совсем недавно была выпущена новая версия продукта StarWind Virtual SAN, предназначенного для создания отказоустойчивых хранилищ на базе iSCSI для виртуальных машин VMware vSphere и Microsoft Hyper-V. О новых возможностях этого продукта мы уже рассказывали тут, кроме того, скоро мы расскажем о нововведениях более детально.

Некоторое время назад мы уже писали об изданиях решения StarWindтут), но сейчас продукт существенно поменялся - появились новые возможности и улучшения, которые мы просуммировали в таблице ниже:

Возможности продукта StarWind iSCSI SAN Free Edition (бесплатно) StarWind Virtual SAN для VMware и Hyper-V Комментарий
Емкость хранилищ
Для одного узла - не ограничено, для HA-конфигурации - 128 ГБ
Зависит от типа лицензии - от 1 до 512 ТБ
Можно купить лицензию на 1 ТБ и расширять ее апгрейдами
Размер допустимого к использованию кэша
512 МБ
Не ограничено
Для коммерческой лицензии можно использовать всю память сервера под кэш
Централизованное управление
StarWind Management Console
Консоль бесплатного и коммерческого издания - одна. Апгрейд происходит с помощью ключа.
Число серверов на лицензию
2
2 или 3
Для коммерческой лицензии можно использовать 3 узла при соблюдении лицензированной емкости. Подробнее тут.
Число одновременных соединений по iSCSI
Не ограничено
Обе версии позволяют неограниченное число клиентов.
Число лицензированных портов Ethernet
Не ограничено
Любые порты можно как угодно агрегировать и использовать.
Число дисков хоста
Не ограничено
Диски можно использовать в любой конфигурации.
Техническая поддержка Ограничена (только веб-форум) Полная поддержка (уровень Standard или Premium) Уровень Standard - время реакции 4-12 часов (почта, телефон), можно сделать апгрейд на премиум-поддержку.
Отказоустойчивость узлов типа Active-Active
Поддержка прозрачной для виртуальных машин отказоустойчивой конфигурации (как Failover, так и Failback). Для бесплатной версии - только для 128 ГБ.
Асинхронная WAN-репликация
Возможность асинхронной репликации между узлами и возможность создания катастрофоустойчивого решения для хранилищ. Теперь также возможна репликация даже на очень медленных каналах
Использование ресурсов NAS/SAN
Поддержка в качестве хранилищ как NAS, так и SAN-ресурсов. Утилита NAS Configurator - помогает сделать экспорт NFS/SMB-шары для использования в кластерах StarWind High Availability или MS Cluster.
Технология Disk bridge
Технология эмуляции SCSI-слоя, что позволяет использовать любые типы хранилищ (PATA/SATA/RAID).
Техника SPTI
Техника, позволяющая соединять физические устройства с удаленными машинами.
Хранение данных в виде файла образа (Image File)
Хранение виртуальных дисков машин в виде файла.
Поддержка технологии CDP и снапшотов
Более подробно - тут.
Возможности Thin Provisioning (растущие по мере наполнения диски)
Аллоцируется только необходимое для записей данных пространство диска.
Технология High speed caching
Использование памяти для защищенного и высокопроизводительного кэширования.
Сервисы мониторинга и нотификаций администраторов
Единая консоль мониторинга происходящих с хранилищами событий и средство оповещения администраторов по email или SNMP.
Дедупликация данных (собственный высокопроизводительный механизм)
Inline-дедупликация StarWind не создает нагрузку на подсистему хранения и не "крадет" IOPS'ы у продуктивного хранилища.

Из таблицы видно, что бесплатная версия StarWind Virtual SAN Free мало чем отличается от платной, кроме ограничения на размер отказоустойчивого хранилища в 128 ГБ. Поэтому если у вас есть необходимость в создании кластеров хранилищ на базе локальных дисков серверов - StarWind на сегодняшний день является единственным на сегодняшний день продуктом, позволяющим сделать это бесплатно.

Скачать пробную или бесплатную версию StarWind Virtual SAN для VMware или Hyper-V можно по этой ссылке.


Таги: StarWind, iSCSI, SAN, Virtual SAN, Сравнение, Storage

Производительность различных типов дисков на флэш-массивах: Thin / Lazy Thick / Eager Thick.


Одна из самых популярных статей на VM Guru - это статья про типы дисков виртуальных машин на платформе VMware vSphere. Там рассказано про все имеющиеся виды виртуальных дисков, среди которых можно выделить три основных:

  • Lazy zeroed thick disks - все пространство диска выделяется в момент создания, при этом блоки не очищаются от данных, которые находились там ранее. Но при первом обращении ВМ к этому блоку он обнуляется.
  • Eager zeroed thick disks - все пространство такого диска выделяется в момент создания, при этом блоки очищаются от данных, которые находились там ранее. Далее происходит обычная работа с блоками без очистки.
  • Thin disks ("тонкие диски") - эти диски создаются минимального размера и растут по мере их наполнения данными до выделенного объема. При выделении нового блока - он предварительно очищается. Эти диски экономят пространство на массиве, так как не забивают его нулями и не требуют аллокации заданного объема.

Между администраторами VMware vSphere очень часто возникает дискуссия: диски какого типа нужно создавать, особенно если дело касается высоких нагрузок ВМ на дисковую подсистему? Сейчас это становится актуальным и для флэш-массивов, которые начинают появляться в организациях различного масштаба и предназначены как раз для высоких нагрузок ВМ на диски.

Специально для таких пользователей компания VMware провела тесты для последовательных и случайных операций при работе с виртуальными дисками различного типа, используя для этого дисковые массивы с SSD-накопителями.

Результаты оказались интересны - диски типа Thin и Lazy zeroed серьезно уступают в производительности дискам Eager zeroed, когда дело касается нагрузок случайного типа.

Использованная тестовая конфигурация:

  • Сервер Dell R910 с 40 ядрами и 256 ГБ оперативной памяти.
  • Дисковый массив Pure FA-420 FlashArray с двумя полками, на которых 44 флэш-диска по 238 ГБ каждый (суммарно 8.2 ТБ полезной емкости).
  • Виртуальная машина Windows 2008 R2 Virtual Machine следующей конфигурации: 4 vCPU, 8 GB RAM, 40 GB OS/Boot Disk, 500 GB Data Disk.
  • Инициатор SW iSCSI для карточки 10 Gb.

Таблица результатов тестов, сделанных с помощью IOMETER для различных размеров блоков:

Тип диска Операций чтения-записи (Write IOps ) Скорость записи (Write MBps) Среднее время отклика (Average Response Time, ms)
4K
Thin

3105.31

12.13

0.32

Thin  Random

421.65

1.65

2.37

Lazy Thick

3097.94

12.10

0.32

Lazy Thick  Random

421.65

1.65

2.37

Eager Thick

3298.12

12.88

0.30

Eager Thick  Random

3112.70

12.16

0.32

64K
Thin

1070.54

66.91

0.93

Thin  Random

410.51

25.66

2.43

Lazy Thick

1088.20

68.01

0.92

Lazy Thick  Random

408.46

25.53

2.45

Eager Thick

1211.65

75.73

0.82

Eager Thick  Random

1141.34

71.33

0.87

256K
Thin

566.34

141.58

1.76

Thin  Random

341.37

85.34

2.93

Lazy Thick

567.09

141.77

1.76

Lazy Thick  Random

342.75

85.69

2.92

Eager Thick

648.77

162.19

1.54

Eager Thick  Random

668.88

167.22

1.49

Из таблицы видно, что все диски на последовательных нагрузках показывают примерно одинаковый результат, а вот на Random-нагрузках уже совершенно другая картина. Все это более наглядно можно увидеть графиков, где диски Thin и Lazy zeroed существенно проседают по производительности:

Вывод - не все йогурты одинаково полезны. Для высокопроизводительных нагрузок желательно использовать диски типа Eager zeroed - хуже точно не будет. Единственный их минус - требуется существенное время на их создание, поскольку происходит обнуление блоков. Но если ваш дисковый массив поддерживает примитивы VAAI, то много времени не понадобится: например, в том же тесте диск Eager zeroed размером 500 ГБ создался менее чем за одну минуту.


Таги: VMware, Storage, Performance, vSphere, SSD

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Microsoft Veeam Cloud StarWind VMachines Offtopic NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V Private AI vSAN Explore Workstation vDefend Backup Data Protection ONE Tanzu VCF AI Intel VCP V2V HCX Aria NSX DPU Update EUC Avi Broadcom Community Skyline Host Client Chargeback Horizon Labs SASE Workspace ONE Networking Ransomware Tools Performance Lifecycle Network AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile VMUG SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint SIOC Memory Troubleshooting Stretched Bugs Director ESA Android Python Upgrade ML Hub Guardrails CLI VCPP Driver Foundation HPC Orchestrator Optimization SVMotion Diagram Ports Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2024, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge