Многие пользователи, которые начинают пользоваться средствами виртуализации от VMware, рано или поздно задаются вопросом - как создать копию виртуальной машины (клонировать её) в бесплатной версии VMware ESXi. Если у вас есть коммерческое издание VMware vSphere и сервер управления vCenter, то клонировать ВМ можно просто из контекстного меню машины:
Однако все несколько сложнее, если у вас бесплатная версия VMware ESXi Free (он же vSphere Hypervisor). Тут можно пойти вот какими путями:
Это средство позволяет вам создать виртуальную машину на целевом хосте (а именно на нашем бесплатном ESXi), установив сам Converter внутрь машины, и создать ее клон как физической системы. При этом в процессе клонирования ("миграции") сохраняется обе системы, а различные настройки, такие как размеры виртуального диска, имя системы и прочее, можно кастомизировать.
2. Использовать софт для резервного копирования и восстановления.
Сначала создаем резервную копию машины, а потом восстанавливаем ее параллельно с уже существующей ВМ.
3. Можно просто скопировать виртуальную машину и ее диск.
Первый вариант данного способа прост - копируете папку с ВМ (для доступа к файловой системе ESXi можно использовать WinSCP или FastSCP). Далее добавьте ВМ в окружение ESXi файл *.vmx через контекстное меню и пункт "Add to inventory":
Второй вариант - это использование утилиты vmkfstools. Она позволяет клонировать диски виртуальных машин, задавая различные параметры целевого диска. Например, вот эта команда создает клон виртуального диска, но целевой диск будет в thin-формате (то есть растущим по мере наполнения данными):
С помощью этой утилиты можно много чего делать, более подробно о ней написано в KB 1028042. Далее создаем новую ВМ и подцепляем к ней полученный виртуальный диск. Не забудьте поменять имя машины и сетевую идентификацию!
Есть еще способ сделать клон ВМ с помощью VMware vSphere Management Assistant (vMA) и vSphere CLI (vCLI) как написано в KB 1027872, но он требует развертывания vMA и не стоит заморочек ради клонирования одной ВМ. Но для регулярного клонирования машин - обязательно изучите эту KB.
Полтора месяца назад мы просили наших читателей проголосовать за продукт StarWind Virtual SAN, который позволяет создавать отказоустойчивые кластеры хранилищ для виртуальных машин на платформах VMware vSphere и Microsoft Hyper-V.
Наш призыв был услышан, и решение StarWind Virtual SAN заняло второе место в номинации Storage Virtualisation Product of the Year (продукт года в сфере виртуализации хранилищ). Поздравляем наших коллег с этим достижением! И благодарим вас за голосование за лучший продукт для виртуализации хранилищ.
Продукт StarWind Virtual SAN уже многие годы на рынке и работает в производственной среде тысяч компаний по всему миру.
Напомним основные возможности StarWind Virtual:
Высокая доступность с синхронным зеркалированием: 3-узловой кластер высокой доступности
Автоматическое восстановление после отказа
Восстановление с быстрой синхронизацией
Непрерывная защита данных и мгновенные снимки
Асинхронная репликация по WAN (ускоренная): конфигурация N+1
Горизонтально-масштабируемое NAS-хранилище
Глобальная дедупликация
Тонкое резервирование
и многое другое (подробнее о новых возможностях тут)
Скачать пробную версию StarWind Virtual SAN можно по этой ссылке (там есть версия как для VMware, так и для Hyper-V).
Таги: StarWind, Award, Storage, iSCSI, Virtual SAN
Компания Nutanix выпустила полезную утилиту сайзинга хранилищ и конфигурации узлов под виртуализацию VMware и Citrix, которая позволяет рассчитать необходимую конфигурацию СХД под выбранный сценарий - Nutanix sizer tool.
После того, как вы зарегистрируетесь по ссылке выше, вам будет доступен следующий мастер:
После того, как мы выберем необходимый сценарий консолидации систем на СХД, нам нужно выбрать тип инфраструктуры виртуализации под который мы будем проводить рассчеты (workload type):
Виртуализация настольных ПК (VDI)
Виртуализация серверов (Server Virtualization)
Далее мы выбираем тип профиля виртуальной нагрузки (виртуальной машины) - он может быть одним из трех:
легкий (small)
средний (medium)
тяжелый (large)
Единственное значение, которое можно изменить - это число виртуальных машин на рабочую нагрузку (максимально - 25).
Для примера введем одну нагрузку типа small, одну medium и одну large по 25 виртуальных машин в каждой.
В итоге получим следующие параметры узлов Nutanix (все спецификации можно найти тут):
Nodes = 3 штуки NX-3050 по 256 GB RAM в каждом узле
Cluster = 1
Rack Space = 2U
Пример итоговой конфигурации для серверной виртуализации:
Если же мы выберем тип нагрузки VDI, то увидим следующие параметры:
Там мы выбираем тип пользователя и его тип нагрузки:
Task Worker (легкие задачи)
Knowledge Worker (сложные задачи)
Power User (сложные и административные задачи)
Далее мы выбираем платформу развертывания виртуальных ПК, в качестве которой можно выбрать одно из следующих решений:
VMware View Linked Clones
VMware View Full Closes
Citrix XenDesktop MCS
Citrix XenDesktop PVS
Citrix XenDesktop Full Clones
Максимальное число пользователей для выбранной спецификации рабочей нагрузки может быть до 1000.
Кстати, для партнеров Nutanix доступна такая же утилита, но со значительно большим числом опций, среди которых могут быть указаны уточненные параметры рабочей нагрузки, такие как:
В качестве рабочей нагрузки можно указать серверы Exchange или серверы SQL
VDI Workload: неактивные опции могут быть изменены.
Server Workload: неактивные опции могут быть изменены.
Число vCPU на физическое ядро (pCPU) можно определить в Advanced Settings.
Для всех типов рабочей нагрузки можно определить следующие опции:
По окончании анализа вам будет сказано о том, какая конфигурация узлов Nutanix вам необходима. Кроме того данную конфигурацию можно экспортировать в документ, где будет указана предлагаемая конфигурация следующих компонентов на узлах хранилищ:
Как знают многие администраторы VMware vSphere, в инфраструктуре хранилищ иногда возникает проблема выравнивания виртуальных дисков машин (последний раз мы писали об этом тут). Некорректное выравнивание блоков может возникать на двух уровнях - гостевой ОС по отношению к VMFS и VMFS по отношению к блокам дискового массива:
В целом-то, эта проблема не очень актуальна в последнее время, учитывая что в последних версиях VMware vSphere и ОС Windows с этим вполне разобрались. Однако для тех, у кого инфраструктура очень древняя (особенно с ВМ на базе Windows 2003 и 2008), пережила несколько апгрейдов и миграций - выравнивание блоков проверить было бы нелишним.
Именно для этого и была выпущена бесплатная утилита VM Check Alignment. Утилита старенькая, но вполне себе работает для Windows 2003/2008 и Windows Vista/7:
В параметре Starting Offset мы видим, что виртуальный диск выровнен корректно, и никаких изменений не требуется. Для некорректно выровненных дисков, кстати, производительность хранилищ может падать на величину до 10%.
О том, как нужно выравнивать блоки виртуальных дисков написано тут и тут.
На этом вебинаре вы узнаете о том, как построить недорогой и эффективный кластер Failover Cluster на базе хранилищ StarWind, а также как можно управлять этим кластером с помощью средств компании 5nine.
Бонус: участники вебинара получают шанс выиграть NFR-лицензию StarWind на 6 месяцев использования.
Вебинар пройдет 3 декабря в 19-00 по московскому времени. РЕГИСТРАЦИЯ.
На этом вебинаре Макс Коломейцев, менеджер по продукту Virtual SAN, расскажет о том, как можно построить масштабируемый файл-сервер без применения массивов SAS JBOD, используя возможности протокола SMB 3.0.
Вебинар пройдет 9 декабря в 20-00 по московскому времени. РЕГИСТРАЦИЯ.
В рамках данного вебинара будет рассказано о том, каким образом можно побороть эффект I/O Blender в виртуальных окружениях (он заключается в том, что запросы ввода-вывода от виртуальных машин "смешиваются" на хост сервере перед направлением к хранилищу). Должно быть очень интересно.
Бонус: участники вебинара получают шанс выиграть NFR-лицензию StarWind на 6 месяцев использования.
Вебинар пройдет 11 декабря в 22-00 по московскому времени. РЕГИСТРАЦИЯ.
Многие пользователи VMware Virtual SAN (VSAN), когда проводят тест бэкапа одной виртуальной машины, замечают, что время резервного копирования этой ВМ существенно больше, чем таковое для машины, размещенной на дисковом массиве.
Дункан в своем блоге подробно разбирает эту проблему. Тут дело вот в чем - когда вы используете дисковый массив, то виртуальная машина "размазывается" по дискам RAID-группы, что позволяет читать одновременно с нескольких дисков. Это дает хорошую производительность операции резервного копирования для одной машины.
Кластер же VSAN работает немного по-другому. Это объектное хранилище, в котором виртуальный диск ВМ хранится на одном хосте и его реплика существует на втором. Кроме этого, есть кэш на SSD-диске (но его еще нужно "прогреть"). То есть выглядит все это следующим образом:
Соответственно, при бэкапе одной виртуальной машины данные читаются только с двух HDD-дисков, а не с нескольких как в традиционной архитектуре дисковых массивов, при этом сам кластер VSAN может состоять из нескольких хостов (до 32 узлов). То есть, это архитектурное ограничение.
Однако если мы будем делать одновременный бэкап нескольких виртуальных машин с хранилища Virtual SAN время этой операции уже будет сравнимо с дисковым массивом, поскольку будет задействовано сразу несколько дисков на каждом из хостов, плюс хорошо прогреется кэш. Поэтому проведение такого теста (ведь он ближе к реальным условиям) и было бы более показательным при сравнении Virtual SAN и традиционных хранилищ.
То же самое относится и к VDI-инфраструктуре на базе VSAN - многие пользователи отмечают, что первая фаза операции Recompose (когда создается реплика - полный клон ВМ) отрабатывает весьма медленно. Однако если вы делаете много таких операций - кэш прогревается, и одновременное создание нескольких клонов начинает работать заметно быстрее в расчете на одну машину.
На сайте компании VMware есть полезная утилита vSphere Replication Calculator, которая позволяет рассчитать целевые параметры репликации в зависимости от следующих факторов:
Наличие у вас Network-based storage
Число виртуальных машин и объем виртуальных дисков - как следствие размер реплицируемых данных (Size of dataset)
Интенсивность изменения данных (Data change rate)
Требования к контрольной точке восстановления (Recovery point objective, RPO)
Имеющийся канал на резервную площадку (Link speed)
В качестве результата расчетов можно выбрать одно из трех представлений (все зависит от значения поля "Are you trying to solve..."):
Необходимая минимальная пропускная способность сети на резервную площадку (recommended minimum throughput) с приемлемой latency (настраивается как входной параметр).
Рекомендуемое минимальное время RPO в качестве политики, выражающей требования к контрольной точке восстановления.
Максимальное число реплицируемых виртуальных машин при условии заданного объема изменяющихся данных.
Компания StarWind, поставщик ПО номер 1 для создания отказоустойчивых кластеров хранилищ в инфраструктурах VMware vSphere и Microsoft Hyper-V (о возможностях продукта - тут), спешит анонсировать свои ноябрьские вебинары.
Напомним, что в новой версии платформы Windows Server vNext от компании Microsoft появится механизм Storage Quality of Service (QoS) - возможность динамического отслеживания производительности хранилищ и горячая миграция виртуальных машин при превышении этими хранилищами пороговых значений (IOPS). Все это делается на базе заранее настроенных политик. По-сути, это аналог механизма Storage DRS от компании VMware в продукте vSphere.
В этом документе от Microsoft на 16 страницах объясняется работа механизма Storage QoS и как его использовать для мониторинга производительности хранилищ и выравнивания нагрузки (забавное понятие "Noisy neighbor mitigation").
Содержание документа:
Summary
Goals & Behaviors
Background
Scenario 1: Enabling Storage QoS and basic performance monitoring
Некоторое время назад мы писали о технологии VMware vFlash (она же Virtual Flash), которая позволяет использовать высокопроизводительные накопители SSD (вот тут - о производительности) для решения двух важных задач:
Предоставление виртуальным машинам дополнительного места, в которое будут свопиться страницы памяти в случае недостатка ресурсов на хосте (это намного более производительно, чем свопить на обычный HDD-диск). Эта техника называется Virtual Flash Host Swap и пришла на смену механизму Swap to SSD.
Прозрачное встраивание в поток ввода-вывода на хосте между виртуальными машинами и хранилищами, что позволяет существенно ускорить операции чтения данных виртуальных дисков. Называется это VMware Flash Read Cache (vFRC).
Ниже мы вкратце расскажем о настройке этих двух механизмов через VMware vSphere Web Client (в обычном C#-клиенте этого, к сожалению, нет). Если что, более подробно о технике vFRC можно почитать по этой ссылке.
Итак, в vSphere Web Client переходим на вкладку "Manage" для нужного хоста, далее в разделе "Settings" выбираем пункт "Virtual Flash Resource Management". Это кэш, который мы добавляем для того, чтобы в случае нехватки места, его могли использовать виртуальные машины, чтобы не свопить данные на медленный магнитный диск, кроме того он же будет использоваться для целей vFRC.
Нажимаем Add Capacity:
Выбираем диски, которые мы будем использовать как Host Swap и нажимаем "Ок" (все данные на них будут стерты):
Всего под нужды Virtual Flash может быть выделено до 8 дисков суммарной емкостью до 32 ТБ. Видим, что ресурс добавлен как Virtual Flash Resource (его емкость отдельно учитывается для vFRC и Host Cache):
Настройка Virtual Flash Host Swap
Первым делом рекомендуется настроить именно этот кэш, а остаток уже распределять по виртуальным машинам для vFRC.
Выбираем пункт "Virtual Flash Host Swap Cache Configuration" в левом меню, а далее в правой части мы нажимаем кнопку "Edit":
Указываем необходимый объем, который планируется использовать, и нажимаем "Ок":
После того, как мы настроили нужное значение - в случае недостатка ресурсов на хосте виртуальные машины будут использовать высокоскоростные диски SDD для своих нужд внутри гостевой ОС (файлы подкачки прочее).
Настройка VMware Flash Read Cache (vFRC)
Напомним, что это кэш только на чтение данных, операции записи будут производиться на диск, минуя флэш-накопители. Соответственно, такой кэш улучшает производительность только операций чтения.
Сам кэш vFRC можно настроить на уровне отдельных виртуальных машин на хосте VMware ESXi, а также на уровне отдельных виртуальных дисков VMDK.
Чтобы выставить использование нужного объема vFRC для отдельной виртуальной машины, нужно выбрать пункт "Edit Settings" из контекстного меню ВМ и на вкладке "Virtual Hardware" в разделе "Virtual Flash Read Cache" установить нужное значение для соответствующего виртуального диска:
Если этого пункта у вас нет, то значит у вас версия виртуального "железа" (Virtual Machine Hardware) ниже, чем 10, и ее нужно обновить.
По ссылке "Advanced" можно настроить размер блока для кэша (значение Reservation, установленное тут, обновит значение на предыдущем скрине):
Некоторые из вас знают, что сейчас в Лас-Вегасе проходит конференция VeeamOn 2014 - первое всемирное офлайн-событие компании Veeam Software, производящей продукт для резервного копирования виртуальных машин номер один на рынке - Veeam Backup and Replication.
Недавно мы писали о новой версии Veeam B&R v8, а на конференции специалисты Veeam рассказали множество интересных подробностей о новых фичах. Одна из таких функций - Backup I/O Control - позволяет ограничивать производительность процедуры резервного копирования на отдельном хранилище.
Veeam очень много сделала в технологическом плане, чтобы бэкапы с хранилища виртуальных машин снимались как можно быстрее - это и распараллеливание задач, и интеллектуальный выбор бэкап-прокси, и многое другое. В итоге бэкапы стали сниматься очень быстро, даже слишком быстро.
Для обычных компаний, системы которых не работают по ночам - это очень хорошо, бэкап отработал ночью, а днем пользователи спокойно работают, а вот для тех компаний, чьи серверы полностью загружены в режиме 24/7, нагрузка хранилищ задачами резервного копирования может оказаться существенной и негативно сказаться на производительности продуктивных систем.
Для этого в Veeam Backup and Replication есть ограничение числа задач, которые могут исполняться одновременно на бэкап-прокси:
Однако это совсем неудобно - непонятно, как и на что это влияет при выполнении операций резервного копирования, потому и была придумана возможность Backup I/O Control, которая ограничивает процесс РК таким образом, чтобы соблюсти требования по производительности хранилищ для нормальной работы виртуальных машин и приложений.
А что является главным мерилом производительности (ну, одним из главных)? Это задержка при операциях чтения-записи, то есть latency. Так вот функция Backup I/O Control в Veeam Backup & Replication v8 позволяет вам указать требуемое latency при превышении которого задача резервного копирования будет "урезаться" и создавать меньшую нагрузку на хранилище:
Если мы укажем данные значения, то при достижении Latency 20 мс новые задачи для данного хранилища перестанут назначаться, а вот если уже вырастет до 30 мс, то и вовсе нагрузка текущих задач будет уменьшена, чтобы соблюсти требования по SLA.
Пример как это работает. Для текущей нагрузки операций резервного копирования включаем функцию Backup I/O Control и нагрузка РК снижается так, чтобы средний уровень latency не превышал 20 мс (зеленая линия). Отключаем эту фичу - и видим, что задержка снова начинает расти, то есть бэкап разгоняется, создавая большую нагрузку.
Конечно же, включение функции Backup I/O Control увеличивает требования к окну резервного копирования, зато позволяет на абсолютно понятном уровне установить устраивающие значения для хранилищ, превышать которые задачи Veeam B&R не будут. Очень удобно.
Для версии Veeam Backup and Replication Enterprise такие настройки можно установить только глобально, а вот в версии Enterprise Plus это уже можно сделать для каждого датастора в отдельности:
Продолжаем следить за новостями с VeeamOn. Выпуск Veeam Backup & Replication v8 ожидается в четвертом квартале этого года, то есть вот-вот.
Не секрет, что на рынке для создания отказоустойчивых программных хранилищ для виртуальных машин есть два лидера - это StarWind Virtual SAN (о котором мы часто пишем) и VMware Virtual SAN (продукт компании VMware для своей платформы vSphere).
В таблице ниже мы решили показать, почему StarWind Virtual SAN во многом лучше VMware Virtual SAN, рассмотрев значимые для администраторов технические критерии выбора продукта. Конечно же, это не все критерии и по каким-то параметрам Virtual SAN от VMware будет работать лучше, кроме того продукты представляют собой различные архитектуры построения отказоустойчивых кластеров, но тем не менее в каком-то ракурсе сравнить их все-таки можно.
Итак:
Критерий сравнения
StarWind Virtual SAN
VMware Virtual SAN
Минимальное число узлов кластера
2
3
Максимальное число узлов
Не ограничено (разные кластеры)
32 (один кластер)
Максимальная емкость кластеров
Не ограничена (разные кластеры)
148 ТБ (один кластер)
Наличие Flash-накопителей (SSD)
Не требуется
Обязательно
Тип RAID
Любой
Только 5, 10
Наличие коммутатора 10G
Не обязательно
Обязательно
Технология дедупликации
Встроенная (in-line)
Отсутствует
Поддержка создания кластеров хранилищ для ВМ Hyper-V
Да
Нет
Кэш
В памяти (WB or WT) или Flash cache
Только Flash cache
Более подробно о новых возможностях восьмой версии StarWind Virtual SAN можно узнать вот тут, а тут доступен документ со сравнением платного и бесплатного изданий продукта.
Таги: StarWind, Virtual SAN, Сравнение, VMware, vSphere, Storage, HA, iSCSI
Не так давно мы писали о новых возможностях лидирующей на рынке платформы виртуализации VMware vSphere 6, которая на данный момент доступна в публичной бета-версии.
Одной из новых возможностей был заявлен механизм vSphere APIs for IO Filtering (VAIO - как ноутбуки от Sony), который позволяет получать прямой доступ к потоку ввода-вывода (I/O Stream) гостевой ОС виртуальной машины. Несмотря на то, что об этой штуке писали достаточно мало, механизм VAIO в будущем будет способствовать созданию множества партнерских продуктов для решения самых разнообразных задач. VAIO основан на механике Storage Policy Based Management (SPBM), которая предназначения для управления хранением виртуальных машин.
Техническая реализация данного механизмв подразумевает использование драйвера VAIO (filter driver), который устанавливается на хосте VMware ESXi как пакет VIB и не требует установки никакого специального ПО в гостевой ОС виртуальной машины. Работает он на уровне VMDK-диска отдельной ВМ и позволяет не только получать данные из потока ввода-вывода, но и изменять его при течении данных в ту или другую сторону.
Это открывает возможности для применения VMware VAIO при решении следующих типов задач:
Encryption – стороннее ПО за счет использования механизма VAIO может на лету шифровать и расшифровывать поток данных от виртуальной машины. Таким образом на хранилище будут помещаться уже шифрованные данные. Гранулярность работы VAIO позволяет обслуживать данные идущие даже не от всей виртуальной машины, а только от одного приложения.
De-duplication - этот механизм уже использует решение VMware Virtual SAN. В реальном времени можно дедуплицировать данные, проходящие через драйвер и в таком виде уже класть на хранилище в целях экономии дискового пространства. Теперь это станет доступно и партнерам VMware.
Tiering - данные различной степени важности, критичности или классифицированные по другим критериям теперь можно класть на хранилища с разными характеристиками производительности и доступности (ярусы). Механизм VAIO тут поможет проанализировать характер данных и определить конечное их место назначения.
Analytics - теперь можно анализировать непосредственно поток данных от конкретной виртуальной машины и на основе этого строить множество различных решений, включая решения по кэшированию (например, такой продукт как CahceBox можно будет напрямую подключить к гипервизору). Затем можно, например, искать в трафике данные определенных приложений, либо, например, использовать механизм write-back кэширования.
На первом этапе запуска технологии VAIO компания VMware решила остановиться на двух путях ее имплементации:
1. Возможности кэширования данных на SSD-накопителях (write-back кэширование для операций записи). Дизайн-документ для API тут делала компания SanDisk, которая первой будет использовать VAIO в своих продуктах. Вот их презентация:
А вот технология write-back кэширования на стороне сервера с использованием механизма VAIO:
2. Возможности высокопроизводительной репликации. Реализация данного аспекта VAIO позволит получать прямой доступ к потоку ввода-вывода и сразу же передавать его на другой хост, не прибегая к дополнительным механизмам, которые сегодня используются для реализации техник репликации. На данный момент заявлено, что такой тип репликации будет поддерживать ПО EMC RecoverPoint, команда которого принимала участие в разработке техники VAIO.
Однако несмотря на все плюсы технологии vSphere APIs for IO Filtering, в ней есть и негативные стороны:
Во-первых, это вопрос надежности. Так как между виртуальной машиной и хранилищем есть дополнительное звено, которое может рухнуть, понижается и совокупная надежность платформы виртуализации.
Во-вторых, это вопрос производительности. Прослушка трафика посредством VAIO неизбежно создает нагрузку на аппаратные ресурсы хоста ESXi.
В-третьих, это вопрос безопасности. Представим, что я написал софт, который прозрачно шифрует и расшифровывает трафик отдельной виртуальной машины на хосте ESXi, после чего внедрил его в инфраструктуру предприятия, где все это произошло незаметно для пользователей и администраторов. Затем я просто убираю это ПО из гипервизора (например, при увольнении), после чего данные на хранилищах превращаются в тыкву, а компания сталкивается с серьезной проблемой.
В целом же, подход VMware в данном вопросе очень радует - она открывает партнерам возможности разработки собственных продуктов для решения задач пользователей, а значит предоставляет и неплохую возможность заработать.
Первые реализации механизма vSphere APIs for IO Filtering мы должны увидеть уже в первой половине 2015 года, когда выйдет обновленная версия платформы VMware vSphere 6.
Компания VMware выпустила интересный документ "Microsoft Exchange Server Performance on VMware Virtual SAN", в котором рассматривается случай тестирования нагрузки виртуальных серверов Microsoft Exchange размещенных в кластере Virtual SAN и работающих на серверах VMware ESXi.
В VMware использовали конфигурацию кластера VSAN из пяти узлов (Dell PowerEdge R720xd с процессорами Intel Xeon Processors E5-2650 и 128 ГБ памяти в каждом), на одном из узлов была машина с контроллером Active Directory, а для генерации нагрузки использовался отдельный клиент:
Детальная конфигурация стенда:
В качестве программной платформы использовался Exchange Server 2010, установленный в ОС Windows Server 2008 R2. На каждом хосте было размещено две виртуальных машины с Exchange - роли Mailbox и HUB.
С помощью Exchange Load Generator была сгенерирована нагрузка пользователей отсылающих и получающих письма. Для теста взяли 12 000, 16 000 и 20 000 пользователей с профилем нагрузки 150 отправляемых писем в день. Каждый почтовый ящик был инициализирован в размере 100 МБ.
При тестах Sendmail на указанном количестве пользователей выведен средний результат выполнения операций (Avg) и результат, уложившийся в 95 процентов опытов (95% latency).
Поскольку принято считать, что Latency до 500 миллисекунд для Exchange считается нормальной при отправке писем - то результаты тестов показывают, что такая конфигурация вполне жизнеспособна на десятках тысяч пользователей.
Больше подробностей можно узнать непосредственно из документа.
Компания VMware выпустила интересный и полезный документ в виде таблицы - Virtual SAN 5.5 Validation Guide. Он позволяет решать проблемы, возникшие в кластерах хранилищ VSAN, как на стадии пре-инсталляции, так и после развертывания решения.
Изначально эту таблицу использовали сотрудники технической поддержки VMware для решения проблем, возникающих в среде Virtual SAN, но потом его было решено выпустить публично в целях стимуляции самоподдержки пользователей.
Документ составлен техническими специалистами VMware для своих нужд, поэтому там так предельно много конкретики, что очень полезно администраторам VMware vSphere в повседневной работе.
В первой части рассматриваются засады, которые может получить пользователь при развертывании кластера Virtual SAN, в во второй уже приводятся ситуации, которые могут возникнуть после инсталляции и в процессе эксплуатации решения.
При этом (где это возможно) приводятся шаги vCenter Web Client или сценарии CLI (RVC, ESXCLI, PowerCLI), которые позволят идентифицировать и ликвидировать проблему. Документ живет и постоянно обновляется, поэтому можно периодически заглядывать - не обновилась ли его версия (сейчас это 2.1).
Также очень рекомендуют в целях траблшутинга обращаться к инструменту vSphere Ruby Console (RVC), который позволяет автоматизировать множество задач. Полезные ссылки:
Самое время отвлечься от первых осенних будней и послушать интересных людей (Максу можно задавать вопросы по-русски):
Вебинар пройдет сегодня, 2 сентября, в 20-00 по московскому времени. Регистрируйтесь!
На вебинаре будет обсуждаться тема создания масштабируемого SoFS-кластера хранилищ для виртуальных машин на основе технологии SMB 3.0, которая появилась в Windows Server 2012 R2.
Кстати, будет и раздача слонов: случайным образом будут выбраны 3 участника вебинара, которые получат карточки Старбакса на 20 долларов, а также годовую подписку на журнал Wired.
Скачать пробную версию StarWind Virtual SAN можно по этой ссылке. О возможностях этого продукта мы писали вот тут. Кроме того, есть бесплатная версия этого продукта, скачать которую можно здесь.
На днях компания VMware выпустила долгожданный онлайн-сервис Virtual SAN Sizing Tool, который позволяет оценить необходимые аппаратные мощности, требующиеся для поддержания инфраструктуры хранилищ VSAN на базе локальных дисков серверов VMware ESXi.
В качестве исходных данных утилиты принимается конфигурация типовой виртуальной машины:
а также типовая аппаратная конфигурация хост-сервера ESXi:
Для виртуальных машин вам могут показаться непонятными параметры "Number of failures to tolerate" и "Number of disk stripes per object" - о них мы писали вот в этой статье.
В качестве результата расчетов будет выведена следующая информация:
Число хостов заданной конфигурации, необходимых для поддержания инфраструктуры VSAN.
Размер SSD-диска для дисковой группы HDD на хосте.
Максимумы по числу компонентов в кластере (машины, диски).
Полезная емкость кластера (зависит также от параметра FTT).
Емкость кластера по оперативной памяти.
Кроме того, дается брейкдаун по использованию дисковых емкостей, а также объем оперативной памяти под нужды Virtual SAN на хостах:
При расчетах используются следующие допущения:
Все хосты кластера имеют одинаковый аппаратный профиль, включая число HDD и SSD-дисков, объем памяти и количество ядер CPU.
Предполагается, что у всех виртуальных машин одинаковые требования к хранилищу: как по дисковой емкости и числу дисков, так и по нагрузке на СХД.
Предполагается, что у всех виртуальных машин одинаковая VSAN Policy, то есть параметры FTT и disk stripes per object.
Никаких кнопок для начала расчета нажимать не нужно - данные формируются "на лету". Приступить к работе с VMware Virtual SAN Sizing Tool можно по этой ссылке.
Если вы хотите узнать кое-что интересное о продуктах компании StarWind - поставщика номер 1 в сфере программных решений для создания отказоустойчивых хранилищ, приходите на стенд номер 401 на конференции VMworld 2014, которая проходит с 24 по 28 августа в Сан-Франциско.
26 и 27 августа основатель компании StorageIO, Грег Шульц, проведет 4 живых мини-сессии, где расскажет о тех проблемах, с которыми сталкивается малый средний бизнес при построении серверной инфраструктуры и инфраструктуры хранилищ. Ну и, конечно же, о том, как решать эти проблемы.
Вот расписание сессий Грега:
Как бонус вы получаете шанс выиграть книгу Грега с его подписью и несколько переносных SSD-дисков.
Почти три года назад мы писали про средство VMware I/O Analyzer, предназначенное для генерации нагрузки и анализа статистики ввода-вывода хостов VMware ESXi, доступное на сайте проекта VMware Labs. Не так давно вышло обновление этого средства, которое, как оказалось, живет и развивается.
VMware I/O Analyzer поставляется в виде виртуального модуля (готовой ВМ), предоставляющего администраторам следующие возможности:
Интегрированный фрейворк для тестирования производительности хранилищ средствами генераторов нагрузки.
Готовый к развертыванию виртуальный модуль (управляющая ВМ и "воркеры" - генераторы нагрузки).
Прост в настройке и возможность исполнения тестов на одном или нескольких хостах ESX/ESXi.
Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС.
Возможность экспорта данных для последующего анализа.
Средства "повторения" нагрузки на хранилища путем ее воспроизведения из трейса ввода-вывода.
Возможность загрузки трейсов ввода-вывода для автоматического извлечения необходимых метрик.
Графическая визуализация метрик и результатов анализа производительности.
В обновленном VMware I/O Analyzer 1.6.x появились следующие возможности:
Улучшенный планировщик заданий ввода-вывода.
Сам виртуальный модуль теперь на платформе SLES 64-bit, а сервер на Tomcat 6.
Экспериментальная поддержка статистик клиента NFS.
Возможность использования непостоянной (non-persistent) конфигурации (без сохранения настроек).
Сама ВМ с I/O Analyzer теперь версии 7, что позволяет запускать и использовать ее в ESX/ESXi 4.x.
Улучшения на бэкэнде, позволяющие поддерживать до 240 и более генераторов нагрузки.
На самом деле с 2011 года много что изменилось в этом продукте, поэтому ознакомьтесь с юзер-гайдом, в котором есть история добавления фичей по версиям.
Скачать VMware I/O Analyzer можно по этой ссылке. Очень хорошо, что подобные утилиты не ограничиваются одним релизом, а развиваются и обрастают функционалом.
Как вы знаете, автор этого сайта придерживается правила "лучше переставлять, чем обновлять" (когда речь идет о мажорных версиях продукта - см., например, вот тут и тут).
В VMware vSphere 5.0 компания VMware обновила свою кластерную файловую систему до версии VMFS 5. При этом в vSphere 5.x тома VMFS-3 поддерживаются, а также доступен апгрейд с третьей версии на пятую (напомним, что в пятой версии появилась поддержка дисков в 64 ТБ). Более подробная информация об апгрейде VMFS приведена в документе "VMware vSphere VMFS-5 Upgrade Considerations".
Так вот, апгрейженный том VMFS-5 имеет ограниченную функциональность в отличие от созданного заново тома, а именно:
Апгрейженный том продолжает использовать исходный размер блока (в новой версии VMFS 5.x размер блока унифицирован - 1 МБ). Это иногда может привести к чрезмерному потреблению места на диске (если много мелких файлов), но что самое неприятное - к падению производительности Storage vMotion.
Апгрейженный том не имеет таких возможностей как Sub-Block Size, увеличенное число файлов на хранилище и разметка GPT.
Обновленный том VMFS-5 продолжает иметь раздел, начинающийся с сектора 128, это может вызвать некоторые проблемы с выравниванием блоков. Новый раздел VMFS 5 начинается с сектора 2048.
Таким образом, получается, что лучше создать новый том VMFS-5, чем обновлять существующие тома VMFS-3. Но это все было давно, ну а вдруг у вас остались такие вот обновленные VMFS, из-за которых у вас иногда что-то работает не так?
Проверить, какой у вас том, можно в vSphere Client или vSphere Web Client. Смотрим размер блока:
Если он не 1 МБ - то это точно апгрейженный том, и его неплохо бы пересоздать. А вот если 1 МБ, то вовсе не факт, что это новый том (как раньше, так и сейчас был такой размер блока). В этом случае вам поможет вот этот скрипт, который выводит список всех томов VMFS и показывает, новый это том или апгрейженный.
Запустить этот скрипт можно таким образом:
1. Загружаем его и переименовываем его в check_vmfs.sh, убрав расширение .doc.
2. Копируем скрипт на виртуальный модуль vMA. Можно также запускать скрипт локально на сервере ESXi - для этого его туда надо загрузить через Veeam FastSCP или WinSCP.
3. Включаем демон SSH на хостах ESXi, где вы будете выполнять скрипт. (в vSphere Client нужно зайти в Configuration \ Software \ Security profile \ Services \ SSH).
4. Удаленно выполнить скрипт на серверах через SSH можно с помощью команды:
ssh root@<ESXi IP> 'ash -s' < ./check_vmfs.sh
Далее попросят пароль и будет выведен результат работы скрипта.
Здесь нужно смотреть на значение Sub Blocks, если Sub Blocks = 3968, то это апгрейженный VMFS-5, и его неплохо бы пересоздать. У нормального VMFS-5 значение Sub Blocks равно 32000.
Такое вот работающее правило "лучше переставлять, чем обновлять". Любители PowerShell могут также посмотреть вот эту статью.
В этом посте мы сравним дисковые массивы DotHill 3730 и NetApp 5412. Сравнение и тестирование проводилось с целью определить целесообразность смены систем хранения данных DotHill на СХД NetApp. Один из заказчиков ИТ-ГРАД много лет использовал дисковые массивы DotHill 3730 для хранения всякого нужного, но пришло время их менять. Не то чтобы они были плохие, просто за несколько лет эксплуатации накопились обиды...
Те из вас, кто еще застал VMware ESX 2.x-3.x, наверняка помнят, что в VMware vSphere несколько лет назад иногда возникала проблема некорректного выравнивания блоков на двух уровнях - гостевой ОС по одношению к VMFS и VMFS по отношению к блокам дискового массива (подробнее здесь и здесь):
В такой ситуации смещения блоков на разных уровнях (гостевая ОС, VMFS, дисковый массив) чтение одного кластера в ОС виртуальной машины потенциально могло привести к чтению сразу трех чанков дискового массива.
Были даже специальные утилиты (о них мы писали тут и тут), которые занимались этой проблемой и позволяли получить вот такую правильную картинку, где чтение одного кластера в гостевой ОС приводило к чтению только одного чанка дискового массива.
Выравнивание на стороне файловой системы VMFS было реализовано еще в VMFS-3 (для vSphere 3.x и 4.x), где стартовый Logical Block Address (LBA) выставлялся в значение 128, а в VMFS-5 (начиная с vSphere 5.x) выравнивается по LBA 2048.
Корректное выравнивание в гостевых ОС Windows было также реализовано достаточно давно, начиная с Windows Server 2008 и Windows Vista (естественно, и в версиях 7/8 тоже), начало партиций уже выровнено как положено.
Как же дела обстоят с хранилищами VMware Virtual SAN, которые не используют VMFS?
Тут надо понимать два момента:
1. Virtual SAN использует свое собственное нативное хранилище объектов, и не использует VMFS, поэтому проблем VMFS<->хранилище и VMFS<->гостевая ОС не существует.
2. Проблема гостевая ОС<->хранилище потенциально может существовать для старых ОС (например, Windows Server 2003), однако даже в этом случае она будет мало влиять на производительность.
И вот почему проблема выравнивания блоков в среде VMware VSAN является надуманной:
1. Все операции записи идут через SSD-накопитель как буфер, где они складываются в пачки и только потом идут на HDD, соответственно, импакта тут нет.
2. Операции чтения также обслуживаются кэшем на SSD (vFRC), поэтому тут тоже почти не будет потерь производительности в невыровненной конфигурации.
Поэтому, вывод один - не заморачивайтесь проблемой выравнивания блоков в среде VMware Virtual SAN.
Как известно, огромное количество системных администраторов используют бесплатную платформу виртуализации VMware ESXi Free (он же vSphere Hypervisor). Почти все они интересуются вопросом, как организовать надежное хранилище для виртуальных машин, не покупая дорогостоящие аппаратные СХД.
На мероприятии будет рассказано о технических аспектах решения номер 1 на рынке для создания программных iSCSI-хранилищ под VMware vSphere - StarWind Virtual SAN (мы писали о нем вот тут), а также об экономических составляющих решения. Напомним, что у продукта есть бесплатное издание с возможностями отказоустойчивости узлов хранилищ (ограничение только по объему хранения), что является беспрецедентным предложением на рынке.
Ну и пришедшим на вебинар - невероятный бонус: будет разыгран один бесплатный билет на конференцию VMware VMworld 2014 US, а также пять бесплатных билетов на выставку VMworld US 2014 (expo passes). Победитель будет выбран случайным образом в конце мероприятия.
Может быть кто-то из вас в курсе: был такой стартап StorSimple, производивший облачные системы хранения данных, купленный в 2012 году компанией Microsoft. Подход StorSimple подразумевает хранение часто используемых данных на стороне частного облака компании и передачу остальных данных в публичное облако Microsoft Azure. То есть это решение, помимо, собственно, хранения данных, выступает еще и как Cloud Storage Gateway (напомним также, у Amazon есть подобное решение).
Тома на этих массивах (сделаны они на базе хранилищ Xyratex - сейчас это Seagate) доступны по интерфейсу iSCSI (ожидается поддержка SMB), в качестве накопителей используются диски SSD и SAS. Данные уровня Tier 1 хранятся на этих дисках, а редко используемые данные перемещаются в облако Azure, при этом создается как бы "растянутый" том между локальным и облачным хранилищем. При этом, конечно же, данные продолжают оставаться доступными пользователям - они только испытывают несколько бОльшие задержки при доступе к ним. Основное назначение массивов StorSimple - неструктурированные данные, то есть "файловые помойки" из документов Office и т.п. При этом пользователи получают такие бонусы облачной инфраструктуры, как Disaster Recovery и прочее.
На прошлой неделе компания Microsoft сделала сразу несколько интересных анонсов, касающихся решений StorSimple:
Новый облачный сервис "Microsoft Azure StorSimple".
Массивы StorSimple 8100 и 8600
Сырая емкость массива StorSimple 8100 составляет 15 ТБ, а массива 8600 - 40 ТБ. За счет использования технологий компрессии и дедупликации данных можно достичь 75 ТБ эффективной емкости для модели 8100 и 200 ТБ для модели 8600. Если же используются облачные хранилища Azure, то совокупный объем хранения на устройство может достигать 200 ТБ и 500 ТБ соответственно.
Эти массивы будут доступны к заказу с 1 августа 2014 года. Полные спецификации на них доступны по этой ссылке, а краткая информация по их возможностям доступна тут.
StorSimple Virtual Appliance
Виртуальный модуль StorSimple Virtual Appliance размещается на стороне публичного облака Windows Azure и позволяет проводить репликацию данных в виртуальные машины с массивов StorSimple серии 8000 (более ранние не поддерживаются) в облако. Далее можно уже получать доступ к этим данным, не затрагивая производственное окружение (например, анализ данных).
Также важным моментом тут являются возможности восстановления в случае сбоя - если вы потеряете аппаратный модуль StorSimple, то всегда сможете восстановить данные, отреплицированные в облако.
При этом восстановление в случае сбоя хранилища StorSimple или потери данных выглядит очень элегантно - вы просто монтируете тома с сервиса Azure к новому или уже существующему дисковому массиву StorSimple.
Сервис Microsoft Azure StorSimple
Одновременно с запуском новых массивов и виртуальных модулей компания Microsoft анонсировала и новый сервис Azure StorSimple, который и обеспечивает управление гибридной инфраструктурой хранения.
Центральная консоль Azure StorSimple Manager позволяет из единой точки управлять дисковыми массивами серии 8000, а также виртуальными модулями StorSimple Virtual Appliance:
Из нее же и происходит бэкап и восстановление данных из облака, здесь же отслеживается производительность и заполненность доступных емкостей хранилищ.
Более подробнее о семействе решений StorSimple можно узнать на этой странице (а также в блоге Microsoft). Кстати, если кому-то интересна стоимость решений, то вот штатовский прайс:
За модель 8600 придется отвалить аж 170 килобаксов. Не знаю, нужно ли кому-то такое решение у нас тут, не привыкших к таким дорогим штукам.
Как мы писали недавно, в новой версии платформы VMware vSphere 6, которая сейчас находится в стадии публичной беты, появились возможности использования томов VVols (о которых мы писали здесь). Сейчас эта функциональность также находится в бете и доступна для загрузки вот тут.
Концепция VVol (она же VM Volumes) увеличивает уровень гранулярности работы хост-сервера с хранилищем за счет непосредственных операций с виртуальной машиной, минуя сущности "LUN->том VMFS->Datastore". Тома VVol является неким аналогом существующих сегодня LUN, но с меньшим уровнем гранулярности операций по сравнению с томами VMFS (последние, как правило, создаются из одного LUN). Таким образом, ВМ находится на одном VVol как всадник на лошади.
Чтобы виртуальные машины можно было создавать на томах VVols и производить с ними различные операции, нужно чтобы дисковый массив поддерживал такой интерфейс как vSphere APIs for Storage Awareness (VASA). Через этот API возможна передача функций, обычно выполняемых хостом ESXi, на сторону аппаратного хранилища. Кроме того, есть также интерфейс vSphere Storage API – Array Integration (VAAI), который также используется для offloading'а операций на сторону массива, особенно когда дело касается операций миграции и клонирования ВМ.
Давайте посмотрим, как эти два API (VASA и VAAI) работают с хранилищем при операциях клонирования виртуальных машин, которые часто нужны в инфраструктуре виртуальных ПК на базе VMware Horizon View.
Сценарий 1 - клонирование ВМ в рамках одного контейнера VVol
В этом случае через API VASA вызывается функция cloneVirtualVolume, которая полностью передает на сторону дискового массива операцию клонирования ВМ:
Сценарий 2 - клонирование ВМ в рамках разных VVol
В этом случае все зависит от того, на каких хранилищах находятся данные VVol. Если VVol-a и VVol-b находятся на двух массивах одного вендора, настроенных единообразно, и управляются одним VASA Provider, то в этом случае используется API VASA и вызывается функция cloneVirtualVolume.
Если же VVol-a и VVol-b находятся на одном массиве и настроены по-разному, либо хранилища VVol-a и VVol-b находятся на двух массивах разных вендоров или моделей, то операция через VASA API может не пройти. Тогда происходит переключение на VAAI API, который использует датамувер ESXi (vmkernel data mover) и примитивы VAAI для клонирования виртуальной машины. При этом в случае неудачи передачи операций клонирования на сторону массива датамувер может начать перемещать данные через хост ESXi (подробнее - тут):
Конечно же, предпочтительнее делать все через VASA API - такая операция пройдет быстрее, поскольку в ней не будет задействован хост ESXi. Поэтому тут важна унификация конфигурации хранилищ и дисковых массивов в инфраструктуре. Ну и надо, конечно же, смотреть, чтобы закупаемые массивы в полной мере поддерживали VASA и VAAI.
Сценарий 3 - клонирование ВМ с тома VMFS на VVol
Если получается так, что ВМ надо склонировать с тома VMFS на хранилище VVol, то тут будет работать только операция XCOPY / WRITE_SAME интерфейса VAAI.
При этом работает это только для операции в направлении VMFS->VVol, при обратном клонировании этот API использован не будет.
Узнать больше о томах VVol и позадавать вопросы на эту тему вы можете на специальной странице Virtual Volumes beta community.
Как мы уже много писали, компания StarWind не так давно выпустила финальную восьмую версию своего решения номер 1 - StarWind Virtual SAN V8, предназначенного для создания отказоустойчивых хранилищ для VMware vSphere и Microsoft Hyper-V. О новых изданиях продукта вы можете узнать из нашей статьи вот тут.
Если вы уже попробовали StarWind в своей тестовой среде (а особенно просто сделать это с помощью бесплатного комплекта для виртуализации от StarWind) и готовы к приобретению продукта, но денег прямо сейчас нет, вы можете получить лицензии для производственной среды при условии их оплаты в течение 90 дней с момента подписания счета (заказа).
Торопитесь, акция действует только до 31 июля. Чтобы принять в ней участие - пишите на sales@starwindsoftware.com.
Напомним основные возможности продукта StarWind Virtual SAN:
Отказоустойчивость узлов типа Active-Active.
Возможность создания двух или трехузловой конфигурации кластера хранилищ.
Как многие из вас знают, в платформе виртуализации VMware vSphere есть множество удобных средств работы с хранилищами, включая средства позволяющие расширить том VMFS прямо из GUI клиента vSphere Client - достаточно лишь сделать Rescan HBA-адаптеров. Однако если необходимо расширить локальный том (Local VMFS), то тут встроенных средств уже нет, и все нужно аккуратно делать самому, как это описано в KB 2002461. Приведем здесь этот процесс, проиллюстрировав его скриншотами.
Недавно компания VMware выпустила интересный документ "VMware Virtual SAN Ready Nodes", в котором приведены примеры серверных конфигураций от различных производителей, которые подходят в качестве узлов отказоустойчивого кластера хранилищ VMware Virtual SAN.
В обновленной версии документа были удалены некоторые старые конфигурации серверов, а новые добавлены. В ближайшие несколько недель ожидается пополнение документа новыми моделями и конфигурациями узлов.
К каждой спецификации на сервер прилагается профиль нагрузки, для которой предлагается его использовать, например, VDI-инфраструктура с числом виртуальных ПК до 100 или серверная инфраструктура на 60 ВМ. Также прилагается примерная конфигурация виртуальной машины, например:
Пока в документе есть серверы только четырех производителей (но скоро точно будет больше):
Dell
Fujitsu
HP
SuperMicro
Также у компании VMware на тему выбора и сайзинга кластеров Virtua SAN есть полезный документ "Virtual SAN Hardware Quick Reference Guide", где рассматриваются различные профили нагрузок виртуальных машин, размещенных на хранилищах отказоустойчивого кластера VSAN.
В первой таблице документа в столбцах приведены примеры нагрузок (например, полные клоны виртуальных десктопов или средняя серверная нагрузка), а в строчках рассматриваются различные аппаратные характеристики узлов, такие как вычислительные мощности, число дисков и их емкость, память, сетевые адаптеры и т.п.:
Также в документе есть рекомендации по сайзингу кластера хранилищ, а также рекомендуемым аппаратным характеристикам (например, число дисковых групп или необходимая минимальная глубина очереди на дисковом контроллере).
Многие администраторы в небольших компаниях, которые начинают пробовать виртуализацию, нуждаются не только в самой платформе, но и в дополнительных средствах, таких как:
Средство создания общих хранилищ (если нет выделенного массива).
Средство резервного копирования виртуальных машин.
Средство для мониторинга виртуальной инфраструктуры.
Если вы попробуете сделать это на VMware, то у вас вряд ли это получится бесплатно с использованием надежных и проверенных средств, а вот на Hyper-V такая возможность есть.
Компания StarWind Software предлагает загрузить и установить комплект средств "Free Virtualization", которые позволят вам создать полностью бесплатную инфраструктуру на платформе Microsoft Hyper-V Server:
Кликнув на любую из картинок выше, вы получите набор следующих бесплатных утилит:
StarWind Virtual SAN Free для создания отказоустойчивой инфраструктуры iSCSI-хранилищ (вот тут мы писали о его новых возможностях, а здесь - про бесплатную версию).
5nine Manager Free for Hyper-V для мониторинга и одновременного управления несколькими хостами Microsoft Hyper-V Server (по-сути, это очень неплохая альтернатива System Center Virtual Machine Manager, мы писали о нем вот тут, а также здесь).
Этот комплект - отличное решение для быстрого старта с виртуализацией от Microsoft. Так что попробуйте - скачивайте комплект Free Virtualization. Бесплатный гипервизор Microsoft Hyper-V Server можно загрузить по этой ссылке.
Публикуем очередной гостевой пост компании ИТ-ГРАД. Никто не скажет лучше про продукт, чем пиарщики его вендора. Поэтому мы просто процитируем одну из брошюр NetApp о новоиспеченной E2700 серии: СХД NetApp E2700 представляет собой простое решение для хранения данных в средах SAN. Она легко интегрируется практически в любые среды хранения данных, основанные на приложениях, предлагает множество вариантов хостингового подключения и поддерживает различные типы дисков и дисковых полок...