Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Как VMware продолжает менять подход к ИТ-инфраструктуре: концепция vVOL для хранилищ виртуальных машин vSphere.

Как VMware продолжает менять подход к ИТ-инфраструктуре: концепция vVOL для хранилищ виртуальных машин vSphere.

Автор: Александр Самойленко
Дата: 06/09/2012

Начать нужно издалека. Когда разрабатывались средства для создания и управления ИТ-инфраструктурой предприятий, они, конечно же, не были рассчитаны на то, что когда-нибудь мир изменится и виртуализация станет основой ИТ в большинстве крупных компаний. Начав с использования технологий полной и частичной программной эмуляции в продуктах VMware Workstation и ESX Server первых версий, компания VMware (и не только она) заставила производителей процессоров поверить, что их изначально необходимо делать с поддержкой виртуализации, то есть передать часть функций программной платформы на сторону CPU в целях улучшения производительности и простоты управления гостевыми ОС со стороны гипервизора. Так появились технологии аппаратной виртуализации Intel VT и AMD-V, для которых уже не требовалось больших трудозатрат в человеко-кодочасах на написание и модернизацию гипервизора.

Для виртуализации оказались также неудобны физические коммутаторы, поэтому VMware сделала софтверные коммутаторы vSwitch, работающие на уровне ядра VMKernel, которые позволяли гибко управлять политиками VLAN (и другими политиками) на уровне групп портов этих программных сущностей. Потом появился распределенный коммутатор VMware Distributed Switch, который объединял софтовые vSwitch в целях обеспечения централизованного управления сетевой инфраструктурой и снижения трудозатрат на администрирование. В это время производители смекнули, что коммутатор можно запихнуть в сетевую карту и сделали технологию SR-IOV, которая также представляет собой изменения видения вендоров "железа" под воздействием популярности виртуализации (технология поддерживается и в vSphere 5.1). Когда стало понятно, что традиционной концепции VLAN не хватает, поскольку появился новый тип бизнеса IaaS - придумали технологию VXLAN, которая также требует поддержки со стороны аппаратного обеспечения.

С точки зрения хранилищ, компания VMware тоже внесла инновации в традиционный подход - она предложила передать часть функций по управлению объектами виртуальной инфраструктуры на сторону дисковых массивов. Так появился механизм VAAI, который, будучи поддерживаемым со стороны вендоров СХД, позволяет в разы увеличить производительность некоторых операций в виртуальными машинами на хранилищах, а значит, это создает вендорам массивов дополнительное преимущество. Поэтому и на этот раз им пришлось следовать за трендом и реализовать поддержку VAAI в своих хранилищах.

Теперь VMware увидела новую проблему, мешающую движению виртуализации вперед: логическая единица хранилищ - LUN.

Когда создавались дисковые массивы для традиционных физических серверов, производители справедливо полагали, что LUN будет использоваться либо одной ОС как диск, либо небольшим кластером как общий диск. Потом пришла VMware и адаптировала концепцию LUN к своему продукту, сделав кластерную файловую систему VMFS, которая будучи развернута в рамках одного или нескольких LUN позволяет предоставить одновременный доступ к их содержимому со стороны нескольких хостов ESX / ESXi. Эта файловая система зарекомендовала себя очень хорошо, и больших неудобств пользователи не испытывали до того, как их инфраструктура становилась очень крупной.

В большой виртуальной инфраструктуре присутствуют сотни хранилищ VMFS, созданных поверх LUN, где лежат виртуальные машины с различным уровнем требуемого сервиса и политик. Проблемы начинаются с того, что система хранения не знает о том, что на ее LUN находятся виртуальные машины. Например, синхронная репликация на уровне массива может делаться только на уровне LUN, хотя с данного тома VMFS требуется реплицировать не все ВМ, которые могут быть с различным уровнем критичности. То же самое касается снапшотов и снапклонов уровня массива, а также технологий резервного копирования. Конечно же, все это можно обойти, сделав репликацию и резервное копирование с помощью Veeam Backup and Replication или vSphere Replication и vSphere Data Protection, однако это задействует ресурсы хоста и не настолько производительно. Можно сделать дизайн инфраструктуры из расчета 1 машина на LUN, однако это создает сложности управления томами VMFS (управление путями, политики и т.п.), да и зачем вообще тогда нужна VMFS?

Поэтому VMware решила пойти в традиционном направлении: "заставить" производителей массивов считаться с виртуальными машинами. Так появилась концепция vVOL (она же VM Volumes), которая увеличивает уровень гранулярности работы хост-сервера с хранилищем за счет непосредственных операций с виртуальной машиной, минуя сущности "LUN->том VMFS->Datastore".

На этой картинке мы видим, что в традиционной модели, которая есть сейчас, N хост-серверов создают с M томами дискового массива N x M связей, которые создают большую нагрузку на дисковые ресурсы. Например, в концепции VDI, где десктопы используют тонкие диски, растущие по мере наполнения их данными, операции с одним десктопом (выделение блоков) влияют на производительность всего тома и все виртуальных машин на нем, поскольку требуются операции с метаданными тома VMFS. VMware решила устранить эту проблему на корню, взявшись за то, чтобы массив позволял оперировать с отдельной виртуальной машиной на хранилище, не затрагивая остальные ВМ на нем.

Таким образом, vVOL является неким аналогом существующих сегодня LUN, но с меньшим уровнем гранулярности операций по сравнению с томами VMFS (последние, как правило, создаются из одного LUN). То есть, vVOL - это низкоуровневое хранилище одной виртуальной машины, с которым будут позволены операции на уровне массива, которые сегодня доступны для традиционных LUN - например, снапшоты дискового уровня, репликация и прочее. Проще говоря, VMDK-диск машины нужно хранить как отдельную сущность уровня хранилищ в виде vVOL, тогда с ней можно будет работать отдельно, без влияния на другие ВМ этого массива.

Выглядит все это так:

Но как же быть, например, с тем, что один хост ESXi поддерживает до 256 LUN, с которыми он может взаимодействовать? Очень просто - в массиве должно быть устройство, называемое "IO Demultiplexer" или "IO Demux", которое представляет собой логический канал ввода-вывода, предоставляющий доступ ко всем дисковым устройствам, где будут размещены тома vVOL виртуальных машин. Такое устройство должно реализовывать политики доступа по нескольким путям уже в самом себе, а за ним могут находиться тысячи виртуальных машин. Очевидно, что это устройство нуждается в резервировании. Самое интересное тут то, что в рамках данной концепции нивелируются различия между NAS и блочными FC или iSCSI-хранилищами в плане работы с дисками ВМ.

Здесь также появляется еще одна проблема - как быть, если администратор VMware vSphere может создавать бесконтрольно виртуальные машины, оперируя уровнем хранилищ, а администратор систем хранения так об этом и не узнает? Для этого есть концепция емкостных пулов (Capacity Pools), которые создает администратор СХД, определяя уровень доступной емкости в пуле и политики, ограничивающие спектр низкоуровневых операций в этом пуле.

Для того, чтобы удовлетворять показателям уровня обслуживания (QoS), была придумана концепция профилей хранилищ (Profiles), на уровне которых администратор может задавать требуемые параметры производительности и политики данных, которые могут быть применены как на уровне vVOL, так и на уровне Capacity Pool.

Текущие техники оптимизации хранилищ, такие как Storage DRS, SIOC, VASA и VAAI - это шаги в правильном направлении, однако их недостаточно, чтобы обеспечить максимальный уровень гибкости на уровне отдельных виртуальных машин в большой инфраструктуре. Поэтому концепция vVOL может помочь это сделать в будущем. Все это органично вписывается в концепцию программно-определяемых хранилищ (Software Defined Storage), по аналогии с Software Defined Networking, обе которых являются частями глобальной концепции Software Defined Datacenter.

Ну и на закуску - демка с VMworld 2012 функциональности vVOL, где происходят следующие вещи:

  • Механизм vSphere Data Protection хочет сделать резервную копию ВМ.
  • В качестве хранилища используется EMC VNXe, в котором есть поддержка прототипа VM Granular Storage.
  • ВМ находится в "Capacity Pool" на томе "Virtual Volume", для которого определены политики, в том числе "VM-accelerated snapshots".
  • В экспериментальной сборке vSphere используется VM Granular Storage API, с помощью которого делается высокопроизводительный Virtual-Volume level snapshot в целях дальнейшего резервного копирования машины

Все это выглядит круто, осталось только производителям дисковых массивов вздохнуть и взяться за новую трендовую концепцию.

Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge