Новости Статьи VMware Veeam StarWind vStack Microsoft Nakivo Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6320 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Вышел VMware Horizon View 6.1 - новые возможности и поддержка vGPU.

16/03/2015

Компания VMware на днях сделала доступной для загрузки не только серверную платформу виртуализации VMware vSphere 6, но и решение для виртуализации настольных ПК VMware Horizon View 6.1. Напомним, что прошлая версия VMware View 6.0 вышла весной прошлого года.

В новой версии продукта появилось множество новых улучшений, таких как поддержка новой версии Virtual SAN 6.0 и возможность размещения до 200 виртуальных ПК на одном хосте, что позволяет снизить стоимость владения инфраструктурой до 50%.

Итак, список новых возможностей VMware Horizon View 6.1:

1. Поддержка новых платформ.

Теперь Horizon View поддерживает больше функций в виртуальных ПК: заявлена расширенная поддержка RDS-десктопов, устройств Chromebook, а также виртуальных ПК Linux. Это звучит многообещающе:

Теперь в качестве гостевой ОС виртуального ПК можно использовать Windows Server 2012 R2, который выглядит как Windows 8:

Устройства Chromebook, ставшие популярными в некоторых нишах (например, в обучении), тепер могут быть полноценно использованы как клиенты VMware View (клиент изготовлен на базе Android-клиента) за счет функций App remoting.

Ну и самое интересное - теперь поддерживаются виртуальные ПК Linux:

2. Поддержка vGPU.

Об этом мы уже детально писали вот в этой статье про vGPU. Режим vGPU позволяет предоставить ресурсы видеокарты (GPU) напрямую сразу нескольким виртуальным машинам (режим vGPU). Использовать это можно только с VMware vSphere 6 и более поздними версиями. Обеспечивается средствами virtual hardware version 11.

Наглядная архитектура:

3. Улучшения хранилищ.

Во-первых, появилась полноценная поддержка Virtual SAN 6.0. Если раньше поддержка VSAN была ограниченной (например для версии 5.3.1 не поддерживались Sparse-диски, то теперь все полноценно работает.

Теперь актуальны следующие максимальные значения хранилищ VSAN:

  • Вместо 100 - до 200 десктопов на хост.
  • Вместо 1600 - до 4000 виртуальных ПК на кластер VSAN.
  • Вместо 16 - до 20 хостов в кластере Virtual SAN.
  • Существенно расширенный список совместимости (HCL).
  • До 2000 десктопов на view block в одном кластере VSAN.

Во-вторых, теперь поддерживается перенаправление локальных USB-устройств (их список ограничен) в виртуальных ПК RDSH на платформах Windows Server 2012 и 2012 R2.

В-третьих, появилось перенаправление локальных дисков в виртуальный ПК RDSH:

Эта функция поддерживается в нативном режиме (то есть, не через перенаправление), а поэтому работает быстро.

4. Работа с VMware NSX.

View Horizon начинает потихоньку встраиваться в инфраструктуру виртуализации сети VMware NSX. Теперь сетевые политики NSX могут "путешествовать" вместе с виртуальной машиной при ее перемещении между датацентрами или даже городами.

5. Поддержка IPv6.

Теперь IPv6 полностью поддерживается, также как и FQDN, для всех клиентов. Только в нативном режиме (не mixed mode).

6. Улучшения архитектуры Cloud Pod.

Теперь интерфейс View Administrator используется для создания и управления инфраструктурой Cloud Pod. Ранее это можно было делать только через командную строку (CLI).

Всеми географически распределенными площадками теперь можно полноценно управлять из одной точки.

7. Поддержка Virtual Volumes (VVols).

О технологии Virtual Volumes, которая позволяет отдать нагрузку по большинству операций с хранилищами ВМ на сторону массива, мы уже писали вот тут.

Теперь VMware View 6.1 нативно поддерживает VVols для SAN/NAS устройств. Реализация этой технологии, напомним, зависит от вендора "железа".

Также появилось еще несколько мелких улучшений, полный список которых доступен по этой ссылке. Скачать VMware View 6.1 можно вот тут.

All-Flash массив FAS2552A - отличный старт для всех!

15/03/2015

Производительность, готовность и большой объем дискового пространства! Компания ИТ-ГРАД представляет вашему вниманию систему, способную удовлетворить современные требования: All-Flash массив FAS2552A.

Надежная конфигурация

  • Двухузловой кластер FAS2552A (НА-пара) с 12 твердотельными накопителями по 400 ГБ

Множество преимуществ

  • Значительное ускорение работы приложений.
  • Использование флеш-дисков со всеми протоколами (FCP, ISCSI, NFS, CIFS).
  • Больше никаких простоев! Все задачи технического обслуживания (включая техническое обновление и перенос) можно выполнять без отключения системы.
  • Гибкая конфигурация. СХД может быть увеличена до 8 узлов с объемом дискового пространства 3 ПБ3. Возможно перемещение данных без отключения системы.
  • Эффективность хранения данных для всех протоколов.
  • Дедупликация, компрессия и гибкое выделение ресурсов для всех протоколов (FCP, ISCSI, NFS, CIFS).
  • Удобное резервное копирование и аварийное восстановление.
  • Функция резервного копирования Snapshot с интеграцией приложений и гибкие возможности аварийного восстановления в других ЦОД.
  • Корпоративная система хранения данных, проверенная в реальных условиях эксплуатации тысяч установленных систем. Стабильная работа с помощью Data ONTAP, лучшей в мире операционной системы для СХД, а также широкий спектр сервисов технической поддержки (например, AutoSupport).

Для запроса стоимости FAS2552A обращайтесь в компанию ИТ-ГРАД.

Новые правила лицензирования продукта StarWind Virtual SAN - все стало проще.

15/03/2015

Довольно давно мы писали о лицензировании продукта номер 1 для создания отказоустойчивых хранилищ - StarWind Virtual SAN. С тех пор все стало значительно проще, и на данный момент существуют три издания продукта, приведенные в таблице ниже:

Лицензии StarWind Virtual SAN и доступные функции / дополнения
Краткое описание StarWind Virtual SAN Standard StarWind Virtual SAN Enterprise StarWind Virtual SAN Datacenter

До 4 ТБ хранилищ, защищенных синхронной репликацией (HA), позволяющих также создавать один таргет Non-HA с неограниченной емкостью

Creates up to 4 TB of synchronously replicated volumes (HA), allows for the creation of single targets (Non-HA) with an unlimited capacity.


Лицензия не подлежит апгрейду

В соответствии с лицензиями, можно создать 2 или более узлов, находящихся в режиме отказоустойчивости, с неограниченным объемом хранилищ.

Лицензия на сайт/датацентр включает в себя:

- неограниченное число узлов,
- неограниченную емкость хранилищ.

1 год техподдержи и обновлений (Annual Support and Maintenance, ASM)
Асинхронная/WAN репликация
Не включено

Включает асинхронную репликация на выделенный DR-узел или пассивный узел (приобретается как опция).

Включает асинхронную репликация на выделенный DR-узел или пассивный узел.
Контракт на техподдержку (ASM) для Asynchronous/WAN Replication по датам совпадает с основным контрактом на StarWind Virtual SAN ASM.
Функция Scale-out Node
 Не включено
Позволяет установку еще одного узла с неограниченной емкостью (как для таргетов HA, так и для Non-HA) в целях репликации в рамках существующего кластера.
TheКонтракт на техподдержку (ASM) для функции Scale-Out по датам совпадает с основным контрактом StarWind Virtual SAN ASM contract dates.
 Не включено
Лицензирование StarWind Virtual Tape Library (VTL)
 Описание
VTL Standard: ограничено одним узлом, что позволяет создать Disk-Based Virtual Tape Libraries для целей резервного копирования и катастрофоустойчивости. Ограничение - 4 ТБ емкости.
VTL Enterprise: ограничено одним узлом, что позволяет создать Disk-Based Virtual Tape Libraries для целей резервного копирования и катастрофоустойчивости. Нет ограничений по емкости.
VTL Datacenter: ограничено одним узлом, что позволяет создать Disk-Based Virtual Tape Libraries для целей резервного копирования и катастрофоустойчивости. Лицензия расширяется на любое количество узлов и не имеет ограничений по емкости.
   1 год техподдержки и обновлений (Annual Support and Maintenance, ASM)

Платформа VMware vSphere 6 доступна для скачивания.

13/03/2015

Компания VMware сделала доступной для скачивания новую версию платформы виртуализации VMware vSphere 6.0. Да, продукты ESXi 6.0 и vCenter 6.0 можно устанавливать прямо сейчас:

Новых возможностей VMware vSphere 6.0 так много, что все они не уместятся в одной статье, поэтому приведем тут ссылки на наши заметки с описанием нового функционала платформы:

Вся документация по VMware vSphere 6 доступна по этой ссылке: https://www.vmware.com/support/pubs/vsphere-esxi-vcenter-server-6-pubs.html.

Ссылки на скачивание отдельных продуктов:

В ближайшее время напишем еще что-нибудь интересное про vSphere 6 - stay tuned.

Новые подробности о VMware vCloud Suite 6.0 - теперь без Director и vCNS.

12/03/2015

Как вы все знаете, в ближайшее время ожидается релиз новой версии платформы виртуализации VMware vSphere 6, где будет масса новых возможностей. Помимо, собственно, платформы, компания VMware выпустит также и обновленную версию пакета ПО для создания частного облака предприятия - VMware vCloud Suite 6.0. Не так давно стали известны подробности о составе и условиях лицензирования пакета - попробуем рассказать об этом.

Надо начать с того, что VMware vCloud Suite 6.0 состоит из следующих продуктов (как и прежде, лицензия - на процессоры хост-серверов ESXi):

  • VMware vSphere - платформа виртуализации серверов.
  • VMware vCenter Site Recovery Manager - средство управления аварийным восстановлением на основе политик.
  • VMware vRealize Business - пакет решений для автоматического определения стоимости инфраструктуры и измерения потребления ресурсов.
  • VMware vRealize Automation - решение для автоматизации управления инфраструктурой и приложениями для сред vSphere на основе политик и в режиме самообслуживания.
  • VMware vRealize Operations - ПО для интеллектуального управления производительностью (мониторинг), ресурсами и конфигурациями.

Напомним, что о решениях семейства vRealize мы писали вот тут и тут, а также тут. Под брендом vRealize компания VMware объединяет все решения, предназначенные для управления гибридной инфраструктурой, в том числе средства управления ресурсами на стороне облачных провайдеров (не только VMware), а также средства управления инфраструктурами на базе различных гипервизоров.

Те, кто читал нашу статью о составе пакета VMware vCloud Suite 5.8, помнят, что в нем были две вещи, которые пропали в версии 6.0:

Теперь во все издания vCloud Suite входит решение vRealize Automation (имя издания соответствует изданию vCloud Suite), а в издания vCloud Suite Advanced и Enterprise - решение vRealize Business Standard:

Давайте посмотрим на возможности vRealize Business Standard в сравнениями с более продвинутыми изданиями этого решения (кликабельно):

Ранее vRealize Business Standard назывался IT Business Management Suite, и о нем мы немного писали вот тут. Это решение нужно для биллинга в виртуальной среде, когда вы знаете почасовую стоимость ваших ресурсов (старички помнят его еще как продукт vCenter Chargeback). С тех пор он весьма неплохо нарастил функционал.

  • vCenter Networking and Security (vCNS) - это решение также пропало из состава пакета VMware vCloud Suite 6.0. Когда-то vCNS был универсальным решением по обеспечению безопасности для платформы vSphere 5.1 и облачной инфраструктуры под управлением vCloud Director. Теперь же его функции взяла на себя и расширила платформа VMware NSX (она не входит в состав пакета и приобретается отдельно - но со скидкой для пользователей vCloud Suite).

Многих интересует вопрос - в связи с тем что vCNS снимается с продаж, будет ли возможность развертывать интерфейс безопасности vShield Endpoint? Ответ прост - vShield Endpoint является функцией vSphere. Будет возможность скачать и использовать vShield Manager / vCNS Manager только для установки и администрирования vShield Endpoint. Его функции будут лицензироваться ключом к vSphere. Другие функции vCNS будут недоступны.

Что касается состава пакета и лицензирования - на этом все. В следующих заметках мы расскажем о новых функциях компонентов, как станут известны подробности. Добавим, что есть документ на русском языке "VMware vCloud Suite 6.0 - Лицензирование, цены и комплектация", в котором приведено некоторое количество дополнительной информации о данном пакете продуктов.

Полезная утилита - VMware EUC Upgrade Tool.

11/03/2015

Многие из вас пользуются продуктом для виртуализации настольных ПК VMware View различных версий. Ну и вы, конечно же, знаете, что лицензирование решений для VDI у VMware неоднократно менялось. Поэтому многие из вас имеют, например, лицензии VMware View 4.x Enterprise Bundle на 10 подключений и не знают как переехать, например, на View Horizon 6 по схеме лицензирования на пользователей.

Для таких ситуаций компания VMware выпустила специальный онлайн-сервис EUC Upgrade Tool, позволяющий получить требуемые партномера (SKU), которые можно запросить у вашего поставщика ПО.

Выберем в качестве имеющихся лицензий VMware View Enterprise Bundle, а в качестве целевых - Horizon View Standard:

Из комбо можно выбрать только лицензии по подключениям (CCU), для получения named-лицензий нужно будет сделать еще один апгрейд.

Нажимаем "Show Upgrade Path" и получаем необходимый партномер, который нужно использовать (правда с американской ценой):

Кроме того, есть и картинка по всем вариантам апгрейдов лицензий:

В VMware EUC Upgrade Tool поддерживаются лицензии не только VMware View, но и ThinApp, Workspace и Mirage.

В общем, удобная штука.

Поддержка режима vGPU для карт NVIDIA в VMware vSphere 6.

10/03/2015

Продолжаем рассказывать о новых возможностях платформы виртуализации VMware vSphere 6, выход которой ожидается в самое ближайшее время. Сегодня мы расскажем о поддержке режима vGPU, который позволяет предоставить ресурсы видеокарты (GPU) напрямую сразу нескольким виртуальным машинам (режим vGPU). Напомним, что эта технология уже довольно давно поддерживается в продуктах Citrix (а также в решении RemoteFX от Microsoft), а ее поддержка в платформах VMware была анонсирована в прошлом году на VMworld 2014.

Технология vGPU от NVIDIA при использовании с продуктами VMware подразумевает использование в качестве платформы VMware vSphere 6, а в качестве средства управления виртуальными ПК - VMware Horizon 6 (для этого выйдет специальное обновление с версией 6.1).

vGPU поддерживается для графических адаптеров NVIDIA GRID K1 и K2, для каждой из которых определены 4 профиля для виртуальных ПК, которые используют ресурсы видеокарты. Вот таблица этих профилей:

Всего есть три типа пользователей:

  • Designer - человек, который использует очень требовательные к графическим ресурсам приложения (не только дизайнеры, но и пользователи CAD-приложений).
  • Power User - человек, использующий подобные приложения время от времени.
  • Knowledge Worker - пользователь со сравнительно небольшой нагрузкой на ресурсы видеокарты.

Важно, что в рамках одного физического GPU видеокарты можно использовать только профили одного типа. Взгляните на картинку - как можно, а как нельзя:

Опишем здесь вкратце процедуру настройки использования vGPU с VMware vSphere 6, которая приведена в vGPU Deployment Guide (документ еще не вышел).

Для настройки vGPU необходимы следующие компоненты:

  • VMware vCenter 6.0
  • VMware ESXi 6.0
  • VMware Horizon View 6.1
  • NVIDIA GRID vGPU Manager

Потребуются также настройки BIOS на серверах (для каждого вендора свои). Вот, например, конфигурация Cisco:

  • CPU Performance: выставить в Enterprise или High Throughput.
  • Energy Performance: выставить в Performance.
  • PCI Configuration: выставить MMCFG BASE в 2 GB и Memory Mapped I/O above 4GB: Disabled.
  • VGA Priority: выставить в Onboard VGA Primary.

Далее нужно развернуть на хостах компонент NVIDIA vGPU Manager, который создает связь между GPU видеокарты и виртуальной машиной. Устанавливается он как обычный VIB-пакет:

[root@ESX60-01:~] esxcli software vib install --no-sig-check -v /vmfs/volumes/ISO/vib/NVIDIA-vgx-VMware-346.27-1OEM.600.0.0.2159203.x86_64.vib
Installation Result:
Message: Operation finished successfully.
Reboot Required: false
VIBs Installed: NVIDIA_bootbank_NVIDIA-vgx-VMware_vSphere_6_Host_Driver_346.27-1OEM.600.0.0.2159203
VIBs Removed:
VIBs Skipped:
[root@IUESX60-01:~] esxcli software vib list | grep -i nvidia
NVIDIA-vgx-VMware_ESXi_6.0_Host_Driver 346.27-1OEM.600.0.0.2159203 NVIDIA VMwareAccepted 2015-02-06

После того, как NVIDIA vGPU Manager настроен на хост-серверах ESXi, нужно подготовить виртуальные машины. Делается это через vSphere Web Client. Выберем аппаратные характеристики ВМ в зависимости от типа рабочей нагрузки:

  • Entry Level Engineer / Design Reviewer: 4GB RAM, 2 vCPU
  • Mid Level Engineer: 8 GB RAM, 2-4 vCPU
  • Advanced Engineer: 16 GB RAM, 4-8 vCPU

Затем в настройках ВМ нужно добавить Shared PCI Device:

Выбираем тип NVIDIA GRID vGPU и профиль в соответствии с таблицей, приведенной в начале статьи:

Обратите внимание, что нужно зарезервировать память для виртуальных машин, иначе их просто нельзя будет запустить. То есть, кнопку "Reserve all memory" нужно нажать обязательно. Кроме того, для машин, использующих vGPU, не поддерживаются такие технологии как vMotion, HA, снапшоты - то есть, машина полностью привязана к хосту ESXi.

После этого в виртуальном ПК можно устанавливать гостевую ОС (поддерживается Windows 7 и более поздние версии). Затем нужно установить NVIDIA GRID driver (после этого неплохо бы сделать из такой машины шаблон для дальнейшего ускоренного развертывания новых десктопов):

Кстати, в диспетчере устройств в гостевой ОС виртуального ПК можно посмотреть на драйвер графического адаптера:

Затем нужно соответствующим образом настроить пул виртуальных ПК в VMware Horizon View. Просто указываем протокол PCoIP и тип 3D-рендера NVIDIA GRID VGPU:

Вот, в принципе, и все. После этого виртуальные машины готовы к работе с vGPU в рамках пула виртуальных ПК.

Скидки до 20% на StarWind Virtual SAN - заказывайте сейчас!

06/03/2015

Начало весны - традиционное время специальных предложений от компании StarWind, выпускающей продукт номер 1 для создания отказоустойчивых программных хранилищ для виртуальных машин VMware vSphere и Microsfot Hyper-V (о его функциях - тут).

Прямо сейчас и до конца марта StarWind предлагает скидки на решение Virtual SAN, величина которых будет падать с каждой неделей, поэтому торопитесь сделать заказ сейчас:

Как определяется размер скидки:

  • С 1 по 8 марта - максимальная скидка 20%
  • С 9 по 15 - 15%
  • C 16 по 22 - 10%
  • C 23 по 31 - 5%

Помимо скидок, вы получаете 30-дневный money back на покупку и всегда сможете отказаться от продукта, если он не будет соответствовать вашим требованиям.

Сделать заказ на StarWind Virtual SAN можно на этой странице или по почте sales[at]starwindsoftware.com.

Сжатие данных при передаче (compression) в VMware vSphere Replication 6.0.

06/03/2015

Продолжаем рассказывать о новых функциях платформы виртуализации vSphere 6.0 (для этого у нас есть специальная страница). Сегодня у нас на очереди функции сжатия данных в VMware vSphere Replication 6.0. Функция репликации включена во все издания VMware vSphere, начиная с Essentials Plus (то есть, за бортом только Essentials). Кстати, родственная репликации функция резервного копирования VMware Data Protection 6.0 также есть во всех изданиях, начиная с Essentials Plus.

Начнем с того, что vSphere Replication 6.0 полностью совместима с продуктами VMware Virtual SAN 6.0 и vCenter Site Recovery Manager (SRM). Также в vSphere 6.0 появилась функция сжатия данных сетевого трафика при передаче:

Это снижает требования к ширине канала репликации, что особенно актуально при использовании продукта VMware SRM для обеспечения отказоустойчивости на уровне помещений или датацентров. Делается сжатие средствами библиотеки FastLZ, однако сжатие выключено по умолчанию.

При передаче данных репликации пакеты остаются сжатыми до того момента, пока они не отправляются на запись на диск. Но в некоторых случаях, в зависимости от версий ПО и особенностей архитектуры, сжатие может быть не на всем участке пути данных, или его может не быть вовсе. Пример: репликация vSphere 6.0 при соединении с виртуальным модулем vSphere Replication 5.8 - сжатия не будет. Если же, например, данные хоста ESXi 6.0 идут на виртуальный модуль vSphere Replication 6.0, а дальше на хранилище хоста vSphere 5.5, то данные будут разжаты на виртуальном модуле репликации, а дальше пойдут в обычном виде. Отсюда мораль - старайтесь поддерживать актуальные версии своего ПО на всех компонентах инфраструктуры.

В большинстве случаев достигается коэффициент сжатия данных в диапазоне от 1.6 к 1 до 1.8 к 1. Это приводит к уменьшению времени синхронизации и возможности настройки более строгой политики RPO.

Примеры:

1. ВМ с гостевой ОС Windows и диском в 37.5 ГБ при первой репликации без компрессии синхронизируется за 52 минуты. Когда включили компрессию, 20.2 ГБ данных отреплицировалось за 29 минут. Таким образом, эффективное использование канала выросло с 98 Mbps до 177 Mbps.

2. ВМ с гостевой ОС Linux и 4.7 ГБ данных при первичной репликации синхронизировались за 13 минут. После включения компрессии 2,8 ГБ ушли за 8 минут. Эффективное уменьшение ширины канала - с 49 Mbps до 80 Mbps.

Из минусов - компрессия создает нагрузку на процессор, поэтому нужно ее использовать аккуратно, и потому она отключена по умолчанию. Больше информации о технологии репликации от VMware можно найти в документе "VMware vSphere Replication 6.0 Technical Overview".

Новый документ: vCenter Server 6.0 Deployment Guide.

05/03/2015

В преддверии выпуска обновленной платформы виртуализации VMware vSphere 6.0 (напомним, что наши статьи о ней - здесь) компания VMware рассказывает подробно о различных компонентах решения.

Ранее мы писали о новой архитектуре сервисов управления VMware vCenter в VMware vSphere 6, а на днях VMware выпустила объемный документ "vCenter Server 6.0 Deployment Guide", рассказывающий на 100 страницах о том, как нужно развертывать vCenter в различных конфигурациях (embedded и external), включая обновление с различных версий.

Из интересного можно отметить руководство по использованию утилиты sso-ha, которая появилась в vCenter 6.0, и средств по обеспечению отказоустойчивости компонентов Platform Services Controller.

Содержание документа:

  • Introduction
  • VMware vCenter Server 6.0 Services
  • Requirements
  • Reference Architectures
  • Deploying vCenter Server 6.0
  • Postdeployment Steps
  • Certificate Management

Утилита для миграции сервера VMware vCenter в виртуальный модуль: VCS to VCVA Converter.

04/03/2015

Интересная штука появилась на сайте проекта VMware Labs - средство миграции VCS to VCVA Converter. Эта штука позволяет преобразовать имеющийся у вас сервер VMware vCenter под управлением ОС Windows с внешней БД Microsoft SQL Server в виртуальный модуль (VIrtual Appliance) vCetner Server Appliance на базе Linux со встроенной базой данных vPostgres, который также должен быть у вас в наличии при миграции.

С помощью утилиты (которая также представляет собой виртуальный модуль) можно перенести саму БД, а также роли, пермиссии, привилегии, сертификаты и службу Inventory Service. Результирующий виртуальный модуль vCSA должен иметь тот же IP-адрес, что исходный сервер VMware vCenter, но не должен быть включен при миграции.

Системные требования VCS to VCVA Converter:

  • vCenter Server под Windows - для vSphere 5.5 или более поздней версии.
  • Windows vCenter Server и vCenter Server Appliance должны быть одной версии (например, vCenter Server Windows 5.5 u1 -> VCSA 5.5 u1).
  • vCenter Server Appliance должен иметь как минимум столько же vCPU и памяти, сколько и исходный хост vCenter Server.
  • Компоненты vCenter Components (Inventory Service, vSphere Web Client и VMware Single Sign On) должны быть на том же хосте, что и vCenter Server.
  • Должен быть внешний Microsoft SQL Server 2008 R2 (или более поздний) с vCenter Database (VCDB).
  • vSphere Web Client Plugins должны быть зарегистрированы под пользователем Active Directory.
  • Службы VMware Single Sign On (пользователи и группы) на данный момент не переносятся (нужно заводить заново).
  • Утилита (Migration Appliance) должна иметь возможность взаимодействия с vCenter, его БД и виртуальным модулем vCSA. Следующие порты должны быть открыты на vCenter Server и на VCSA:
    • 22 (ssh)
    • 443 (https)
    • 445 (SMB)

Ограничения утилиты:

  • Microsoft SQL Server и vCenter Server должны быть на разных хостах (встроенная БД не пойдет).
  • Microsoft SQL Express Database не поддерживается версией 0.9 утилиты.
  • Windows Local Users и Groups не мигрируются версией 0.9 утилиты.
  • vCenter Alarm action scripts также не переносятся в версии 0.9.
  • Миграция потребует некоторого прерывания в работе vCenter Server.
  • Конфигурация Linked Mode не мигрируется (надо делать все в ручную).
  • Сторонние плагины для Web Client (например, VMware Update Manager или NSX) также не будут перенесены.

Загрузить виртуальный модуль VCS to VCVA Converter можно по этой ссылке.

Доступна запись вебинара "Новинки vSphere 6" на русском языке.

03/03/2015

Мы много пишем про новые возможности платформы виртуализации VMware vSphere 6, релиз которой должен состояться уже в ближайшее время. Напомним наши последние посты:

Но и компания VMware тоже старается от нас не отставать. Например, недавно она объявила о доступности вебинара "Новинки vSphere 6" на русском языке, который можно в любое время посмотреть по запросу.

Многовато болтовни в начале, но для тех, кто готов слушать о VMware от VMware - почему бы и нет.

Transparent Page Sharing в VMware vSphere 6.0: разламывание больших страниц памяти.

03/03/2015

Мы уже немало писали про технологию Transparent Page Sharing (TPS) в VMware vSphere, которая позволяет дедуплицировать страницы оперативной памяти на хост-сервере ESXi при недостатке физической памяти для виртуальных машин. Как мы уже писали тут и тут, в VMware vSphere 5.5 Update 3 и более поздних версиях технология TPS отключена (при дедупликации страниц между машинами), чтобы не нагружать хост понапрасну, поскольку в современных ОС используются большие страницы памяти (Large Memory Pages), вероятность дедупликации которых мала. В то же время, технологию TPS никто из vSphere не убирал, и ее можно в любой момент включить.

Как пишет знаменитый Дункан, В VMware vSphere 5.x есть 4 состояния памяти для хост-сервера относительно параметра minFree:

  • High (100% от minFree)
  • Soft (64% от minFree)
  • Hard (32% от minFree)
  • Low (16% от minFree)

Эти состояния определяют срабатывание определенных триггеров (об этом ниже). Например, если minFree для вашей конфигурации сервера равно 10 ГБ, то при переходе в состояние, когда занято 6,4 ГБ (Soft), произойдет определенное действие с точки зрения техник оптимизации памяти.

В то же время, триггеры не срабатывают жестко по этим пороговым значениям, а плавно включаются перед ними и плавно выключаются за ними, чтобы не вызвать резких изменений.

Например, при переходе из состояния High в Soft, большие страницы памяти "разламываются" на обычные, чтобы TPS мог их тут же дедуплицировать. Однако, это может сказаться не лучшим образом на производительности - у хоста и так возникает недостаток памяти, а тут еще его нагружают дедупликацией.

Поэтому в VMware vSphere 6.0 ввели новое состояние Clear (100% от minFree), а состояние High переопределили до значения 400% от minFree. Для чего это сделано? А вот для чего.

При недостатке памяти, хостом ESXi используется техника разламывания больших страниц памяти на обычные страницы, которые затем могут быть дедуплицированы с помощью TPS. Это делается затем, чтобы предотвратить свопирование страниц на диск, что является самым тормозным способом освобождения ресурсов. Так вот эта штука начинает активно работать при наличии свободной памяти в промежутке от High (400%) до Clear (100%), чтобы начать работать на еще не испытывающем острого недостатка ресурсов хосте. Но при этом TPS сразу не запускается.

Давайте посмотрим на таблицу:

Состояние памяти (State) Пороговое значение (% от minFree) Эффект при переходе в диапазон
High 400% Большие страницы разламываются на обычные, но TPS не запускается и ждет следующего цикла прохода дедупликации (по умолчанию 60 минут, минимально настраиваемое в расширенном параметре Mem.ShareScanTime время равно 10 минут)
Clear 100% Разламывание больших страниц и мгновенный запуск TPS
Soft 64% Включение TPS и техники Memory Ballooning
Hard 32% Включение TPS, Memory Compression и свопирования на диск
Low 16% Memory Compression + свопирование на диск + блокировка использования памяти

Это красивое решение - начать разламывать страницы заранее и не нагружать теряющий свободную память хост.

Но все что касается TPS, актуально только тогда, когда TPS включено. По умолчанию же эта техника выключена, а о том, как включить ее, написано вот тут.

Насколько хорошо работает конфигурация All-Flash кластера VMware Virtual SAN - пример с Bootstorm.

02/03/2015

Неадвно мы писали о новых возможностях средства для создания отказоустойчивых кластеров хранилищ VMware Virtual SAN 6.0, где одной из таких возможностей стала возможность конфигурации All-Flash кластера VSAN (то есть, когда и для кэша, и для данных используются SSD-диски):

Естественно, эта штука работает намного быстрее, чем раньше, поскольку прежде данные можно было размещать только на HDD-дисках. Но насколько это стало быстрее?

Чтобы показать некоторые цифры на практике, компания VMware провела тест на bootstorm - ситуацию, когда множество десктопов загружаются одновременно (например, в начале рабочего дня). Для этого была использована следующая конфигурация:

  • 64 высокопроизводительных узла кластера Virtual SAN исключительно на SSD-дисках (All-Flash).
  • 6401 виртуальных ПК (то есть по 100 каждом хосте), которые включаются одновременно.

Результаты теста оказались весьма позитивными:

  • За 24 минуты все виртуальные ПК загрузились.
  • Еще за 16 минут все десктопы получили IP-адреса и были готовы к работе.

В итоге все заняло 40 минут. Для почти шести с половиной тысяч машин это весьма и весьма неплохой результат. Кроме того, отмечается, что команда VMware не использовала никаких специальных настроек или модификаций ПО - тест работал, что называется, "из коробки".

Обновленная версия StarWind V2V Converter - еще больше возможностей для конвертации машин между платформами.

01/03/2015

Необходимость конвертации виртуальных машин из формата VMware в формат Hyper-V и обратно - вещь, необходимая администраторам довольно часто. При этом большинство утилит для конвертации либо уже давно не поддерживаются, либо работают из рук вон плохо. Исключение - StarWind V2V Converter, о котором мы уже писали вот тут. Утилита поддерживается, обновляется, и последнее ее обновление вышло совсем недавно - V2V Converter V8 Build 161.

Оставшаяся по-прежнему бесплатной утилита получила следующие новые возможности:

  • Добавлена поддержка формата виртуальных дисков VHDX для Windows 8/Server 2012 и более поздних версий.
  • Режим Windows Repair Mode может быть автоматически активирован для сконвертированного образа, чтобы гостевая ОС сама настроила оборудование под новый гипервизор.
  • Утилита командной строки поддерживает VHDX и режим Repair Mode.
  • Новый стиль мастера конвертации в V2V Converter.
  • При установке добавлен файл помощи.

Качайте обновленный StarWind V2V Converter по этой ссылке.

Бесплатный вебинар Veeam «Что нового вы еще не узнали: Veeam v8».

28/02/2015

Компании OCS совместно с Veeam рады пригласить Вас на вебинар “Что нового вы еще не узнали: Veeam v8”.

На вебинаре 4 марта 2015 с 14:00 до 15:00 (по МСК) мы расскажем Вам о новинке - Veeam Availability Suite v8 и о многих приятных функциях-дополнениях: Snapshot Hunter, Backup I/O control, делегирование прав пользователям на восстановление, а также о том, как правильно продавать наши новые продукты.

Спикер: Инна Кабатчикова, менеджер по работе с партнерами Veeam в России и СНГ

Для участия в Вебинаре необходимо зарегистрироваться по этой ссылке.

Про мост

28/02/2015

Мост. Шум. Дождь. Запах.
Зонт. Кисть. Шаг. Достаточно.

Новые возможности VMware vSphere 6 по работе с хранилищами NFS 4.1.

27/02/2015

Продолжаем вас знакомить с новыми возможностями платформы виртуализации VMware vSphere 6, которая еще не вышла, но про которую уже все что можно написано. Напомним и наши посты на эту тему:

Теперь на очереди улучшения хранилищ, а именно - возможность работы по протоколу NFS версии 4.1, которую ожидали очень долго (еще со времен ESX 3 хост-серверы работают с хранилищами по протоколу NFS 3). Об этом написал Cormac Hogan, являющийся экспертом в области инфраструктуры хранилищ VMware vSphere.

Итак, начать нужно с того, что при монтировании тома NFS на хосте ESXi важно использовать одну версию протокола, так как если один хост смонтирует том как NFS 3, а другой этот же том как NFS 4.1 - последствия для данных этого тома могут оказаться очень печальными (данные будут повреждены). Это во многом потому, что третья версия протокола использует клиентские блокировки (client side co-operative locking), а 4.1 - блокировки на стороне сервера (server-side locking).

Поэтому самый надежный метод - на хранилище разрешить использовать для тома только одну версию протокола NFS. Ну и соответственно при монтировании папки надо указать правильную версию протокола, везде одинаково:

Ну а теперь возможности при работе vSphere 6.0 с общими ресурсами NFS 4.1:

1. Multipathing и Load-blanacing

Протокол NFS 4.1, помимо улучшений производительности, имеет встроенные возможности доступа по нескольким путям и балансировки нагрузки.

В списке Servers to be added можно плюсиком из поля выше ввести список из нескольких IP-адресов серверов кластера для обеспечения балансировки нагрузки по нескольким путям. Ранее такое было доступно только для протокола iSCSI.

Отмечается, что поддержки pNFS (Parallel NFS) в VMware vSphere 6.0 нет.

2. Поддержка аутентификации Kerberos.

В NFS 3 добавлять папки нужно было только под пользователем root, соответственно на хранилищах нужно было везде включать настройку no_root_squash, что не очень-то безопасно.

В NFS 4.1 можно создать нерутового юзера для папок, а на хостах нужно создать специального пользователя следующей командой:

esxcfg-nas -U -v 4.1

Везде на хостах ESXi, имеющих доступ к одним и тем же NFS-ресурсам должны быть добавлены одинаковые пользователи. Если пользователи разные, то у вас, например, не пройдет vMotion (вывалится с ошибкой).

Чтобы возможность аутентификации Kerberos работала, нужно чтобы все хосты ESXi были введены в домен Active Directory (об этом написано на скриншоте, у восклицательного знака).

3. Работа NFS 4.1 с другими технологиями VMware.

К сожалению, поддержка NFS 4.1 в vSphere 6.0 неполная - такие хранилища не поддерживаются для следующих технологий и продуктов VMware:

  • Storage DRS
  • Storage I/O Control
  • Site Recovery Manager
  • Virtual Volumes

При этом функции кластеров высокой доступности HA и балансировка нагрузки DRS полностью поддерживается. Ну и отметим тут, что IPv6 поддерживается для доступа по протоколу NFS 4.1, однако только в режиме AUTH_SYS (то есть без аутентификации Kerberos).

Возможность пощелкать компоненты VMware vSphere 6 уже сейчас - новые Feature Walkthroughs.

25/02/2015

Как все из вас знают, скоро выходит обновленная платформа виртуализации VMware vSphere 6, в которой появилась уйма новых возможностей. О многих из них мы уже писали (см, например, нашу последнюю заметку тут). На днях компания VMware сделала еще одну полезную вещь - выложила пошаговые гайды по некоторым компонентам vSphere 6 на сайте VMware Feature Walkthroughs.

Напомним, что про эти гайды мы уже писали тут и тут. Эти штуки позволяют в интерактивном режиме пройти по шагам конфигурации различных продуктов в интерфейсе соответствующего решения. То есть, все так же, как вы будете нажимать в vSphere Web Client:

Какие гайды доступны уже сейчас:

  • vCenter Server Install - установка компонентов vCenter 6.0. Напомним, что о новых функциях в vCenter мы писали вот тут.
  • vCenter Server Upgrades - процесс обновления со старых версий vCenter Server, включая 5.x, до версии vCenter 6.0.
  • vSphere Data Protection – набор пошаговых гайдов, позволяющих пройти весь процесс резервного копирования виртуальных машин. О новых возможностях VDP 6.0 мы также писали вот тут.
  • vSphere Replication – эти гайды позволят вам самостоятельно настроить репликацию и попробовать повосстанавливать виртуальные машины из реплик.

В ближайшее время ожидаются новые Feature Walkthrough - следите за обновлениями!

VMware vSphere Virtual Volumes (vVOLs) - что это такое и чем отличается от VAAI.

24/02/2015

Продолжаем рассказывать о возможностях новой версии серверной платформы виртуализации VMware vSphere 6, выход которой ожидается в ближайшее время. Напомним наши последние посты на эту тему:

Сегодня у нас на очереди одна из самых интересных тем в vSphere 6 - технология организации хранилищ VMware vSphere Virtual Volumes (VVOls). Напомним, что ранее мы подробно писали о ней тут. С тех пор появилось некоторое количество новой информации, которую мы постараемся актуализировать и дополнить в этом посте.

Начнем с того, что vVOL - это низкоуровневое хранилище для виртуальных машин, с которым позволены операции на уровне массива по аналогии с теми, которые сегодня доступны для традиционных LUN - например, снапшоты дискового уровня, репликация и прочее. vVOLs - это новый способ организации хранилищ в виде удобном для массива, когда используется не традиционная файловая система VMFS, а массив сам определяет, каким образом решать задачи доступа и организации работы с данными для виртуальных машин.

Тома vVOLs создаются на дисковом массиве при обращении платформы к новой виртуальной машине (создание, клонирование или снапшот). Для каждой виртуальной машины и ее файлов, которые вы сейчас видите в папке с ВМ, создается отдельный vVOL. В итоге же, создаются следующие тома на хранилище:

  • 1 config vVOL создается для метаданных ВМ, он включает в себя конфигурационный файл .vmx, дескрипторные vmdk для виртуальных дисков, лог-файлы и прочие вспомогательные файлы.
  • 1 vVOL создается для каждого виртуального диска .VMDK.
  • 1 vVOL создается для файла подкачки, если это требуется.
  • 1 vVOL создается для каждого снапшота и для каждого снимка оперативной памяти.

Дополнительные тома vVOL могут быть созданы для клонов или реплик виртуальной машины.

Давайте посмотрим на архитектуру VVols:

Здесь мы видим следующие компоненты:

Storage Provider (SP)

Технология vVOLs при взаимодействии с аппаратным хранилищем реализуется компонентом Storage Provider (SP), который также называется VASA Provider (подробнее об интерфейсе VASA - тут). Storage provider - это предоставляемый вендором аппаратного обеспечения слой ПО, который обеспечивает взаимодействие платформы vSphere и, собственно, хранилища с организованными на нем томами vVOLs в виде контейнеров (storage containers). vVOLs используют механизм VASA 2.0, который позволяет управлять объектами виртуальных машин (дискми) прямо на хранилище.  

Protocol EndPoint (PE)

Если раньше каждый хост налаживал в случае необходимости соединение с каждым из vmdk-дисков виртуальных машин и получалось куча связей, то теперь у хранилища есть логическое I/O-устройство, через которое происходит общение с томами vVOL. PE можно считать сущностью, пришедшей на замену LUN, этих PE может быть создано сколько угодно (кстати, длина очереди у PE - 128 по умолчанию, вместо 32 у LUN).

То есть, через PE хост ESXi получает доступ к данным конкретной виртуальной машины. PE совместимы с существующими протоколами  FC, iSCSI и NFS и позволяют использовать уже имеющееся ПО для управления путями в SAN. К отдельному PE через vCenter можно привязать или отвязать тома vVOL отдельных виртуальных машин. Для хранилища не нужно много PE, одно это логическое устройство может обслуживать сотни и тысячи виртуальных томов vVOL.

Storage Container (SC)

Это логическая сущность, которая нужна для объединения томов vVOL по типам в целях выполнения административных задач. Storage Container создается и управляется на стороне дискового массива и предназначен для логической группировки и изоляции виртуальных машин (например, виртуальные машины отдельного клиента в публичном облаке vCloud).

vVOL Datastore

Это хранилище, которое непосредственно создается из vSphere Client. По-сути, это представление Storage Container (SC) для платформы VMware vSphere. Этот тип датастора можно, например, выбрать при создании виртуальной машины:

С точки зрения администрирования, эти датасторы аналогичны VMFS-томам - вы так же можете просматривать их содержимое и размещать там виртуальные машины. Но для них недоступны операции расширения или апгрейда - они полностью контролируются со стороны дискового массива.

Policy Based Management

Это механизм, который позволяет назначать виртуальным машинам политики, которые определяют ее размещение, а как следствие, и производительность с точки зрения подсистемы ввода-вывода (например, можно задавать необходимые трешхолды по ReadOPs, WriteOPs, ReadLatency и WriteLatency.).

Дисковый массив на базе этих политик позволяет разместить виртуальную машину на нужном хранилище и обеспечить необходимые операции по обеспечению нужного уровня производительности.

По прочтении этого материала возникает вопрос - а чем vVOLs лучше механизма VAAI, который уже давно существует для VMware vSphere? Ответ прост - это замена VAAI, которая позволяет еще больше функций по работе с виртуальными машинами и организации хранилищ переложить на сторону аппаратного обеспечения. В случае невозможности операций с vVOLs будет произведено переключение на использование примитивов VAAI:

Об этом более подробнее вы можете прочитать в статье "vSphere Virtual Volumes Interoperability: VAAI APIs vs VVOLs".

Ну и отметим, что ведущие вендоры аппаратного обеспечения уже приступили к реализации vVOL в своем оборудовании. Например, это уже начинает делать HP:

Этим же занимается и Dell. В ближайшее время мы будем рассказывать о практических аспектах использования vVOLs подробнее.

Бесплатный вебинар от StarWind: "Server-Side Caching as an Alternative to All-Flash Arrays".

22/02/2015

Недавно мы опубликовали статью компании ИТ-ГРАД об SSD-кэшировании средствами гипервизора - vSphere Flash Read Cache (vFRC). Производитель решений #1 в сфере программных хранилищ под виртуализацию, компания StarWind Software, также решила затронуть тему кэширования на стороне сервера в бесплатном вебинаре "Server-Side Caching as an Alternative to All-Flash Arrays", который пройдет 25 февраля.

Вебинар пройдет 25 февраля в 19-00 по московскому времени.

На вебинаре Макс Коломейцев и Крис Эванс расскажут о новейших подходах к организации кэширования данных виртуальных машин на стороне сервера за счет использования Flash-накопителей и оперативной памяти, что вполне может быть альтернативой дорогостоящих All-Flash массивов с точки зрения производительности ввода-вывода.

На вебинаре будут рассмотрены следующие вопросы:

  • Принцип Парето (80/20) при распределении данных в областях памяти
  • Как работает кэширование на стороне сервера
  • Плюсы и минусы такого кэширования
  • Реализация кэширования в виртуальных средах (как в гостевой ОС, так и в хостовой)
  • Реализация кэширования в физических средах
  • Выбор правильного аппаратного обеспечения для хостов
  • Обзор возможностей программных продуктов различных вендоров

Вебинар, безусловно, получится очень интересным, особенно для тех, кто интересуется темой производительности виртуальной инфраструктуры.

РЕГИСТРАЦИЯ

Полезная утилита - VMware VSAN All-Flash Configuration Utility.

20/02/2015

Не так давно мы писали о новых возможностях решения для отказоустойчивости хранилищ VMware Virtual SAN 6.0, которое выйдет вместе с новой версией платформы виртуализации VMware vSphere 6. Одной из таких новых возможностей стал режим All-Flash Configuration, когда хост-сервер ESXi использует только SSD-накопители. При этом быстрые и надежные накопители используются для целей кэширования (cache tier), а устройства попроще - для хранения данных (capacity tier).

Чтобы использовать конфигурацию All-Flash нужно специальным образом пометить диски хост-серверов ESXi для яруса Capacity Tier. Сделать это можно через консоль RVC, либо через интерфейс ESXCLI на каждом из хостов.

Так, например, это делается через RVC:

А вот последовательность команд ESXCLI:

Получается, что на каждом из хостов кластера Virtual SAN администратор должен с помощью CLI-интерфейса обозначать диски, которые будут использоваться для создания яруса хранения виртуальных машин. Жутко неудобно.

Кстати, узнать о том, входит ли конкретный диск в Capacity Tier можно с помощью команды VSAN Disk Query (vdq):

# vdq -q

Так вот, коллеги с punchingclouds.com делают утилиту с GUI, которая позволит назначать дисковым устройствам на хостах ESXi это свойство быстро и удобно, экономя часы времени (представьте, что у вас 64 узла в кластере, на каждом из которых по 10 SSD-дисков, то есть надо назначить 640 дисков!).

Утилита, позволяющая назначать свойство Capacity Tier в пакетном режиме на нескольких хостах, называется VMware VSAN All-Flash Configuration Utility.

Для начала работы надо ввести данные учетной записи VMware vCenter, а также пользователя на хостах VMware ESXi. Минус тут в том, что пароль на всех хостах должен быть одинаковый (но это обещают исправить в следующей версии, сделав загрузку csv-файла с паролями).

Перед тем, как приступить к операциям с дисками, нужно включить SSH на хостах ESXi (настройка на хостах происходит через ESXCLI), делается это кнопкой "Enable SSH". Далее можно сгруппировать похожие устройства по хостам или кластеру, после чего отметить нужные устройства в списке дисков.

Ну и далее нажимаем кнопку "Set Capacity Flash", чтобы назначить диски для хранения виртуальных машин, или "Remove Capacity Flash", чтобы отвязать их от этой роли.

Утилита VMware VSAN All-Flash Configuration Utility скоро будет доступна, следите за обновлениями здесь.

Вышли Red Hat Enterprise Virtualization 3.5 и Red Hat Enterprise Linux OpenStack Platform 6.

18/02/2015

В феврале компания Red Hat сделала два весьма важных анонса. Во-первых, было объявлено о выходе новой версии платформы Red Hat Enterprise Virtualization 3.5 (напомним, что о RHEV версии 3.4 мы писали вот тут).

Список новых возможностей Red Hat Enterprise Virtualization 3.5:

  • Поддержка до 4 ТБ памяти хост-сервера, до 4 ТБ памяти виртуальной машины (vRAM) и до 160 vCPU на виртуальную машину.
  • Управление жизненным циклом хост-серверов и их развертыванием посредством интеграции с Red Hat Satellite.
  • Оптимизация вычислительных мощностей за счет аналитики загрузки в реальном времени и интеграции с oVirt Optimizer. Это позволяет сбалансировать нагрузку на инфраструктуру при вводе в эксплуатацию новых виртуальных машин.
  • Расширенная поддержка механизма non-uniform memory access (NUMA) - теперь появились такие фичи, как Host NUMA, Guest Pinning и Virtual NUMA. Все это увеличивает производительность за счет более быстрого доступа к нужным областям памяти.
  • Улучшенный механизм Disaster Recovery за счет оптимизаций и поддержки миграции хранилищ между хранилищами (Storage Domains), что позволит партнерам Red Hat сделать ПО для восстановления после сбоев на уровне площадки на базе технологий и интерфейсов Red Hat.
  • Лицензия Red Hat Enterprise Linux with Smart Virtualization, которая позволяет развертывать неограниченное количество систем Red Hat Linux.
  • Подписка Red Hat Cloud Infrastructure, которая включает в себя следующие компоненты: Red Hat CloudForms, Red Hat Satellite, Red Hat Enterprise Linux OpenStack Platform и Red Hat Enterprise Virtualization.

Кроме того, в RHEV 3.5 появились дополнительные функции для интеграции с инфраструктурой Openstack:

  • Интеграция с компонентами OpenStack Image Service (Glance) и OpenStack Networking (Neutron), доступная как технологическое превью, что позволяет администраторам управлять ресурсами хранения и сети из одной точки для всей инфраструктуры.
  • Типы инстансов, которые заточены под развертывание виртуальных машин в онпремизной и офпремизной инфраструктуре (облаке).

Более подробно о новых возможностях Red Hat Enterprise Virtualization 3.5 можно почитать здесь.

Во-вторых, на днях была анонсирована платформа Red Hat Enterprise Linux OpenStack Platform 6, которая позволяет построить частное или публичное облако на базе платформы виртуализации Red Hat и открытой архитектуры OpenStack.

Новые возможности Red Hat Enterprise Linux OpenStack Platform 6:

  • Поддержка IPv6, как для провайдерской сети, так и для сетей клиентов облака. IPv6 можно использовать как для физических сетей, так и для виртуальных роутеров OpenStack Networking (Neutron) в режимах stateless и stateful.
  • Функции Neutron High Availability, которые позволяют настроить агенты Neutron в режиме "active-active" в целях обеспечения высокой доступности.
  • Поддержка возможностей технологии Single root I/O virtualization (SR-IOV), а также новый драйвер, который позволяет имплементировать виртуальный коммутатор на стороне сетевой карты сервера, не создавая нагрузку на софт.
  • Поддержка Multi-LDAP доменов, которые обслуживаются одним узлом со службами идентификации, что упрощает администрирование.
  • Полная поддержка компонента для создания высокопроизводительных кластеров Sahara (ранее было технологическое превью), который позволяет обрабатывать нагрузки с big data.
  • Более полная интеграция с блочными устройствами Ceph с новыми возможностями для компонентов OpenStack Compute (Nova) и OpenStack Block Storage (Cinder), включая полную поддержку бездисковых вычислительных узлов и функции почти мгновенного запуска виртуальных машин.
  • Новые возможности в стадии технологического превью: bare metal provisioning (развертывание узлов без ПО) и поддержка механизма развертывания и обновлений TripleO.

Более подробно о новых функциях Red Hat Enterprise Linux OpenStack Platform 6 можно почитать на этой странице.

Что нового в VMware vSphere 6 с точки зрения серверов ESXi и виртуальных машин.

17/02/2015

Мы уже весьма немало писали про возможности обновленной версии платформы виртуализации VMware vSphere 6, в которой будет настолько много новых фичей, что мы не можем перечислить их все в одной статье. Поэтому мы делаем это по частям:

В этой части мы расскажем о новых возможностях платформы vSphere с точки зрения улучшений, сделанных непосредственно в плане хостов ESXi и виртуальных машин.

Итак, начнем по порядку:

1. Новые возможности хост-сервера и кластера.

Если еще с давних времен кластеры VMware HA/DRS объединяли 32 хоста, то в версии vSphere 6 кластер, наконец-то, может объединять до 64 хостов включительно. Помимо этого, на хосте может быть запущено до 1000 виртуальных машин (и до 8000 в кластере), а сам ESXi поддерживает сервер с числом процессоров до 480 CPU и памятью до 12 ТБ.

Сравним с предыдущей версией:

2. Новые возможности виртуальных машин.

Виртуальные машины, как и хосты ESXi, также стали поддерживать еще большие максимальные конфигурации - теперь можно создать машину со 128 vCPU и до 12 ТБ оперативной памяти:

Интересны также и другие возможности. Горячее добавление памяти теперь правильно работает с vNUMA, что положительно сказывается на производительности. Появилась поддержка ускорения для объектов GDI в пакете драйверов WDDM 1.1, также контроллер xHCI 1.0 теперь работает с драйвером этого контроллера под Мак, начиная с OS X 10.8.

3. vMotion теперь работает между разными vCenter и на большие расстояния.

В VMware vSphere 6 технология горячей миграции виртуальных машин vMotion была значительно улучшена. Во-первых, виртуальные машины могут теперь перемещаться между виртуальными коммутаторами Standard vSwitch и Distributed vSwitch в любой их комбинации, при этом при уходе с vDS настройки машины на его портах сохраняются и уезжают вместе с ней.

Во-вторых, теперь виртуальные машины могут перемещаться между датацентрами с разными серверами vCenter (требуется лишь соединение на уровне L2). При переезде адрес виртуальной машины сохраняется и нарушения функционирования сети не происходит. Настройки машины также уезжают вместе с ней:

MAC-адреса всегда будут уникальными даже на разных vCenter, а когда машина приедет обратно - ее адрес не будет занят.

При этом для миграции не требуется ни общего хранилища, ни той же самой сети или того же vCenter - можно все это в рамках одной операции vMotion поменять:

Кроме того, если раньше vMotion "держала" задержку в канале (RTT) до 10 мс (и до 50 мс в Enterprise Plus издании), то теперь это значение увеличено до 100 мс. То есть, стратегия Follow the sun для перераспределения нагрузки - теперь реальность, так как такое RTT позволяет уже "трансконтинентальные" миграции vMotion:

Интересно, что с помощью такого vMotion можно, например, увести машины из датацентра в местности, где начинается ураган, который все обесточит - и при этом все это будет незаметно для пользователей (почти).

4. Полезные мелочи.

Во-первых, появилась настройка политики сложности пароля в Host Advanced System Settings. Раньше для этого нужно было мудохаться с pam.d модулем.

Во-вторых, в логах хостов ESXi действия, произведенные через vCenter, включают в себя пользователя, которых их выполнял. Если раньше в логе было так: [user=vpxuser], то теперь вот так: [user=vpxuser:DOMAIN\User]. Весьма удобно.

В-третьих, появилась поддержка новых гостевых ОС:

  • Oracle Unbreakable Enterprise Kernel Release 3 Quarterly Update 3
  • Asianux 4 SP4
  • Solaris 11.2
  • Ubuntu 12.04.5
  • Ubuntu 14.04.1
  • Oracle Linux 7
  • FreeBSD 9.3
  • Mac OS X 10.10

5. Улучшения vSphere Network I/O Control.

Улучшенный механизм vSphere Network I/O Control версии 3 позволяет гарантировать уровень обслуживания на уровне vNIC виртуальной машины. Применять NetIOC можно также и к Distributed Port Group:

На этом вкратце все. Ну и так для общей информации - улучшения режима Linked Mode для серверов vCenter:

Улучшения VMware vSphere 6 Web Client - "lipstick on a pig".

16/02/2015

Продолжаем знакомить наших читателей с новыми возможностями платформы виртуализации VMware vSphere 6, релиз которой должен состояться уже совсем скоро. Напомним наши предыдущие посты на эту тему:

Сегодня у нас на очереди VMware vSphere 6 Web Client. Главная новость как раз об отсутствии нового - веб-клиент, по-прежнему, работает на Flash, никакого HTML5 - и это досадно. Поэтому в комментариях и пишут, что новый клиент - это "lipstick on a pig", то есть косметические улучшения без переработки по существу.

Но есть и хорошая новость - VMware уверяет, что новый клиент работает в пять раз быстрее прошлого:

Посмотрим на тесты:

Действительно, в каких-то отдельных случаях работает в 5 и более раз быстрее. Ну ок, давайте пройдемся по новым фичам:

1. Контроль производительности раздела "All Users’ Tasks".

Если раньше эта штука в панели Recent Tasks грузилась очень долго, особенно в инфраструктурах, где сервер vCenter обслуживал много хостов ESXi и пользователей, то теперь она отключена по умолчанию, чтобы не создавать нагрузки. Включить ее можно вручную, в следующем файле на сервере vCenter:

C:\ProgramData\VMware\vCenterServer\cfg\vsphere-client\webclient.properties

Для vCenter Server Appliance используйте этот конфиг-файл:

/etc/vmware/vsphere-client/webclient.properties

Меняем строчку show.allusers.tasks=false на show.allusers.tasks=true (перезагрузка не требуется).

Теперь все таски пользователей будут показываться в разделе All Users’ Tasks.

2. Множество улучшений производительности.

Производительность была целью номер один в новой версии vSphere 6 Web Client. Были переработаны следующие разделы:

  • Страницы Login (в 13 раз быстрее!) и Home
  • Страницы Summary
  • Страницы Networking
  • Списки Related Objects
  • Общая навигация по разделам
  • Графики производительности (Performance Charts - в 2 раза быстрее)
  • Контекстные меню действий по правой кнопке (Action Menu - в 4 раза быстрее!)

3. Таски и гибкое размещение панелей.

Теперь список задач удобно размещен внизу:

Сами панельки можно отлеплять и ресайзить:

4. Реорганизованные Action Menu.

Теперь в меню, вызываемых по правой кнопке, все действия размещены на нужных и интуитивно понятных местах, а сами действия не тянут при прорисовке лишних данных, что увеличивает производительность клиента:

5. Новое меню по кнопке Home.

Теперь из него можно попасть в наиболее часто используемые разделы:

6. Возможность убрать предупреждение о включенном SSH прямо из GUI.

Появилась так давно нужная ссылка Suppress Warning:

7. Возможность поместить алармы и таски на правую панель.

Очень удобно:

8. Ну и гора всяких мелочей.

Типа совместимости с прошлой и новой версией Fault Tolerance:

Самое обидное, что Web Client, по-прежнему, несовместим с VMware Update Manager - можно просматривать его задачи, но запускать Remediate нельзя.

Ну и напоследок полезная ссылка про трюки в vSphere Web Client, вам может оказаться очень полезной - http://tiny.cc/webclientwiki.

Новый документ "Microsoft Clustered Storage Spaces and StarWind Virtual SAN for a Complete Software-Defined Storage Solution".

15/02/2015

Компания StarWind, производитель продукта номер 1 для создания отказоустойчивых программных хранилищ Virtual SAN, недавно опубликовала интересный документ "Microsoft Clustered Storage Spaces and StarWind Virtual SAN for a Complete Software-Defined Storage Solution":

Какое-то время назад мы писали о файловой системе ReFS в новой версии Windows Server, которая обеспечивает функции виртуализации хранилищ (пространства хранения - Storage Spaces). В документе StarWind рассказывается о том, как решение StarWind Virtual SAN дополняет решение Microsoft Storage Spaces, которое позиционируется как Software-defined storage (SDS). Одних только MS Storage Spaces для виртуализации и отказоустойчивости узлов вам просто-напросто будет недостаточно во многих случаях.

Например, что вам будет доступно только при использовании StarWind:

  • Поддержка SATA, PCIe Flash, а также соединений 40+GbE.
  • Кластеризация узлов типа active-active, сконфигурированных из любых комбинаций внутреннего хранилища и JBOD-массивов.
  • Специализированная файловая система (log structured file system), позволяющая эффективно использовать кэширование и флэш-хранилища.
  • Поддержка старых хранилищ.

Об остальных интересных и важных моментах вы можете прочитать в документе.

Новое в VMware vSphere Data Protection 6.0 - теперь почти для всех пользователей vSphere.

13/02/2015

Все из вас знают, что недавно компания VMware анонсировала обновленную версию платформы VMware vSphere 6. Ввиду того, что новых функций уж очень много, мы решили разбить описание новых возможностей продуктов серверной линейки на несколько постов. Напомним последние из них:

Сегодня мы поговорим об анонсированной новой версии VMware vSphere Data Protection 6.0 (VDP) - продукте для резервного копирования виртуальных машин на серверах ESXi. Если ранее пользователям предлагалось одно из двух изданий - встроенное в платформу и vSphere Data Protection Advanced (с расширенными функциями), то теперь осталось только одно. Теперь VDP включено во все издания VMware vSphere, кроме самого базового (Essentials). То есть, пользователи vSphere 6.0 Essentials Plus и более старших изданий получат VDP в комплекте. Кстати, продукт vSphere Data Protection Advanced будет недоступен для заказа с 1 марта.

Напомним, что VDP построен на базе решения для резервного копирования и дедупликации EMC Avamar, которое развертывается как готовый виртуальный модуль (Virtual Appliance). ПО работает без агентов, использует функциональность Changed Block Tracking и может восстанавливать не только машины целиком, но и отдельные файлы из бэкапов через браузер. Шестая версия VDP поддерживает до 8 ТБ дедуплицированных данных бэкапов.

Итак, что нового появилось в VDP:

1. Агенты для Microsoft SQL Server, Exchange и SharePoint.

Напомним, что это намного раньше появилось в Veeam Backup and Replication, а теперь VMware "заимствует" функциональность у Veeam. Эти агенты позволяют создавать консистентные копии виртуальных машин с данными приложениями, а также восстанавливать отдельные объекты приложений из бэкапов (например, базу данных или электронное письмо). Агенты поддерживают такие функции, как SQL Server Failover, кластеры AlwaysOn и Exchange Database Availability Groups.

2. В VDP появилась интеграция с хранилищем EMC Data Domain с использованием ПО Data Domain Boost.

Теперь за обработку бэкапов может отвечать Data Domain, а модуль VDP просто отвечать за передачу данных. Данная функция также есть у Veeam.

3. Возможность репликации данных между модулями VDP.

Данные, передаваемые между модулями VDP дедуплицируются, поэтому в канал передаются только уникальные блоки данных. Это может оказаться необходимым при отбрасывании резервных копий на резервные хранилища через WAN. При этом поддерживаются различные топологии репликации данных виртуальных модулей - 1:1, N:1 и 1:N.

4. Сжатие данных для vSphere Replication.

Теперь если вы используете VMware SRM для репликации данных между площадками и восстановления машин после сбоев, то при передаче данных включается технология сжатия данных при передаче (end-to-end network compression).

Типичный коэффициент сжатия данных - от 1.6:1 до 1.8:1. Например, если раньше машина размером 37.5 ГБ передавалась за 52 минуты, то теперь она ужимается до 20.2 ГБ и передается за 29 минут.

5. Улучшенная репликация.

Теперь неаллоцированные регионы данных не гоняются по каналу репликации, что увеличивает ее скорость. Поддерживаются тонкие диски и устройства Virtual SAN.

6. Верификация резервных копий.

Теперь резервные копии VDP можно восстановить на временное хранилище и запустить машины отключенными от сети, чтобы убедиться, что ОС запускается и приложения работают.

7. Поддержка "подмораживания" файловых систем Linux.

Для Windows-систем уже давно есть quiescence-скрипты, которые подмораживают операции с данными ВМ, для которой происходит резервное копирование. Для Linux это появилось в версии VDP 6.0 (функция отключена по умолчанию).

8. Поддержка Storage vMotion и Storage DRS в целевом хранилище.

Ранее при перемещении реплики средствами Storage vMotion требовалась полная ресинхронизация ВМ, а в версии VDP 6.0 перемещение машин между серверами и хранилищами отслеживается, и процесс полной синхронизации не запускается.

Больше подробностей о возможностях vSphere Data Protection 6.0 можно узнать из вот этого документа.

Полезная утилита для анализа сценариев "что если" при отказах - VM Resource and Availability Service.

12/02/2015

На сайте проекта VMware Labs, про который мы регулярно пишем, появилась очень полезная утилита VM Resource and Availability Service (vRAS). Она позволяет провести анализ "что если" (what-if analysis) в плане последствий для инфраструктуры при различных отказах.

Вы можете симулировать отказ одного или нескольких хостов VMware ESXi в кластере, чтобы узнать:

  • сколько виртуальных машин будут гарантированно перезапущены на хостах кластера HA
  • сколько машин не смогут запуститься, так как не хватит емкости выживших хостов
  • сколько машин будут испытывать нехватку вычислительных мощностей и будут работать не в полную силу после рестарта на других хостах

Последний пункт особенно важен для тех инфраструктур, где у машин не установлен параметр Reservation, то есть администраторы знают, что машины перезапустятся в случае сбоя все, но не знают, сколько из них будут испытывать проблемы с производительностью.

Очевидно, что данная информация позволит вам сделать выводы о текущей надежности виртуальной инфраструктуры и принять решение о вводе в строй дополнительных мощностей.

Кстати, VM Resource and Availability Service - это не отдельная утилита, а сервис на стороне VMware. Чтобы начать его использовать, нужно:

1. Перейти по адресу hasimulator.vmware.com.

2. Нажать "Simulate Now", чтобы принять EULA и загрузить дамп DRM, после чего начать процесс симуляции.

3. Нажмите иконку помощи в правом верхнем углу для детальной информации об использовании сервиса.

Где взать DRM-дамп:

  • vCenter server appliance: /var/log/vmware/vpx/drmdump/clusterX/
  • vCenter server Windows 2003: %ALLUSERSPROFILE%\Application Data\VMware\VMware VirtualCenter\Logs\drmdump\clusterX\
  • vCenter server Windows 2008: %ALLUSERSPROFILE%\VMware\VMware VirtualCenter\Logs\drmdump\clusterX\

Для больших инфраструктур vRAS - штука полезная и незаменимая.

Закат эры Windows 2003 как повод попробовать аренду виртуальных серверов VMware.

12/02/2015

Как все вы уже знаете, компания Microsoft объявила о скором окончании поддержки такой родной, но уже морально устаревшей операционной системы Windows Server 2003.

Конечно, серверы от этого работать не перестанут, но остаться без технической поддержки и исправлений от вендора неприятно и недопустимо. Именно поэтому многие из вас уже наверняка задумывались о приобретении нового современного железа под свежую Windows 2012 R2. Компания ИТ-ГРАД предлагает пойти еще дальше – почему бы не рассмотреть уход Win2k3 как повод опробовать облачные вычисления?

Не придется ждать поставки железки, вкручивать ее в стойку, регулярно чистить от пыли и через пару лет выкидывать, чтобы освободить место новому оборудованию. Виртуальные серверы ИТ-ГРАД строятся исключительно на лучшей в отрасли виртуализации – VMware. Высокую доступность, защиту данных и техподдержку компания гарантирует.

По услуге IaaS ИТ-ГРАД предлагает в аренду виртуальную инфраструктуру (VI) – гибкое решение для создания собственного парка виртуальных серверов (виртуального дата-центра).

Вы можете взять в аренду один или несколько виртуальных серверов требуемой конфигурации для реализации ваших ИТ-задач. Виртуальные сервера размещены на брендовом оборудовании в надежном дата-центре, что позволяет обеспечить высокую доступность сервисов.

Попробуйте сами прямо сейчас! Две недели бесплатно!

Новые лабораторные работы по VMware vSphere 6 - попробуйте новую версию платформы без установки.

11/02/2015

Новые лабораторные работы по VMware vSphere 6 - попробуйте новую версию платформы без установки.

Как почти все из вас знают, компания VMware совсем недавно анонсировала новую версию платформы виртуализации VMware vSphere 6 и другие продукты серверной линейки (наша последняя статья об этом тут). Пока сам продукт недоступен для загрузки в релизной версии, но компания VMware на днях предоставила возможность попробовать его вживую в виде лабораторных работ - VMware Hands-On Labs (HoL).

В рамках лабы вам развертывают виртуальную машину, с которой вы работаете прямо в браузере:

На данный момент доступно 4 новых лабораторных работы:

1. HOL-SDC-1408 - What’s New with Virtual SAN 6.

Эта лаба вводит начинающих в суть темы отказоустойчивых кластеров Virtual SAN и позволяет понять основные преимущества технологии на практике, никакого булшита. Модули лабы:

  • Virtual SAN Setup and Enable
  • Virtual SAN with vMotion, Storage vMotion and HA Interoperability
  • Virtual SAN Storage Level Agility
  • Useful CLI Commands
  • Virtual SAN Monitoring
  • Virtual SAN Troubleshooting

Время на прохождение: 4-5 часов.

2. HOL-SDC-1410 - What's New with vSphere 6.

Данная лабораторная работа расскажет о новых возможностях платформы VMware vSphere 6 в плане сервисов управления и мониторинга. Доступно три модуля:

  • Introduction to Management with vCenter Server
  • Introduction to vSOM Networking And Security
  • Introduction to vSOM Storage

Время на прохождение: 3 часа.

3. HOL-SDC-1428 - VMware EVO:RAIL Introduction.

В этой небольшой лабораторной работе вам расскажут про технологию EVO:RAIL, которая представляет собой стандартизованный строительный блок виртуальной инфраструктуры для небольших компаний. С технической точки зрения EVO:RAIL - это двухюнитовый блок, представляющий собой 4-узловую структуру на базе архитектуры "microserver", которая сочетает в себе 4 полноценных микросервера в 2-юнитовой корзине.

Эта лаба состоит из двух модулей:

  • Exploring EVO:RAIL Configuration
  • Exploring EVO:RAIL Management

Время на прохождение: 1 час.

4. HOL-MBL-1452 - Horizon 6 with View Use Cases.

Эта лабораторная работа, посвященная возможным вариантам применения VMware Horizon 6, была доступна и ранее. Но теперь в нее добавили модуль о технологии AppVolumes, про которую мы писали вот тут (ранее это называлось CloudVolumes).

Модули лабораторной работы:

  • Build and Operate the Mobile Secure Workplace
  • Build and Operate the Call Center Desktop
  • Build and Operate the Branch Office Desktop
  • Take a Guided Tour of vCOPS for View
  • Understanding use cases for Application Remoting
  • Understanding use cases for Cloud Pod Architecture
  • Mirage-Controlled View Static Desktops
  • Guided Tour of AppVolumes

Время на прохождение: 5-8 часов (то есть на всю лабу лучше выделить целый день).

В течение пары недель компания VMware обещает выложить еще несколько лабораторных работ, посвященных VMware vSphere 6 и другим продуктам и технологиям обновленной серверной линейки, о которых мы вам обязательно расскажем. Можно также следить за обновлениями в твиттер-аккаунте VMware HoL.

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 | 105 | 106 | 107 | 108 | 109 | 110 | 111 | 112 | 113 | 114 | 115 | 116 | 117 | 118 | 119 | 120 | 121 | 122 | 123 | 124 | 125 | 126 | 127 | 128 | 129 | 130 | 131 | 132 | 133 | 134 | 135 | 136 | 137 | 138 | 139 | 140 | 141 | 142 | 143 | 144 | 145 | 146 | 147 | 148 | 149 | 150 | 151 | 152 | 153 | 154 | 155 | 156 | 157 | 158 | 159 | 160 | 161    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Veeam Broadcom Offtopic Microsoft Cloud StarWind VMachines NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V Private AI vDefend VCF Workstation Backup Network vSAN Tanzu VMUG HCX VCPP Labs Explore Data Protection ONE AI Intel Live Recovery VCP V2V Aria NSX DPU Update EUC Avi Community Skyline Host Client GenAI Chargeback Horizon SASE Workspace ONE Networking Ransomware Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint Director Memory SIOC Troubleshooting Stretched Bugs ESA Android Python Upgrade ML Hub Guardrails CLI Driver Foundation HPC Orchestrator Optimization SVMotion Diagram Ports Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2025, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge