Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6370 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Приглашаем на бесплатный вебинар "Powerful Data Protection of Your VMware VMs" компании StarWind.


Компания StarWind Software, выпускающая продукт номер 1 для создания отказоустойчивых хранилищ StarWind iSCSI SAN 6.0, приглашает на бесплатный вебинар "Powerful Data Protection of Your VMware VMs", посвященный продукту StarWind VMware Backup Plug-in, позволяющему осуществлять резервное копирование виртуальных машин на платформе VMware vSphere.

Мероприятие начнется в 19-00 по московскому времени завтра, 7 февраля.

На вебинаре будет рассказано о следующих возможностях решения:

  • Безагентная архитектура плагина резервного копирования
  • Технология дедупликации хранимых копий
  • Возможности Sandbox и autotesting
  • Поддержка нескольких гипервизоров (+Hyper-V)

Вебинар проводит Max Craft, системный инженер компании StarWind.


Таги: StarWind, Webinar, iSCSI, Backup, VMware

Синхронизация времени гостевой ОС и другие настройки VMware Tools в VMware vSphere 5.1.


Как многие помнят, ранее в настройках VMware Tools можно было настраивать синхронизацию времени гостевой ОС со временем хост-сервера VMware ESXi. Доступно это было при двойном клике на иконку VMware Tools в гостевой системе:

Теперь же, начиная с vSphere 5.1, при двойном клике на иконку VMware Tools вы увидите следующее:

То есть тут, по-сути, доступна только информация о версии пакета. Это правильно, так как пользователю виртуальной машины не должно быть доступно никаких действий и настроек, относящихся к слою виртуализации.

Вместо этого, различные настройки, в том числе синхронизации времени, были вынесены в категорию VMware Tools опций виртуальной машины (Virtual Machine –> Edit Settings –> Options –> VMware Tools):

Теперь администраторам VMware vSphere не требуется полномочий в гостевой ОС, чтобы регулировать настройки VMware Tools.


Таги: VMware, Tools, vSphere, ESXi, VMachines, Blogs

VMware продолжает русифицироваться: портал с обучающими видео по продуктам на русском языке.


Компания VMware продолжает похвальное начало по локализации и переводу обучающих материалов по продуктам VMware vSphere, View, SRM и другим на русский язык. На прошлой неделе мы писали о доступности нового бесплатного курса по VMware View 5, а какое-то время назад - о доступности портала с обучающим видео vmwarelearning.com.

Теперь же компания VMware объявила о доступности этого портала на русском языке:

Видео и презентации, используемые в них, переведены на русский язык:

Конечно же, хит - это установка VMware ESXi 5:

Но есть штуки и поинтереснее, например, настройка распределенных коммутаторов VDS:

В общем, молодцы - начинание хорошее.


Таги: VMware, vSphere, Video, ESXi, SRM, vCenter, View

Вышел VMware vCenter Support Assistant - удобное обращение в техподдержку и отправка логов.


Не так давно мы писали про продукт VMware vCenter Support Assistant, о котором VMware рассказала еще в прошлом году. И вот, на днях, продукт vCenter Support Assistant был окончательно выпущен. Краткий видеообзор:

VMware vCenter Support Assistant 5.1 - это бесплатный плагин к VMware vCenter Server, который призван облегчить сбор диагностических данных об инфраструктуре VMware vSphere, а также помочь обратиться в техническую поддержку:

Если вы обращались в техподдержку VMware, то, наверняка, знаете, что это не очень удобный и весьма замороченный процесс. Теперь все это станет проще, поэтому продукт просто необходимо поставить в своей инфраструктуре. Тем более, что это плагин к vCenter, а не виртуальный модуль (Virtual Appliance).

Полезные ссылки по продукту:

Статьи базы знаний:

Обзор установки можно прочитать тут, а скачать плагин VMware vCenter Support Assistant 5.1 можно по этой ссылке.


Таги: VMware, Support, vCenter, vSphere

VMware ESXi Host Backup & Restore GUI Utility - резервное копирование и восстановление конфигурации хост-сервера из графического интерфейса.


Какое-то время назад мы писали про утилиту vSphere Configuration Backup, которая позволяет производить резервное копирование конфигурации серверов VMware ESXi из графического интерфейса. Сегодня мы расскажем еще об одной подобной утилите - VMware ESXi Host Backup & Restore GUI Utility.

Написана она на PowerCLI человеком по имени Sean Duffy и обновлялась совсем недавно - 29 декабря прошлого года.

Для резервного копирования и восстановления конфигурации VMware ESXi используются командлеты PowerCLI  Get-VMHostFirmware и Set-VMHostFirmware. Утилита была протестирована для ESXi 5.0 и 5.1, графический интерфейс позволяет производить резервное копирование на локальный диск компьютера, где она запущена. Убедитесь, кстати, что в вашей инфраструктуре работает служба DNS, так как утилита обращается к хост-серверам по именам.

Из интересных особенностей - возможность восстановить конфигурацию на другой хост ESXi (на скриншоте подчеркнуто красным). В последней версии также добавлена валидация хоста на возможность резервного копирования и восстановления (т.е., что он не находится в maintenance mode и вообще работает).

Скачать ESXi Host Backup & Restore GUI Utility можно по этой ссылке. Для запуска утилиты вам потребуется установленный PowerShell / PowerCLI.


Таги: VMware, ESXi, Backup, PowerShell, PowerCLI

История успеха VMware - сервис-провайдер ИТ-ГРАД.


Дмитрий Гачко, генеральный директор компании ИТ-ГРАД, рассказывает об успешном использовании решений VMware для предоставления услуг аутсорсинга ИТ-инфраструктуры (IaaS), а также о будущих планах по предоставлению услуги Desktop-as-a-Service (Daas). Дмитрий говорит о критериях, по которым была выбрана эта платформа, раскрывая основные преимущества, полученные на практике.

ИТ-ГРАД – динамично развивающаяся компания, которая предоставляет услуги функционального ИТ-аутсорсинга. Более подробно об услугах компании можно почитать по этой ссылке.


Таги: VMware, IT-Grad, IaaS, Cloud

Взаимосвязь и описание компонентов инфраструктуры VMware vCloud - постер.


Компания VMware выпустила очередной постер, посвященный составляющим инфраструктуры VMware vCloud - VMware vCloud Suite Poster.

Постер скорее маркетинговый, чем технический (в отличие от предыдущего), однако позволяет вкратце почитать о назначении и функциональности продуктов семейства vCloud, а также понять взаимосвязь компонентов законченного решения. Постер также может быть хорошим ответом на чей-нибудь вопрос о том, что же у VMware есть для организации облачной инфраструктуры, кроме VMware vSphere?

Напомним также, что все существующие на сегодняшний день постеры компании VMware можно найти по короткой ссылке:

http://vmware.com/go/posters


Таги: VMware, Poster, vCloud, Cloud, Cloud Computing

VMware Storage vMotion уже почти научился переименовывать VMDK-диски виртуальных машин.


Интересные новости приходят от Дункана: в VMware vSphere 5.0 Update 2 при переименовании виртуальной машины во время миграции Storage vMotion ее VMDK-диски также переименовываются (раньше это не работало - менялось только имя машины). Но это, почему-то, не включено по умолчанию.

Чтобы это заработало нужно добавить расширенную настройку VMware vCenter. Для этого идем в "Administration" -> "vCenter Server Settings" -> "Advanced Settings" и добавляем параметр:

provisioning.relocate.enableRename со значением true

Итак, титаническая работа была проделана - и диски теперь переименовываются. Однако, почему эта настройка не активирована по умолчанию? Непонятно - бажит наверное...

Для VMware vSphere 5.1 эта штука пока не актуальна (только vSphere 5.0 Update 2), но обещают, что скоро она заработает с очередным апдейтом. Кстати, а почему тут только интерфейс добавления расширенных настроек и нет удаления?


Таги: VMware, vSphere, SVMotion, Storage vMotion, vCenter, Blogs, VMDK

Бесплатный 4-часовой онлайн-курс по VMware View на русском языке.


Компания VMware, в рамках своей деятельности по интернационализации обучающих материалов, объявила о доступности бесплатного онлайн-курса "VMware View: основные принципы. [V5.0]".

4-часовой обучающий курс разбит на 5 модулей:

  • Модуль 1: Введение в VMware View
  • Модуль 2: Установка и настройка компонентов View
  • Модуль 3: Настольные компьютеры VMware View
  • Модуль 4: Возможности VMware View Client
  • Модуль 5: Работа с View Administrator

Темы модулей и длительность:

Как видно из списка, курс покрывает большинство аспектов администрирования VMware View и будет очень полезен начинающим администраторам инфраструктуры виртуальных ПК.

Напомним, что на русском языке доступны также следующие обучающие онлайн-курсы:

Прослушать курс VMware View: основные принципы. [V5.0] можно по этой ссылке.


Таги: VMware, View, Russian, Обучение, Update

Как смотреть PCoIP-сессии пользователей VMware View через vSphere Client.


Оказывается, один из самых частых вопросов по продукту для виртуализации настольных ПК VMware View - это как можно показать PCoIP-сессию пользователя через средство управления vSphere Client (по умолчанию там показывается чистый экран).

Для этого необходимо поменять настройку в шаблоне групповой политики (GPO) pcoip.adm. Находится этот шаблон на View Connection Server в папке:

<install_directory>\VMware\VMware View\Server\Extras\GroupPolicyFiles

Нужно запустить Group Policy Management, затем создать или привязать к организационной единице AD пула виртуальных ПК групповую политику. В контекстном меню данной групповой политики выбрать пункт "Edit…". В появившемся окне "Group Policy Management Editor" в контекстном меню пункта "Computer Configuration –> Policies –> Administrative Templates" выбрать пункт "Add/Remove Templates…". В появившемся окне "Add/Remove Templates" нажать на кнопку "Add.." и выбрать файл с ADM-шаблоном "pcoip.adm".

Далее нужно установить Enable для настройки "Enable access to PCoIP session from a vSphere console":

Затем нужно применить политики и презагрузить десктоп VMware View. После этого в vSphere Client в консоли виртуальной машины вы будете наблюдать то же самое, что и для VMware View Client:

Более подробно о настройках шаблона pcoip.adm можно узнать из документации.

Источник: ivobeerens.nl.


Таги: VMware, View, PCoIP, Blogs, Troubleshooting, vSphere

PaaS-инфраструктура для разработчиков на платформе VMware vFabric от компании ИТ-ГРАД.


Среди предложений облачного провайдера ИТ-ГРАД есть услуга по предоставлению облачной инфраструктуры для Java-разработчиков, реализованной на базе продуктов VMware vFabric. Она включает в себя высокопроизводительный сервер приложений, сервис работы с БД SQL, сервис обмена сообщениями, балансировщики нагрузки и сервис хранения файлов.

Также в составе решения предлагается среда поддержки жизненного цикла разработки приложений – IT-GRAD ALMaaS.

Компания ИТ-ГРАД, также имеет в составе своих предложений специализированное решение для команд разработчиков на базе продуктов семейства Team Foundation Server компании Майкрософт и ресурсов собственного публичного облака.

 

Решение представляет из себя готовую, выделенную для каждой команды разработчиков площадку, предварительно настроенных продуктов компании Майкрософт, предназначенных для коллективной разработки программного обеспечения. Набор состоит из следующих компонент, которые в зависимости от потребностей могут изменяться в количестве и конфигурации.

  • Team Foundation Server – средство учета требований, выдачи заданий на разработку и тестирование, учет ошибок и контроль версий исходных кодов.
  • Среда разработчика – выделенный сервер разработчика, с предустановленным пакетом Visual Studio 2010 (любая редакция на выбор) и Test Manager 2010, предназначенный для удаленной работы разработчиков и тестировщиков, дает возможность отказаться от повышенных требований к персональным компьютерам сотрудников, повысить безопасность работы, унифицировать среду разработчика и сократить время на развертывание рабочих сред для новых сотрудников.

Более подробно о предложении PaaS можно узнать на сайте компании ИТ-ГРАД.


Таги: IT-Grad, PaaS, VMware, vFabric, Microsoft

VMware Paravirtual SCSI (PVSCSI) - использование в качестве загрузочых дисков виртуальных машин на VMware vSphere.


Очень давно мы писали про тип виртуальных дисков Paravirtual SCSI (PVSCSI), который появился в VMware vSphere 4 и был создан для требовательных к ресурсам ввода-вывода нагрузок. На заре своего развития виртуальные диски типа PVSCSI не рекомендовались к использованию в качестве загрузочных, а также имели несколько серьезных багов, но широко тестировались в связи с тем, что показывали большую производительность, чем стандартный LSI SCSI.

Эту статью мы пишем, главным образом, здесь для того, чтобы сказать - уже можно. Виртуальные диски Paravirtual SCSI достаточно стабильно работают в VMware vSphere. В KB 1010398 мы видим матрицу поддержки дисков pvscsi для различных релизов VMware vSphere (обычные и boot-диски):

Guest operating system Data Disk Boot Disk
Windows Server 2008 R2 (64-bit only) ESX/ESXi 4.0 Update 1, ESX/ESXi 4.1, ESXi 5.0 ESX/ESXi 4.0 Update 1, ESX/ESXi 4.1, ESXi 5.0

Windows Server 2008 (32 and 64 bit)

ESX/ESXi 4.X, ESXi 5.0

ESX/ESXi 4.0 Update 1, ESX/ESXi 4.1, ESXi 5.0

Windows Server 2003 (32 and 64 bit)

ESX/ESXi 4.x, ESXi 5.0

ESX/ESXi 4.x, ESXi 5.0

Windows 7 (32 and 64 bit) ESX/ESXi 4.1, ESXi 5.0 ESX/ESXi 4.1, ESXi 5.0
Windows Vista (32 and 64 bit) ESX/ESXi 4.1, ESXi 5.0 ESX/ESXi 4.1, ESXi 5.0
Windows XP (32 and 64 bit) ESX/ESXi 4.1, ESXi 5.0 ESX/ESXi 4.1, ESXi 5.0

Red Hat Enterprise Linux (RHEL) 5 (32 and 64 bit) and all update releases

ESX/ESXi 4.X, ESXi 5.0

Not Supported

RHEL 6 (32 and 64 bit)

ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0

ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0

SUSE Linux Enterprise 11 SP1(32 and 64 bit) and later releases

ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0
ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0

Ubuntu 10.04 (32 and 64 bit) and later releases

ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0

ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0

Distros using Linux version 2.6.33 or later and that include the vmw_pvscsi driver

ESX/ESXi 4.1, ESXi 5.0

ESX/ESXi 4.1, ESXi 5.0

В VMware vSphere/ESXi 5.1 поддерживается все то, что поддерживалось и в предыдущих версиях платформы.

Что же раньше были за баги с PVSCSI? Смотрим, например, в статье тут, отсылающей нас к KB компании Microsoft. Ошибка существовала для ОС Windows Server 2008 R2 и была критической, а устранена была только в VMware vSphere 5.0 Update 1, о чем есть KB 2004578.

Теперь о том, как поставить диск типа PVSCSI в качестве загрузочного для виртуальной машины на ESXi. Выбираем в vSphere Client контроллер типа VMware Paravirtual :

В настройках виртуальной машины добавляем виртуальный floppy-дисковод и указываем образ дискеты с драйвером PVSCSI, который лежит в папке vmimages->floppies (если там ничего нет, идем сюда):

Дальше при выборе диск для установки Windows указываем драйвер с дискеты:

Дальше ставим все как обычно. Если хочется запихнуть драйвер PVSCSI в кастомизированную ISO-шку, то вам сюда. И да, драйвер на образе дискеты от Windows Server 2008 прекрасно работает на Windows Server 2012, который, в свою очередь, работает на VMware vSphere 5.1.


Таги: VMware, Storage, PVSCSI, VMachines, Performance

Не работает импорт виртуальных дисков через vmkfstools в VMware vSphere 5.1.


Если вы попробуете импортировать виртуальную машину (или Virtual Appliance), которая была создана для настольных платформ виртуализации (например, VMware Workstation в формате 2gbsparse), в VMware vSphere 5.1 с помощью утилиты vmkfstools, то у вас это не выйдет. Вы получите подобное сообщение:

# vmkfstools -i <VM-name.vmdk> <VM-name-new-disk>.vmdk -d zeroedthick

Failed to open 'VM-name.vmdk': The system cannot find the file specified (25).

Ошибка может быть и такой:

File [VMFS volume]\VM-name.vmdk was not found.

И такой:

Error Stack:
An error was received from the ESX host while powering on VM VM-name
Cannot open the disk '/vmfs/volumes/Datastore/VM-name/VM-name.vmdk' or one of the snapshot disks it depends on.
The system cannot find the file specified.
VMware ESX cannot find the virtual disk '/vmfs/volumes/Datastore/VM-name/VM-name.vmdk'. Verify the path is valid and try again.

Все это из-за одного и того же - в VMware vSphere 5.1 убрали автоматическую загрузку модуля multiextent, который и отвечает как раз за конверсию виртуальных дисков с hosted-платформ VMware в формат VMFS. Чтобы загрузить этот модуль нужно выполнить простую команду:

# vmkload_mod multiextent

Ну а чтобы выгрузить:

# vmkload_mod -u multiextent

Делать это можно смело, так как этот модуль отвечает только за работу с Non-VMFS дисками ВМ.


Таги: VMware, vSphere, VMDK, VMFS, ESXi, VMachines, Troubleshooting

Тем, кто готовится стать VMware Certified Advanced Professional - руководство VCAP5-DCA Study Guide.


Не так давно мы делали обзор сертификаций VMware, где упоминали о сертификации VMware Certified Advanced Professional (VCAP), которая является переходным звеном от стандартной сертификации профессионалов VCP к "звездам" -  VMware Certified Design Expert (VCDX).

Так вот для тех из вас, кто решил встать на нелегкий путь сертификации VCAP (экзамены действительно сложные), вышло руководство VCAP5-DCA Study Guide, основанное на официальном Blueprint и насчитывающее 349 страниц (!). В нем, как это часто бывает, много ботвы, но и по существу есть немало полезного.

Для администраторов VMware vSphere в руководстве также найдется много интересного. Руководство снабжено картинками, командами CLI и, что самое нужное при подготовке к экзамену VCAP, отсылками к конкретным документам VMware (и их главам) по каждой теме. Штука местами очень классная - рекомендую.


Таги: VMware, vSphere, VCAP, VCP, Certification, ESXi, Whitepaper

Максимальное количество миграций VMware vMotion и Storage vMotion - хосты, сети и хранилища.


Полгода назад мы писали об особенностях работы технологии VMware Storage vMotion, где касались максимального числа одновременных миграций SVMotion на хранилище VMware vSphere. Там же мы вскользь касались миграций vMotion и упоминали вот эту нашу статью, где рассматривались лимиты одновременных миграций vMotion на серверах и хранилищах.

Теперь, на основе статьи Франка, мы обобщим и актуализуем информацию по миграциям vMotion и Storage vMotion в разных контекстах - на уровне хранилищ, сети и хост-серверов VMware ESX.

Как и в прошлой статье, здесь будем пользоваться понятием стоимости миграции в единицах (cost) и максимального значения костов в тех же единицах (max cost), которое отображает предельно допустимое значение. Сумма костов операций vMotion и SVMotion не должна превышать max cost для соответствующего объекта (datastore, NIC и хост ESXi).

Теперь взглянем на таблички (в них есть не только vMotion, но и SVMotion):

Хост ESXi

Operation Config Key Cost
vMotion Cost costPerVmotionESX41 1
Storage vMotion Cost costPerSVmotionESX41 4
Maximum Cost maxCostPerEsx41Host 8

Сеть

Operation Config Key Cost
vMotion Cost networkCostPerVmotion 1
Storage vMotion Cost networkCostPerSVmotion 0
Maximum Cost maxCostPerNic 2
maxCostPer1GNic 4
maxCostPer10GNic 8

Хранилище (Datastore)

Operation Config Key Cost
vMotion Cost CostPerEsx41Vmotion 1
Storage vMotion Cost CostPerEsx41SVmotion 16
Maximum Cost maxCostPerEsx41Ds 128

Читать эти таблички просто - например, для хоста ESXi стоимость миграции vMotion равна 1, а поскольку max cost равно 8, то всего на хост может быть 8 одновременных миграций в конфигурации по умолчанию. Либо допустимы одновременно: 1 миграция SVMotion (4 очка) и 4 штуки vMotion (по одному очку каждая), т.е. суммировать надо по костам: 4+1+1+1+1=8.

Для хранилища (Datastore) также есть ограничения vMotion, поскольку передаются страницы файла подкачки (если он не шаренный между хостами), а также производится передача владения VMX-файлом и другими файлами ВМ на хранилище. Но поскольку влияние это мало, то стоимость vMotion для хранилища всего 1 при максимальной емкости одновременных операций 128 (а вот SVMotion, требующая значительных ресурсов хранилища, "кушает" 16 единиц). Таким образом 1 операция vMotion съест 1 единицу коста, поэтому в этот момент для хранилища будет доступно только 7 миграций SVMotion, т.е. (128-1) div 16 = 7.

Соответственно, редактирование параметра Config Key для соответствующей операции позволяет изменять количество одновременных операций vMotion/SVMotion. Для редактирования параметра Config Key нужно отредактировать конфигурационный файл vpxd.cfg на сервере VMware vCenter, который находится в папке:

%ALLUSERSPROFILE%\Application Data\VMware\VMware VirtualCenter\

Там нужно вписать новое значение в соответствующую секцию. Например, для параметра maxCostPerEsx41Ds:

< config >
< vpxd >
< ResourceManager >
< MaxCostPerEsx41DS > new value < /MaxCostPerEsx41DS >
< /ResourceManager >
< /vpxd >
< /config >

Если соответствующей секции нет, то ее можно просто добавить. Уменьшать максимальные косты точно можно, а увеличение работает не всегда. То есть гарантированно вы сможете только уменьшить число одновременных миграций vMotion или SVMotion, а вот увеличить - не факт. Ограничение можно делать двумя способами - повышением обычных костов или понижением максимальных костов.

Теперь самое интересное - это динамический параметр max cost для сетевых адаптеров. Как видно из таблицы, его действующее значение зависит от типа сетевого адаптера на хосте - 1G или 10G. Но, на самом деле, и не только от типа. Точнее - от скорости соединения для трафика vMotion между хостами ESXi, которую обнаруживает VMkernel. Таким образом:

  • Если VMkernel обнаруживает соединение на скорости 1Gbit/s - Maximum Cost выставляется в значение 4 (это верно и для случая соединения 1G<->10G).
  • Если VMkernel обнаруживает соединение на скорости 10Gbit/s - Maximum Cost выставляется в значение 8.
  • Если VMkernel обнаруживает соединение на скорости ниже 1Gbit/s - Maximum Cost выставляется в значение 2.

Таким образом, для адаптера возможны либо 2, либо 4, либо 8 одновременных миграций vMotion, в зависимости от действующей скорости соединения. Операция Storage vMotion, как видно из таблицы, костов сети не кушает.

Если ограничение для сети жестче (например, 4 миграции vMotion), чем ограничение для хоста (8 миграций vMotion) - то для машин этого хоста действует ограничение сети.


Таги: VMware, vSphere, vMotion, ESXi, Storage vMotion, SVMotion, VMachines, Storage, vNetwork

Обновился VMware View VDI Flash Calculator до версии 2.9.


Мы уже писали о калькуляторе VMware View VDI Flash Calculator, который недавно обновился до версии 2.9. На сегодняшний день это калькулятор номер 1 для расчета параметров инфраструктуры виртуальных ПК на базе VMware View (с поддержкой vSphere 5.1 и View 5.1).

Штука это очень крутая и серьезная, описание немалого количества параметров калькулятора и мануал можно найти здесь.

А вот что нового появилось в VMware View VDI Flash Calculator 2.9:

  • Увеличено число допустимых ВМ на процессор/ядро сервера до 20
  • Добавлена поддержка экономии операций ввода-вывода с дисковой подсистемой за счет механизма Content Based Read Cache (CBRC Base % IOP). Предполагается экономия на уровне 65% (можно регулировать)
  • Полная поддержка VMware vSphere / vCenter 5.1
  • Добавлен фреймворк для поддержки еще нереализованной функциональности VMware View
  • Добавлена валидация в соответствии с VMware compatibility matrix
  • Пофикшены баги отображения

Есть также обучающее видео по работе с калькулятором:

VMware View VDI Flash Calculator 2.9 доступен по этой ссылке. Напомним также, что у этого же автора есть XenDesktop VDI Calculator.


Таги: VMware, View, Calculator, VDI, Update

Рекомендации по защите инфраструктуры виртуальных десктопов VMware View. Часть 5 - физические устройства.


В этой части статьи разберем рекомендации по настройке взаимодействия физических клиентских устройств и виртуальных десктопов. С точки зрения информационной безопасности это важные ограничения, т.к. влияет явно на возможную передачу конфиденциальной информации между физическими клиентскими устройствами и виртуальными десктопами. Глобально пользователи должны использовать виртуальные десктопы в удаленном режиме (Remote Mode, Online). Т.е. физически виртуальные десктопы должны находиться на серверах, а не клиентских устройствах пользователей...


Таги: VMware, View, Security, Hardware, VDI, VMachines, Blogs

Тестирование производительности антивирусов в инфраструктуре виртуальных ПК (VDI) на платформе VMware View.


Мы уже писали о проекте Project Virtual Reality Check (VRC), который продвигают несколько человек из компаний Login Consultants и PQR. В своих работах по тестированию производительности различных решений ребята используют решение Virtual Session Indexer (VSI), которое они сами же и написали.

В рамках Phase V (они величают свои изыскания "фазами") был опубликован 80-страничный документ "Antivirus impact and best practices on VDI", в котором они сравнивают производительность различных антивирусных решений в инфраструктуре VDI (традиционно рассматривалась платформа VMware View / vSphere).

КДПВ из какого-то исследования (есть в документе):

Поэтому детально сравниваются только 3 антивируса для VDI:

  • Microsoft
    Forefront Endpoint Protection 2010 (Now System Center Endpoint Protection 2012)
  • McAfee
    - Enterprise 8.8.0
    - MOVE Multiplatform AV 2.x
    - MOVE Agentless AV 2.5
  • Symantec
    - Endpoint Protection 12.1

Странно, что обошли стороной компанию Trend Micro с ее весьма популярным, заточенным специально под виртуализацию, решением Deep Security. Ну а нам было бы интересно посмотреть, как ведет себя Касперский в среде VDI. Но чего нет, того нет.

Конечно же, в документе рассмотрены и варианты развертывания, когда антивирусный агент работает за пределами виртуальных машин (за счет механизма VMsafe и EPSEC API):

В конце там много всяких графиков без окончательного вывода о том, что же все-таки лучше. Поэтому смотрите сами.


Таги: VMware, Antivirus, Performance, vSphere, Enterprise, VDI, Security

Как обновить VMware Tools старых хост-серверов, не обновляя хостов VMware vSphere / ESXi.


Начиная с версии VMware vSphere 4.0, компания VMware сделала замечательную вещь - все выпускаемые ей в комплекте с платформой виртуализации пакеты VMware Tools обратно совместимы со всеми прошлыми версиями хостов VMware ESXi:

Соответственно, на VMware ESX 4.0 можно использовать VMware Tools от vSphere 5.1, но как сделать это, не обновляя платформу виртуализации? Оказывается есть простой метод, опубликованный на v-front.de и основанный на информации из KB 2004018.

Итак:

1. Скачиваем последние бандлы ESXi c VMware Patch download portal, например, ESXi510-201212001.zip. Открываем архив и переходим в категорию vib20\tools-light:

Там будет один или два файла с расширением .vib. Если их два, то тот, что с меньшим номером билда - это тулзы, содержащие только обновления безопасности, а тот, что с большим - включает и эти обновления, и багофиксы. Берем тот, что с большим номером (609), кликаем на нем 2 раза и проваливаемся дальше в архив, где виден репозиторий VMware Tools:

Эти три папки вы уже когда-то видели на Datastore в ESXi (во время установки тулзов). Создаем папку с именем vmware-tools на локальном хранилище ESX / ESXi и заливаем туда три извлеченные из vib'а папки, чтобы получилось вот так:

Теперь нужно настроить хост ESXi для использования данного репозитория VMware Tools. Для этого идем в Advanced Settings хоста ESXi и настраиваем параметр UserVars.ProductLockerLocation, где прописана версия тулзов в формате:

/locker/packages/<ESXi-Version> (ESXi-Version = 5.1.0, 5.0.0, 4.1.0 or 4.0.0)

В нашем случае она выглядит так:

/locker/packages/5.1.0

Меняем ее на путь к репозиторию: /vmfs/volumes/<имя Datastore>/vmware-tools.

После этого нужно перезагрузить хост, и изменения вступят в силу. Если перезагружать ESXi не хочется, то можно в корне файловой системы пересоздать символьную ссылку /productLocker:

rm /productLocker
ln -s /vmfs/volumes/<имя Datastore>/vmware-tools /productLocker

Можно также вызвать команды, которые вызываются хостом для пересоздания символьных ссылок:

  •  /sbin/configLocker - для ESX / ESXi 4.x
  • jumpstart --plugin=libconfigure-locker.so - для ESXi 5.x

Теперь остается только выбрать пункт Install/Upgrade VMware Tools в консоли vSphere Client при подключении к консоли ВМ для обновления компонентов пакета.


Таги: VMware, vSphere, Tools, VMachines, Blogs, ESX, ESXi

Вышло средство создания кластеров непрерывной доступности Stratus ftServer systems with vSphere 5.1.


Многим интересующимся технологиями виртуализации известна компания Stratus Technologies, занимающаяся вопросами непрерывной доступности виртуальных машин (Fault Tolerance). Ранее продукты этой компании были доступны на платформе Citrix XenServer, где позволяли обеспечивать непрерывную доступность программными методами (продукт everRun от купленной компании Marathon):

Теперь у компании появился программно-аппаратный комплекс Stratus ftServer systems with vSphere 5.1, интегрированный с последней версией платформы виртуализации от VMware. Возможности решения из пресс-релиза:

  • Обещают аптайм на уровне 99.999%, что соответствует 5.26 минут простоя в год
  • Один или два 8-ядерных процессора Intel с поддержкой hyper-threading и архитектуры QuickPath
  • Полная поддержка SMP для построения архитектуры непрерывной доступности (vSMP?)
  • Встроенные интерфейсы 10Gb Ethernet
  • Проактивная система мониторинга, предупреждающая о возможных сбоях
  • Система обнаружения проблем в самом сервере и операционной системе, работающая без прерывания обслуживания виртуальных машин
  • Минимальный overhead (<5%) на систему виртуализации
  • Интеграция с VMware HA

Очевидно, что Stratus суетится накануне выхода программного vSMP Fault Tolerance от самой VMware.

Кстати в пресс-релизе по ftServer говорится о полугодовой гарантии на нулевой даунтайм в $50 000, покрывающей не только серверную часть, но и гипервизор (!). Так что торопитесь - возможно, парочка серверов от Stratus достанется вам совершенно бесплатно (учитывая тот набор багов, который мы видим в vSphere 5.1).


Таги: VMware, Hardware, HA, FT, vSphere

VMware vSphere 5.1 - VMDK против RDM.


На днях компания VMware провела целых два тестирования (тут и тут), целью которых было сравнение производительности виртуальных дисков VMDK и RDM виртуальных машин на платформе VMware vSphere 5.1. Напомним про предыдущие сравнения VMFS и RDM, где основной моралью был тот факт, что оба этих типа виртуальных дисков практически идентичны по производительности, поэтому их следует использовать только в случаях, когда требуется специфическая функциональность (например, кластеры MSCS и большие диски для RDM):

Итак, для первого тестирования использовалась следующая конфигурация:

В качестве нагрузки использовался тест DVD Store для приложения, симулирующего интернет-магазин на платформе mySQL 5.5. Также было задействовано несколько тестовых клиентов для создания реальной нагрузки.

Масштабируемость производительности под нагрузкой (OPM - это orders per minute):

Как видно из результатов, масштабируемость производительности при увеличении числа ВМ почти линейная, а результаты различных типов дисков - идентичны (на самом деле, VMDK показал себя на 1 процент быстрее RDM для 1-й ВМ и чуть медленнее для 4-х ВМ):

Затраты ресурсов CPU на обслуживание операций ввода-вывода также чуть-чуть (на тот же 1%) лучше в пользу VMDK:

Теперь обратимся ко второму исследованию. Там использовалась следующая тестовая конфигурация, выдающая 1 миллион IOPS на тестах:

Hypervisor: vSphere 5.1
Server: HP DL380 Gen8
CPU: Two Intel Xeon E5-2690, HyperThreading disabled
Memory: 256GB
HBAs: Five QLogic QLE2562
Storage: One Violin Memory 6616 Flash Memory Array
VM: Windows Server 2008 R2, 8 vCPUs and 48GB.
Iometer Configuration: Random, 4KB I/O size with 16 workers

Тут уже измерялась производительность в IOPS для виртуальных машин на платформе VMware vSphere 5.1. При этом варьировался размер блока ввода-вывода (I/O Size) и сравнивались VMDK диски в VMFS5 и RDM-тома (нагрузка - случайное чтение):

Здесь уже на тот же самый 1% выигрывает RDM (для тестов на I/O). В тестах на MB/s ситуация в одном тесте оказалась в пользу VMFS. Масштабируемость тут уже показана не совсем линейная, при этом завал кривой начинается после размера блока в 4 Кб (единственный и по умолчанию в vSphere 5.1).

Второй тест - 60% операций чтения и 40% операций записи:

Такой рост производительности на блоке в 4 Кб объясняется просто - массив, примененный в тестировании, использует размер блока 4 Кб.

Вывод обоих тестов - виртуальные диски VMDK и RDM практически идентичны с точки зрения производительности.


Таги: VMware, vSphere, Performance, VMDK, VMFS, RDM, Blogs, Storage

Новый московский офис сервис-провайдера VMware номер 1 - ИТ-ГРАД.


Рост бизнеса компании ИТ-ГРАД по предоставлению в аренду виртуальных машин на платформе VMware vSphere в столице и, как следствие, рост числа сотрудников повлекли за собой необходимость поиска нового, более просторного помещения. Новый офис находится в бизнес-центр «Золотое кольцо», в минуте ходьбы от ст. м.Кожуховская. Телефон остался прежним: +7 (495) 748-05-77.

Точный адрес можно посмотреть в разделе "контакты". Мы всегда рады видеть Вас у нас в гостях! Также в связи с расширением у нас открыты вакансии в Москве.


Таги: VMware, VSPP, vSphere, Blogs

Баг статистик производительности в VMware vCenter 5.1 - пока нет фикса.


С приходом Нового года в продукте VMware vCenter, входящем в состав vSphere 5.1, была обнаружена ошибка, следствием которой является отображение за прошедший год статистик производительности (Performance history) только за последние 30 дней (декабрь).

Данная ошибка является следствием недоработок в хранимых процедурах БД vCenter Server, что приводит к удалению (purge) объектов базы данных, касающихся производительности. Исправления ошибки и никакого workaround'а пока нет.

С одной стороны, эти данные не являются критичными и, зачастую, не используются администраторами, однако различные продукты, которые используют исторические данные для анализа и планирования мощностей инфраструктуры виртуализации (Capacity Planning), не смогут уже выполнять свои функции адекватно.

Для получения информации об исправлении ошибки можно подписаться на KB 2042164.


Таги: VMware, vCenter, ESXi, Performance, Bug, Bugs, Blogs

Обнаружение события изоляции хоста ESXi в VMware vSphere 5.1.


Известный многим Duncan Epping в своем блоге рассказал об изменениях, которые произошли в механизме обнаружения события изоляции хост-сервера ESXi в VMware vSphere 5.1. Приведем их вкратце.

Как мы уже писали вот тут, кластер VMware HA следующим образом обрабатывает событие изоляции (отсутствие коммуникации с другими серверами кластера):

T+0 сек – обнаружение изоляции хоста (slave)
T+10 сек – хост slave переходит в режим выбора (“election state”)
T+25 сек – хост slave объявляет себя мастером (master)
T+25 сек – хост slave пингует адреса isolation addresses (по умолчанию один)
T+30 сек – хост slave объявляет себя изолированным и инициирует действие, указанное в isolation response

В VMware vSphere 5.1 появилось небольшое изменение, выражающееся в том, что хост ждет еще 30 секунд после объявления себя изолированным до инициации действия isolation response. Это время можно отрегулировать в следующей расширенной настройке кластера:

das.config.fdm.isolationPolicyDelaySec.

Таким образом, теперь последовательность выглядит так:

T+0 сек – обнаружение изоляции хоста (slave)
T+10 сек – хост slave переходит в режим выбора (“election state”)
T+25 сек – хост slave объявляет себя мастером (master)
T+25 сек – хост slave пингует адреса isolation addresses (по умолчанию один)
T+30 сек – хост slave объявляет себя изолированным и
T+60 сек - хост инициирует действие, указанное в isolation response

Наглядно:

Данные изменения были сделаны, чтобы обрабатывать сценарии, где не действие isolation response при наступлении изоляции хоста нужно обрабатывать через длительное время или не обрабатывать совсем.


Таги: VMware, vSphere, HA, Blogs

Как сделать скриншот консоли виртуальной машины в VMware vSphere.


Зачастую администраторам VMware vSphere требуется снять скриншот консоли виртуальной машины, который появляется вследствие различных ошибок или при установке ОС в ВМ. Делают они это, как правило, нажимая принтскрин в ОС, где установлен vSphere Client. Однако этот способ не очень красивый и не особо универсальный - ниже мы покажем, как правильно делать скриншот консоли ВМ.

Для этой операции мы снова задействуем MOB (Managed Object Browser), о котором мы уже писали тут и тут. Сначала нам надо получить MoRef ID виртуальной машины на определенном хосте VMware ESXi. Вкратце: MoRef ID присваивается виртуальной машине (и другим объектам) сервером vCenter для различных операций с ней, в том числе через MOB (он также используется в vCloud Director и других продуктах). MoRef ID уникален в пределах одного сервера vCenter.

Для получения MoRef ID воспользуйтесь статьей KB 1017126 - в ней все понятно расписано по шагам. Можно также воспользоваться скриптом vSphere MoRef ID Finder, который написал Вильям Лам.

Далее в адресной строке браузера наберите:

https://<IP хоста ESXi>/screen?id=vm-171

где vm-171 - это MoRef ID виртуальной машины. После авторизации пользователя (у которого должна быть привилегия VirtualMachine.Interact.ConsoleInteract) скриншот консоли ВМ будет выведен прямо в браузер.

При получении скриншота ВМ можно использовать еще несколько GET-параметров:

w = ширина получаемой картинки
h = высота получаемой картинки
x0  = координата X левого угла для снятия скриншота региона
y0 = координата Y левого угла для снятия скриншота региона
x1  = координата X правого угла для снятия скриншота региона
y1 = координата Y правого угла для снятия скриншота региона

Примеры отработки MOB для получения скриншотов ВМ с различными параметрами:

https://<IP хоста ESXi>/screen?id=vm-162&h=600&w=800

Скриншот региона:

https://<IP хоста ESXi>/screen?id=vm-162&h=600&w=800&x0=200&y0=75&x1=480&y1=200


Таги: VMware, vSphere, MOB, ESXi, VMashines, Blogs

Настройка VMware Storage DRS Affinity Rule для виртуальных дисков машин - отличия от дефолтного состояния.


Duncan и Frank, известные своими изысканиями в сфере механизмов отказоустойчивости (HA) и балансировки нагрузки (DRS) в виртуальной инфраструктуре VMware vSphere, опубликовали пару интересных материалов, касающихся настройки среды vCloud Director и механизма Storage DRS.

Как вы знаете, в настройках кластера хранилищ (Datastore Cluster) есть галка, которая определяет, будут ли виртуальные диски VMDK машин обязательно находиться на одном хранилище (Datastore) при миграции средствами механизма Storage DRS:

Надо отметить, что галка Keep VMDKs together by default - это не совсем простая для понимания галка. Если ее не поставить, то действовать будет обратное - диски виртуальной машины будут обязательно размещаться на разных хранилищах. Это, по заверениям блоггеров, даст больше гибкости в использовании механизма SDRS в среде vCloud Director при перемещении виртуальных машин между хранилищами, что даст больше преимуществ в динамически балансирующейся среде (особенно для "тонких" дисков). Соответственно, по умолчанию галка Keep VMDKs together by default должна быть выключена.


Таги: VMware, SDRS, Storage DRS, VMDK, Storage, vSphere

Еще много оффлайн-демо продуктов VMware - возможность потыкать консоли и поучиться.


В прошлом году я обещал выложить оффлайн-демо продуктов VMware, которые не попали в обзор, в случае, если будет запрос на их выкладывание сюда. Запросов оказалось достаточно, поэтому продолжим эту традицию, но уже без обзора, а просто выложим файлы списком.

Собственно файлы:

Вроде все, больше нет.


Таги: VMware, Demo, vSphere, vCloud

Как заставить пользователей заходить на VMware vCenter через vSphere Web Client, а не через "толстый" клиент.


Не так давно мы писали про отличия "тонкого" и "толстого" клиентов для новой версии VMware vSphere 5.1. Многие из вас также знают, что текущая версия VMware vSphere Client 5.1 - это последняя версия толстого клиента, дальше будет только Web Client.

Соответственно, нужно начинать отучать пользователей ходить через vSphere Client и приучать использовать веб. Проблема в том, что штатного способа сделать это нет. Если у пользователя есть доступ - то и клиент он всегда сможет скачать и использовать.

Поэтому William Lam придумал простой способ борьбы с этим. Надо открыть файл version.txt на сервере vCenter, который находится вот тут:

  • Windows: C:\ProgramData\VMware\VMware VirtualCenter\docRoot\client
  • VCSA: /etc/vmware-vpx/docRoot/client

Дальше в значение версии клиента (exactVersion) нужно вписать несуществующую версию, например, 9.0.0. После этого, при логине через vSphere Client, пользователям будет предложено скачать версию клиента, которой не существует, что приведет к зацикливанию процесса:

Однако это приведет к желаемому результату - через vSphere Client пользователи не смогут залогиниться.

На сервере VMware ESXi это тоже можно применить, однако там нужно поправить файл clients.xml, размещенный по адресу:

/usr/lib/vmware/hostd/docroot/client 

Так что пора уже переводить своих пользователей на браузер.


Таги: VMware, vSphere, Web Client, Обучение, ESXi, vCenter

vcsim - симулятор VMware vCenter или как создать 10000 ненастоящих виртуальных машин в vSphere Client.


Отличный пост про симулятор сервера vCenter написал William Lam. Изложим здесь его вкратце. Когда-то два человека, Zhelong Pan и Kinshuk Govil, написали утилиту vcsim, которая позволяет эмулировать сервер VMware vCenter в котором запущены тысячи виртуальных машин, при этом такие объекты потребляют минимум ресурсов и работают на минимальной конфигурации VMware vCSA (vCenter Server Appliance). Утилита входит в состав vCSA, но отсутствует в обычной инсталляции vCenter.

Помимо собственно построения виртуального Inventory сервера vCenter из виртуальных машин и хост-серверов, утилита vcsim поддерживает простейшие операции с фейковыми объектами, например, Power On ненастоящих машин, а также различные метрики производительности. Кроме того, с помощью этой утилиты можно и добавлять настоящие серверы VMware ESXi и виртуальные машины, создавая гибридную конфигурацию, так как vcsim - это, все же, настоящий vCenter Server.

Теперь приведем ситуации, когда такая конфигурация может оказаться полезной:

  • При изучении vSphere API для исследования функций навигации по иерархии.
  • Возможность создать "виртуальное" окружение для тестирования различных скриптов.
  • Разработка утилит, отслеживающих производительность
  • Разработка плагинов к vSphere Web Client 

Для начала работы с vcsim нужно внести изменения в файл /etc/vmware-vpx/vpxd.cfg, поместив туда следующее между тэгами </vpxd> и </config>:

<simulator>
<enabled>true</enabled>
<cleardb>false</cleardb>
<initinventory>vcsim/model/initInventory.cfg</initInventory>
</simulator>

Кстати, шаблон конфигурации vcsim представлен в файле:

/etc/vmware-vpx/vcsim/model/vcsim.cfg.template

После этого нужно перезапустить сервис vCenter:

service vmware-vpxd restart

Такой перзапуск сервиса можно делать только один раз (даже если он был не успешен), дальше будут использоваться другие команды, приведенные ниже.

После рестарта сервиса мы можем увидеть окружение с сотнями хост-серверов и десятью тысячами виртуальных машин, как в веб-клиенте:

\

так и в "толстом" клиенте:

Теперь мы можем менять параметры окружения в файле:

/etc/vmware-vpx/vcsim/model/initInventory.cfg

В нем можно настраивать следующие объекты:

  • Datacenter
  • Hosts per Datacenter
  • VM per Host
  • Powered On VM per Host
  • Cluster per Datacenter
  • Host Per Cluster
  • Resource Pool per Cluster
  • VM per Resource Pool
  • Powered On VM
  • vCPU for a VM
  • vMEM for a VM

После того, как вы сохранили внесенные в конфигурацию изменения, нужно выполнить команду vpxd -b, чтобы пересоздать базу симулируемого vCenter. Поэтому выполняем следующую последовательность для рестарта сервиса:

service vmware-vpxd stop
vpxd -b
service vmware-vpxd start

Кроме того, vcsim использует следующие конфигурационные файлы:

  • vcsim/model/metricMetadata.cfg (симулируемые Performance Metrics - по умолчанию их нет)
  • vcsim/model/vcModules.cfg (симулируемые модули vCenter, например, DRS)
  • vcsim/model/OperationDelay.cfg (задержки выполнения операций)

Так что теперь можно испытывать эту штуку и экспериментировать в свободное время. Ну и, само собой, все это никак не поддерживается со стороны VMware.


Таги: VMware, vCenter, vcsim, Blogs, ESXi, VMachines, Обучение

Прогнозы на 2013 год в сфере виртуализации и облачных вычислений.


В конце декабря модно давать прогнозы, касающиеся развития технологий в следующем году. Сфера облачных вычислений и технологий виртуализации - не исключение. В этом посте мы постарались собрать наиболее значимые прогнозы, которые в последнее время появились на страницах различных изданий и блогов.

Итак:

  • Прогноз от Savvis - в 2013 году облака будут все еще on-premise, т.е. работать в пределах инфраструктуры компании. Выиграют те сервис-провайдеры, которые смогут предоставлять гибридную модель онпремизно-офпремизных услуг. Об этом же говорит и прогноз BlueStripe - крупные компании, само собой, от частного облака в публичное никогда полностью не уйдут - критичные сервисы всегда будут в своем датацентре:

  • Прогноз от Veeam Software - гипервизоры VMware и Microsoft будут сосуществовать в инфраструктурах компаний, а также средний и малый бизнес будет использовать возможности виртуализции, которые традиционно считались доступными только Enteprise-сектору.

  • В том же прогнозе рассказано про HPC Cloud Computig - высокопроизводительные публичные облака. На эту тему, конечно же, мы вспомним нашу заметку "Еще одно публичное облако IaaS - Google Compute Engine". И дествительно, кому как не Гуглу таким заниматься? Но надо помнить, что на этом рынке есть еще Microsoft (вот тут) и, конечно же, первопроходец облачных сервисов - Amazon (вот тут).

  • Прогноз от Citrix - концепция BYOD будет мейнстримом. Такой прогноз от Citrix неудивителен, поскольку компания предоставляет средства создания инфраструктуры доступа к корпоративным приложениям с любого устройства, которое захотел пользователь. Интересно также мнение Citrix о том, что Windows-приложения уже не будут рулить как раньше - это очевидно, поскольку все мы знаем, кто захватил мобильные платформы.

Также еще несколько предсказаний вы можете почитать вот тут. Ну и интереснейшая серия прогнозов на 2013 год вот тут (я выбрал самые интересные):


Таги: VMware, Cloud, Cloud Computing, Citrix, Veeam, Blogs, Enterprise

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 | 105 | 106 | 107 | 108 | 109 | 110 | 111 | 112 | 113 | 114 | 115 | 116 | 117 | 118 | 119 | 120 | 121 | 122 | 123 | 124 | 125 | 126 | 127 | 128 | 129 | 130 | 131 | 132 | 133 | 134 | 135 | 136 | 137 | 138    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Veeam Broadcom Offtopic Microsoft Cloud StarWind VMachines NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Live Recovery vDefend vSAN CloudHealth NSX Labs Backup AI Chargeback Aria VCP Intel Community Ransomware Stretched Private AI Workstation Network Tanzu VMUG HCX VCPP Explore Data Protection ONE V2V DPU Update EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint Memory Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Upgrade Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Ports Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2025, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge