Как многие из вас знают, у компании VMware есть средство для резервного копирования виртуальных машин на серверах VMware ESXi - VMware vSphere Data Protection (VDP), входящее в состав платформы виртуализации VMware vSphere 5.1.
Это решение построено на базе продукта EMC Avamar, что позволяет производить резервное копирование содержимого гостевой ОС виртуальной машины, без агентов и со встроенной дедупликацией. Этот продукт заменил предыдущее решение vSphere Data Recovery, которым ранее бэкапились виртуальные машины.
По-сути, отличия заключаются в том, что VDP Advanced может применять дедупликацию на хранилищах до 8 ТБ, поддерживает резервное копирование до 400 ВМ и имеет в своем составе агентов для восстановления объектов ПО Microsoft. В частности, VDP Advanced может восстанавливать отдельные объекты Microsoft SQL (все приложение, файлы БД или только архивные логи) средствами SQL Agent, а Exchange Server Agent позволяет производить гранулярное восстановление почтовых ящиков и отдельных сообщений.
Продукт традиционно поставляется в виде виртуального модуля (Virtual Appliance) и требует обязательного наличия vCenter Server 5.1, а также установленного vSphere Web Client.
Ценовая политика на решение vSphere Data Protection Advanced вызывает недоумение: за сокет сервера ESXi придется заплатить $1095 (в ценах NAM). И это при том, что Veeam Backup and Replication 6.5 Enterprise, имеющий намного больше возможностей, стоит практически столько же.
Более подробно о решении VMware vSphere Data Protection Advancedможно почитать в официальном пресс-релизе.
Компания VMware традиционно выпустила черновик своего руководства по обеспечению информационной безопасности виртуальной инфраструктуры - VMware vSphere 5.1 Security Hardening Guide Draft. Традиционно - потому что, как правило, VMware делает доступным черновик руководства для его публичного обсуждения, а через пару-тройку месяцев выпускает его финальную версию. Так было и с прошлой версией - vSphere 5.0 Security Hardening.
Руководство, как обычно, состоит из экселевских табличек:
Пока в документе мало что добавилось нового с прошлой версии (например, в секции виртуальных машин - ничего вообще). Обещают, что в скором времени Security Hardening Guide будет включать в себя секции с руководствами по обеспечению безопасности компонентов Single Sign-On (SSO) и vCenter Server Virtual Appliance.
Если заглянуть в секцию Network утилиты esxtop, то там (начиная с ESXi 5.1) можно увидеть объекты Shadow of vmnic1 и т.п.:
На самом деле, эти штуки созданы для обеспечения работы функций VDS Network Health Check, которые появились в VMware vSphere 5.1. Для каждого физического интерфейса создается shadow port, через который посылаются пакеты Health Check, связанные с состоянием этого порта. Эти виртуальные интерфейсы можно мониторить на предмет работоспособности означенной функциональности.
Если эти штуки вам мешают, то можно убрать их, отключив модули хоста ESXi, связанные с хэлсчеком (заодно и в целях безопасности). Для этого нужно выполнить следующую последовательность команд для выгрузки ненужных модулей:
Помните, что после перезагрузки эти изменения не сохранятся - модули снова будут загружены автоматически.
Кстати, не по теме, но хозяйке на заметку: если вы видите, что в esxtop какой-либо счетчик принимает только значения 0 или 100 - знайте, что это просто означает работает эта штука в данный момент времени или нет. Так, например, происходит с SIOC. Просто нет еще в esxtop булевых метрик.
Многие из вас знают продукты StarWind iSCSI SAN и StarWind Native SAN for Hyper-V, предназначенные для создания отказоустойчивых хранилищ виртуальных машин для платформ VMware и Hyper-V. Но немногие знают что компания выпускает целых 3 SDK, которые могут помочь разработчикам интегрировать сторонние решения с продуктами StarWind.
Вот эти пакеты:
StarWind iSCSI SAN SDK
Это основной SDK, позволяющий использовать функциональность продуктов StarWind. С его помощью можно:
Добавлять функции iSCSI Target в собственные приложения.
Разрабатывать собственные SCSI-устройства с нужной функциональностью
Соединять физические устройства с удаленными машинами (SPTI)
Более подробно о StarWind iSCSI SAN SDK можно почитать тут.
StarWind Deduplication SDK
Как понятно из названия, этот SDK позволяет использовать механизмы дедупликации StarWind. Это технология in-line дедупликации данных (то есть во время резервного копирования, а не после) на уровне блоков, которая уже надежно зарекомендовала себя в продуктах StarWind. Она позволяет добиться коэффициента дедупликации данных до 20 к 1, использует регулируемый размер блока (под разные задачи хранилищ) и позволяет использовать кэширование на SSD-накопителях и в оперативной памяти.Об этом средстве мы уже упоминали вот тут.
SDK включает в себя библиотеку кода, примеры использования и документацию по API. Более подробно о StarWind Deduplication SDK можно почитать тут.
StarWind Log-Structured File System (LSFS) SDK
LSFS - это файловая система, предназначенная для хранения нескольких файлов виртуальных устройств (в первую очередь, устройств - образов виртуальных дисков), которая оптимизирована для высокой производительности при нагрузках типа "random access" (что характерно как раз для виртуальных машин).
StarWind LSFS SDK предоставляет:
Слой хранения файлов, которые поддерживает высокую скорость ввода-вывода при случайной записи
Технологию снапшотов
Технологию Thin Provisioning для экономии дискового пространства хранилищ
Технологию дедупликации
Более подробно о StarWind LSFS SDK можно почитать тут.
Интересная статья обнаружилась у Кормака, касающаяся того, как работает LUN Discovery на хостах VMware ESXi. Оказывается все новые LUN, висящие на одном таргете обнаруживаются сервером ESXi автоматически по заданному таймауту.
То есть мы сначала делаем Rescan, чтобы добавить новый таргет (порт массива), например, T2 с LUN ID=10:
Дальше на этом таргете создаем новый LUN ID=20, и через какое-то время он автоматически появляется в списках устройств:
Все это потому, что по умолчанию каждые 5 минут вызывается проба (SCSI-команды REPORT_LUN и/или INQUIRY), целью которой является обнаружение новых устройств и путей на известных хосту таргетах. Настраивается это время (в секундах) в следующей расширенной настройке (по умолчанию 300 секунд):
Disk.DeviceReclaimTime
Кроме того, все это отрабатывает и тогда, когда происходят операции добавления (Rescan) или удаления таргета.
Какое-то время назад мы уже было подумали, что компания Parallels забила на виртуализацию серверов, продолжая продвигать контейнерную виртуализацию на базе технологии Virtuozzo. Ан, нет. На проходившем с 4 по 7 февраля Parallels Summit компания Parallels представила обновленные продукты Parallels Cloud Server и Parallels Cloud Storage.
В решении Cloud Server сочетается контейнерная виртуализация и виртуализация серверов (Parallels Containers и Parallels Hypervisor), а Cloud Storage - это облачное хранилище данных от Parallels, которое развертывается в инфраструктуре предприятия:
С помощью Parallels Cloud Storage сервис-провайдеры могут создать отказоустойчивый распределенный кластер для хранения данных на базе локальных дисков серверов (т.е. без SAN-инфраструктуры), в том числе и для виртуальных машин. Parallels Cloud Storage создает заданное количество копий на разных компьютерах и таким образом предотвращает потерю данных в случа сбоя одного из них (каждая дополнительная копия данных снижает скорость записи примерно на 10%, но улучшает чтение). Для большей надежности в Parallels Cloud Storage можно настроить использование контрольных сумм пользовательских данных и их проверку как при непосредственном доступе к данным, так и на регулярной основе.
Ну а продукт Parallels Cloud Server позволяет хранить и запускать виртуальные машины и контейнеры Parallels, выполнять горячую миграцию виртуальных серверов, а также расширять объем доступного пространства, не ограничиваясь объемом свободного места на локальном диске (т.е. подключать дисковые ресурсы пула Cloud Storage). Основной целевой аудиторией Parallels Cloud Server являются хостинг-провайдеры, которые расширяют перечень своих услуг, например до IaaS->PaaS->SaaS.
Интересной особенностью продукта Parallels Cloud Server является возможность развернуть виртуальные машины и контейнеры на одном физическом сервере. Также повысились возможности масштабируемости инфраструктуры Parallels - одной виртуальной машине можно назначить до 32 ядер процессора, 128 ГБ оперативной памяти и 5 ТБ дискового пространства. Кроме того, Parallels Cloud Server поддерживает до 1 ПБ доступного дискового пространства.
Запросить пробную версию Parallels Cloud Server можно на этой странице.
Как это модно сейчас называть, Virtual Switch от NEC реализован в рамках концепции Software Defined Networking (SDN), подразумевающей абстракцию сетевого оборудования датацентра в целях агрегации и централизованного управления сетевыми ресурсами. Виртуальный коммутатор ProgrammableFlow PF1000 позволяет объединить сетевые ресурсы хост-серверов Microsoft Hyper-V на платформе Windows Server 2012 в единой консоли и централизованного управлять ими в рамках виртуального датацентра.
Ключевыми компонентами решения ProgrammableFlow PF1000 являются:
Средство централизованного управления ProgrammableFlow Controller (PFC), построенное на базе концепции Open SDN и поддерживающее протоколы OpenStack Folsom и OpenFlow
Агенты ProgrammableFlow Switches (PFS) на хост-серверах, представляющие собой виртуальные коммутаторы уровня сервера
ProgrammableFlow Controller реализует виртуальные сети на уровне L2 и L3 с поддержкой механизма Quality of Service (QoS) и IPv6 для инфраструктуры OpenFlow. Кроме того, в решении реализована поддержка REST-based API, что позволяет просто интегрировать продукт со сторонним программным обеспечением.
Более подробно о решениях серии NEC ProgrammableFlow SDN можно узнать по этой ссылке.
Центр компетенции компании ИТ-ГРАД сочетает в себе опции демонстрационного центра и лаборатории, предназначенной для тестирования существующих решений и их последующей оптимизации, а также для создания персональных решений в процессе совместной работы производителя и заказчика.
Центр компетенции позволяет решать следующие задачи:
Функциональное и нагрузочное тестирование СХД NetApp на реальных задачах.
Апробация и моделирование важных изменений в тестовой среде.
Знакомство с возможностями интеграции с системами виртуализации и приложениями.
Точная оценка эффективности внедрения СХД NetApp в конкретном проекте.
Концентрация компетенций по технологиям NetApp, получение консультаций, обучение.
Организация склада запасных частей.
Работу Центра обеспечивают квалифицированные инженеры, готовые помочь сконфигурировать тестовую среду и провести анализ работы оборудования. Для удобной работы имеется отдельная комната для посетителей, в которой размещено необходимое оборудование для проведения презентаций и мониторинга процесса тестирования.
Совершенно не обязательно приезжать в Санкт-Петербург для того, чтобы провести тестирование. В Центре реализована возможность удаленной работы посредством сети Интернет. Для того, чтобы посетить Центр компетенции ИТ-ГРАД, нужно записаться по этой ссылке.
Недавно ассоциация DMTF, в которую входят многие вендоры платформ виртуализации, такие как VMware, Citrix, Microsoft и другие, объявила о выпуске спецификации на стандарт формата OVF 2.0 (Open Virtualization Format), предназначенного для распространения программного обеспечения в виде виртуальных модулей (VIrtual Appliances) - т.е. готовых к импорту в виртуальную среду машин.
Надо отметить, что в последнее время формат OVF набирает все большую популярность у производителей программного обеспечения. Вот пример развертывания ПО Cisco Prime LMS из OVF-пакета:
Теперь стандарт OVF 2.0 больше ориентирован на облачные инфраструктуры, в том числе IaaS-провайдеров. Это выражается в том, что теперь есть средства для повышения гибкости сетевой инфраструктуры виртуальных машин и механизмы обеспечения повышенной безопасности.
Какие нововведения подразумевает формат OVF 2.0:
Улучшенная поддержка конфигурации сетевого взаимодействия с возможностями отображения сетевой конфигурации виртуального модуля на физическую и виртуальные сети инфраструктуры предприятия
Возможность шифрования пакета OVF (EncryptionSection), позволяющая гарантировать использование корректного пакета
Расширенные возможности параметров развертывания
Поддержка базовых политик первоначального размещения машины - affinity и availability
Поддержка общих дисков (Shared disks)
Улучшенная обработка механизма приоритета загрузки с устройств
Улучшенные механизмы передачи данных в гостевую ОС (например, IP-адреса и прочего)
Улучшенные схемы CIM
Спецификацию формата OVF 2.0 можно найти по этой ссылке, а FAQ доступен тут.
Если вам по каким-либо причинам понадобилось подключить флэшку или другое USB-устройство к VMware ESXi, например, в целях сбора диагностических данных или интеграции сторонних пакетов (или драйверов) в гипервизор, то сделать это можно способом, описанным ниже. Прежде всего отметим, что монтирование USB-хранилищ в консоль ESXi поддерживается только для файловой системы FAT16.
1. Сначала нужно отключить службу USB Arbitrator service, которая отвечает за проброс USB-девайсов в виртуальные машины хост-сервера. Для этого выполняем команду:
# /etc/init.d/usbarbitrator stop
2. Далее подключаем носитель к ESXi и проверяем девайс командой:
# esxcli storage core device list | grep -i usb
или смотрим список смонтированных файловых систем:
# esxcli storage filesystem list
После этого вы можете работать с USB-устройством через папку /vmfs/volumes/NO NAME/. Например, можно установить бандл ESXi с флешки:
Не так давно мы писали о том, что компания Teradici планирует выпустить продукт для доступа пользователей к серверам инфраструктуры предприятия через высокопроизводительный протокол PCoIP и сервисы Microsoft RDS. Изначально это решение носило название Teradici Remote Desktop Services Host (RDSH), теперь же оно звучит проще - Teradici Arch.
Решение Teradici Arch направлено на тех пользователей, кто использует терминальные службы Microsoft для доступа пользователей к приложениям, размещенным на серверах Microsoft Windows Server, которые они по каким-то причинам не хотят (или не могут) переносить в VDI-среду VMware View.
С одной стороны, для VMware этот шаг Teradici очень выгоден - поскольку решение Arch завязано на брокер соединений VMware View Manager (обязательное требование), только VMware сможет предлагать своим клиентам законченное решение как по виртуализации рабочих нагрузок в VDI-среде VMware View, так и для улучшения производительности Legacy-информационных систем, применяющих терминальный доступ на базе Microsoft RDS в Windows Server 2008 и Windows Server 2012 (последний пока не поддерживается).
С другой же стороны, не будем забывать, что компания Teradici не принадлежит VMware, и решение Arch несколько диверсифицирует ее софтово-продуктовый портфель, что может привести к приобретению большей независимости от VMware в будущем и, как следствие, сотрудничеству с Microsoft.
Архитектура решения Teradici Arch такова:
В разрыв канала между софтовыми и железными клиентами ставится виртуальный модуль PCoIP Connection Manager (Virtual Appliance), который и отвечает за обработку соединений пользователей и выступает в качестве защищенного шлюза. Модуль PCoIP Security Gateway позволяет поддерживать безопасное соединение между клиентами и View Connection Server (который находится в DMZ), что не требует наличия стороннего VPN-решения. Компоненты PCoIP Services устанавливаются на Windows-серверы и позволяют полностью избавиться от RDP-протокола, заменив его на PCoIP (то есть, RDP становится недоступным на этих серверах).
Требования продукта Teradici Arch:
Microsoft Windows Server 2008 R2 SP1 x64 с сервисами RDS (работающий в виртуальных машинах на ESXi или на физических серверах)
VMware View Agent 5.1 или более поздней версии
VMware View Connection Server 5.1 или более поздней версии
Установленные VMware Tools, если сервер работает в виртуальной машине
На данный момент заявлена поддержка до 2-х мониторов на публикуемый рабочий стол с разрешением 2560×1600. Поддерживаемые клиенты:
PCoIP Zero Clients
Tera2: firmware version 4.0.3
Tera1: firmware version 4.0.2
VMware View Windows soft client, version 5.2
VMware View Apple OS X soft client, version 1.7
VMware View iOS and Android clients, version 1.7
Поддержка USB-устройств пока ограничена только клавиатурой и мышью.
Продукт Teradici Arch пока доступен только в качестве технологического превью по этой ссылке. Даташит доступен тут.
Как многие помнят, ранее в настройках VMware Tools можно было настраивать синхронизацию времени гостевой ОС со временем хост-сервера VMware ESXi. Доступно это было при двойном клике на иконку VMware Tools в гостевой системе:
Теперь же, начиная с vSphere 5.1, при двойном клике на иконку VMware Tools вы увидите следующее:
То есть тут, по-сути, доступна только информация о версии пакета. Это правильно, так как пользователю виртуальной машины не должно быть доступно никаких действий и настроек, относящихся к слою виртуализации.
Вместо этого, различные настройки, в том числе синхронизации времени, были вынесены в категорию VMware Tools опций виртуальной машины (Virtual Machine –> Edit Settings –> Options –> VMware Tools):
Теперь администраторам VMware vSphere не требуется полномочий в гостевой ОС, чтобы регулировать настройки VMware Tools.
VMware vCenter Support Assistant 5.1 - это бесплатный плагин к VMware vCenter Server, который призван облегчить сбор диагностических данных об инфраструктуре VMware vSphere, а также помочь обратиться в техническую поддержку:
Если вы обращались в техподдержку VMware, то, наверняка, знаете, что это не очень удобный и весьма замороченный процесс. Теперь все это станет проще, поэтому продукт просто необходимо поставить в своей инфраструктуре. Тем более, что это плагин к vCenter, а не виртуальный модуль (Virtual Appliance).
Написана она на PowerCLI человеком по имени Sean Duffy и обновлялась совсем недавно - 29 декабря прошлого года.
Для резервного копирования и восстановления конфигурации VMware ESXi используются командлеты PowerCLI Get-VMHostFirmware и Set-VMHostFirmware. Утилита была протестирована для ESXi 5.0 и 5.1, графический интерфейс позволяет производить резервное копирование на локальный диск компьютера, где она запущена. Убедитесь, кстати, что в вашей инфраструктуре работает служба DNS, так как утилита обращается к хост-серверам по именам.
Из интересных особенностей - возможность восстановить конфигурацию на другой хост ESXi (на скриншоте подчеркнуто красным). В последней версии также добавлена валидация хоста на возможность резервного копирования и восстановления (т.е., что он не находится в maintenance mode и вообще работает).
Скачать ESXi Host Backup & Restore GUI Utility можно по этой ссылке. Для запуска утилиты вам потребуется установленный PowerShell / PowerCLI.
Дмитрий Гачко, генеральный директор компании ИТ-ГРАД, рассказывает об успешном использовании решений VMware для предоставления услуг аутсорсинга ИТ-инфраструктуры (IaaS), а также о будущих планах по предоставлению услуги Desktop-as-a-Service (Daas). Дмитрий говорит о критериях, по которым была выбрана эта платформа, раскрывая основные преимущества, полученные на практике.
ИТ-ГРАД – динамично развивающаяся компания, которая предоставляет услуги функционального ИТ-аутсорсинга. Более подробно об услугах компании можно почитать по этой ссылке.
Компания VMware выпустила очередной постер, посвященный составляющим инфраструктуры VMware vCloud - VMware vCloud Suite Poster.
Постер скорее маркетинговый, чем технический (в отличие от предыдущего), однако позволяет вкратце почитать о назначении и функциональности продуктов семейства vCloud, а также понять взаимосвязь компонентов законченного решения. Постер также может быть хорошим ответом на чей-нибудь вопрос о том, что же у VMware есть для организации облачной инфраструктуры, кроме VMware vSphere?
Напомним также, что все существующие на сегодняшний день постеры компании VMware можно найти по короткой ссылке:
Интересные новости приходят от Дункана: в VMware vSphere 5.0 Update 2 при переименовании виртуальной машины во время миграции Storage vMotion ее VMDK-диски также переименовываются (раньше это не работало - менялось только имя машины). Но это, почему-то, не включено по умолчанию.
Чтобы это заработало нужно добавить расширенную настройку VMware vCenter. Для этого идем в "Administration" -> "vCenter Server Settings" -> "Advanced Settings" и добавляем параметр:
provisioning.relocate.enableRename со значением true
Итак, титаническая работа была проделана - и диски теперь переименовываются. Однако, почему эта настройка не активирована по умолчанию? Непонятно - бажит наверное...
Для VMware vSphere 5.1 эта штука пока не актуальна (только vSphere 5.0 Update 2), но обещают, что скоро она заработает с очередным апдейтом. Кстати, а почему тут только интерфейс добавления расширенных настроек и нет удаления?
Продолжаем рассказывать о решении для создания отказоустойчивой инфраструктуры хранения виртуальных машин для платформы Hyper-V - StarWind Native SAN. Недавно, кстати, мы писали о том, что появилось бесплатное издание StarWind Native SAN for Hyper-V Free edition с функциями отказоустойчивости хранилищ хост-серверов.
На этот раз предлагаем вашему вниманию документ "Virtualization Reality:
Why StarWind Virtual SAN Solutions
Deliver Value When Compared to Microsoft", в котором рассмотрены 5 причин, исходя из которых решение StarWind Native SAN имеет преимущества и ценность по сравнению со встроенными средствами Microsoft Hyper-V, такими как Shared Nothing Live Migration, Hyper-V Replica и механизмом кластеризации через SMB 3.0.
Также в документе, помимо всего прочего, рассмотрены архитектуры Scale-Out File Servers, о которой мы уже писали вот тут, и построение кластеров Microsoft на базе дисковых полок SAS JBOD. Как не трудно догадаться, все это хуже, чем решение StarWind Native SAN.
Как видно из списка, курс покрывает большинство аспектов администрирования VMware View и будет очень полезен начинающим администраторам инфраструктуры виртуальных ПК.
Напомним, что на русском языке доступны также следующие обучающие онлайн-курсы:
Вот ты каждый день ходишь на работу, не опаздываешь, живешь правильно. Крестик на груди. Ершиком в общественном туалете даже иногда пользуешься. Время от времени ездишь в Египет, Тайланд или на Маврикий. Сам понимаешь - кому как. Ребенка вот в правильную школу устроил, английский учит, хоккей там, футбол (когда лед дорогой). Начальство нормуль, жена дает, любовница есть. Каждый год - новая.
Идет все как всегда - ничто не задевает твои чувства. Ну почти...Нет, ну вот ты помнишь, как эти бесстыдные девчонки дрыгались в храме? Че они там делали, че хотели сказать? Зачем? Глупые! Хули, пусть сидят. Если все так будут относиться к вере, то что с ней будет?
Или вон вообще - акция поцелуев. Охренели что ли? В центре Москвы пидорасы лижутся. Телки ладно, но пидорасы. Ну дела! И правильно, что им носы расхерачили. Пусть знают. У тебя же дети, увидят таких - и задумаются, а не стать ли им пидорасами? Если пидорасам все будет позволено, то что это за жизнь такая будет? Везде ж будут одни пидорасы.
А вон эти смешные в Лос-Анжелесе - сделали понедельники вегетарианскими. Дебилы. Мясо надо есть - там все витамины, аминокислоты. Тем более в понедельник. Без мяса будешь дохлый, никчемный. Лузером станешь, и все над тобой будут смеяться. Вон как Толян (улыбаешься, вспомнив Толяна).
В бога надо верить, пидорасов гнобить и мясо есть. А любовница, взятки, "всё в дом", бухло по пятницам и пивной животик - это нормально, так у всех. Так вот ты думаешь. И, может быть, ты даже никогда и не представишь, что ссышь поменять хоть одно слагаемое в этой сложившей твою жизнь формуле.
Оказывается, один из самых частых вопросов по продукту для виртуализации настольных ПК VMware View - это как можно показать PCoIP-сессию пользователя через средство управления vSphere Client (по умолчанию там показывается чистый экран).
Для этого необходимо поменять настройку в шаблоне групповой политики (GPO) pcoip.adm. Находится этот шаблон на View Connection Server в папке:
Нужно запустить Group Policy Management, затем создать или привязать к организационной единице AD пула виртуальных ПК групповую политику. В контекстном меню данной групповой политики выбрать пункт "Edit…". В появившемся окне "Group Policy Management Editor" в контекстном меню пункта "Computer Configuration –> Policies –> Administrative Templates" выбрать пункт "Add/Remove Templates…". В появившемся окне "Add/Remove Templates" нажать на кнопку "Add.." и выбрать файл с ADM-шаблоном "pcoip.adm".
Далее нужно установить Enable для настройки "Enable access to PCoIP session from a vSphere console":
Затем нужно применить политики и презагрузить десктоп VMware View. После этого в vSphere Client в консоли виртуальной машины вы будете наблюдать то же самое, что и для VMware View Client:
Более подробно о настройках шаблона pcoip.adm можно узнать из документации.
Среди предложений облачного провайдера ИТ-ГРАД есть услуга по предоставлению облачной инфраструктуры для Java-разработчиков, реализованной на базе продуктов VMware vFabric. Она включает в себя высокопроизводительный сервер приложений, сервис работы с БД SQL, сервис обмена сообщениями, балансировщики нагрузки и сервис хранения файлов.
Также в составе решения предлагается среда поддержки жизненного цикла разработки приложений – IT-GRAD ALMaaS.
Компания ИТ-ГРАД, также имеет в составе своих предложений специализированное решение для команд разработчиков на базе продуктов семейства Team Foundation Server компании Майкрософт и ресурсов собственного публичного облака.
Решение представляет из себя готовую, выделенную для каждой команды разработчиков площадку, предварительно настроенных продуктов компании Майкрософт, предназначенных для коллективной разработки программного обеспечения. Набор состоит из следующих компонент, которые в зависимости от потребностей могут изменяться в количестве и конфигурации.
Team Foundation Server – средство учета требований, выдачи заданий на разработку и тестирование, учет ошибок и контроль версий исходных кодов.
Среда разработчика – выделенный сервер разработчика, с предустановленным пакетом Visual Studio 2010 (любая редакция на выбор) и Test Manager 2010, предназначенный для удаленной работы разработчиков и тестировщиков, дает возможность отказаться от повышенных требований к персональным компьютерам сотрудников, повысить безопасность работы, унифицировать среду разработчика и сократить время на развертывание рабочих сред для новых сотрудников.
Очень давно мы писали про тип виртуальных дисков Paravirtual SCSI (PVSCSI), который появился в VMware vSphere 4 и был создан для требовательных к ресурсам ввода-вывода нагрузок. На заре своего развития виртуальные диски типа PVSCSI не рекомендовались к использованию в качестве загрузочных, а также имели несколько серьезных багов, но широко тестировались в связи с тем, что показывали большую производительность, чем стандартный LSI SCSI.
Эту статью мы пишем, главным образом, здесь для того, чтобы сказать - уже можно. Виртуальные диски Paravirtual SCSI достаточно стабильно работают в VMware vSphere. В KB 1010398 мы видим матрицу поддержки дисков pvscsi для различных релизов VMware vSphere (обычные и boot-диски):
Guest operating system
Data Disk
Boot Disk
Windows Server 2008 R2 (64-bit only)
ESX/ESXi 4.0 Update 1, ESX/ESXi 4.1, ESXi 5.0
ESX/ESXi 4.0 Update 1, ESX/ESXi 4.1, ESXi 5.0
Windows Server 2008 (32 and 64 bit)
ESX/ESXi 4.X, ESXi 5.0
ESX/ESXi 4.0 Update 1, ESX/ESXi 4.1, ESXi 5.0
Windows Server 2003 (32 and 64 bit)
ESX/ESXi 4.x, ESXi 5.0
ESX/ESXi 4.x, ESXi 5.0
Windows 7 (32 and 64 bit)
ESX/ESXi 4.1, ESXi 5.0
ESX/ESXi 4.1, ESXi 5.0
Windows Vista (32 and 64 bit)
ESX/ESXi 4.1, ESXi 5.0
ESX/ESXi 4.1, ESXi 5.0
Windows XP (32 and 64 bit)
ESX/ESXi 4.1, ESXi 5.0
ESX/ESXi 4.1, ESXi 5.0
Red Hat Enterprise Linux (RHEL) 5 (32 and 64 bit) and all update releases
ESX/ESXi 4.X, ESXi 5.0
Not Supported
RHEL 6 (32 and 64 bit)
ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0
ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0
SUSE Linux Enterprise 11 SP1(32 and 64 bit) and later releases
ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0
ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0
Ubuntu 10.04 (32 and 64 bit) and later releases
ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0
ESX/ESXi 4.0 Update 2, ESX/ESXi 4.1, ESXi 5.0
Distros using Linux version 2.6.33 or later and that include the vmw_pvscsi driver
ESX/ESXi 4.1, ESXi 5.0
ESX/ESXi 4.1, ESXi 5.0
В VMware vSphere/ESXi 5.1 поддерживается все то, что поддерживалось и в предыдущих версиях платформы.
Что же раньше были за баги с PVSCSI? Смотрим, например, в статье тут, отсылающей нас к KB компании Microsoft. Ошибка существовала для ОС Windows Server 2008 R2 и была критической, а устранена была только в VMware vSphere 5.0 Update 1, о чем есть KB 2004578.
Теперь о том, как поставить диск типа PVSCSI в качестве загрузочного для виртуальной машины на ESXi. Выбираем в vSphere Client контроллер типа VMware Paravirtual :
В настройках виртуальной машины добавляем виртуальный floppy-дисковод и указываем образ дискеты с драйвером PVSCSI, который лежит в папке vmimages->floppies (если там ничего нет, идем сюда):
Дальше при выборе диск для установки Windows указываем драйвер с дискеты:
Дальше ставим все как обычно. Если хочется запихнуть драйвер PVSCSI в кастомизированную ISO-шку, то вам сюда. И да, драйвер на образе дискеты от Windows Server 2008 прекрасно работает на Windows Server 2012, который, в свою очередь, работает на VMware vSphere 5.1.
Если вы попробуете импортировать виртуальную машину (или Virtual Appliance), которая была создана для настольных платформ виртуализации (например, VMware Workstation в формате 2gbsparse), в VMware vSphere 5.1 с помощью утилиты vmkfstools, то у вас это не выйдет. Вы получите подобное сообщение:
Failed to open 'VM-name.vmdk': The system cannot find the file specified (25).
Ошибка может быть и такой:
File [VMFS volume]\VM-name.vmdk was not found.
И такой:
Error Stack:
An error was received from the ESX host while powering on VM VM-name
Cannot open the disk '/vmfs/volumes/Datastore/VM-name/VM-name.vmdk' or one of the snapshot disks it depends on.
The system cannot find the file specified.
VMware ESX cannot find the virtual disk '/vmfs/volumes/Datastore/VM-name/VM-name.vmdk'. Verify the path is valid and try again.
Все это из-за одного и того же - в VMware vSphere 5.1 убрали автоматическую загрузку модуля multiextent, который и отвечает как раз за конверсию виртуальных дисков с hosted-платформ VMware в формат VMFS. Чтобы загрузить этот модуль нужно выполнить простую команду:
# vmkload_mod multiextent
Ну а чтобы выгрузить:
# vmkload_mod -u multiextent
Делать это можно смело, так как этот модуль отвечает только за работу с Non-VMFS дисками ВМ.
Так вот для тех из вас, кто решил встать на нелегкий путь сертификации VCAP (экзамены действительно сложные), вышло руководство VCAP5-DCA Study Guide, основанное на официальном Blueprint и насчитывающее 349 страниц (!). В нем, как это часто бывает, много ботвы, но и по существу есть немало полезного.
Для администраторов VMware vSphere в руководстве также найдется много интересного. Руководство снабжено картинками, командами CLI и, что самое нужное при подготовке к экзамену VCAP, отсылками к конкретным документам VMware (и их главам) по каждой теме. Штука местами очень классная - рекомендую.
Компания StarWind Software, производящая продукт номер 1 для создания отказоустойчивых хранилищ StarWind iSCSI SAN & NAS, приглашает на бесплатный вебинар "Increase Operational Efficiency with StarWind!", который проводит Анатолий Вильчинский, системный инженер StarWind Software.
На вебинаре будет рассказано о том, как с помощью решений StarWind можно улучшить эффективность хранения данных виртуальных серверов за счет функций дедупликации, а также функций высокой доступности хранилищ (напомним, что использовать их можно бесплатно).
Вебинар состоится в четверг, 24 января в 19-00 по московскому времени. Регистрируйтесь!
Теперь, на основе статьи Франка, мы обобщим и актуализуем информацию по миграциям vMotion и Storage vMotion в разных контекстах - на уровне хранилищ, сети и хост-серверов VMware ESX.
Как и в прошлой статье, здесь будем пользоваться понятием стоимости миграции в единицах (cost) и максимального значения костов в тех же единицах (max cost), которое отображает предельно допустимое значение. Сумма костов операций vMotion и SVMotion не должна превышать max cost для соответствующего объекта (datastore, NIC и хост ESXi).
Теперь взглянем на таблички (в них есть не только vMotion, но и SVMotion):
Хост ESXi
Operation
Config Key
Cost
vMotion Cost
costPerVmotionESX41
1
Storage vMotion Cost
costPerSVmotionESX41
4
Maximum Cost
maxCostPerEsx41Host
8
Сеть
Operation
Config Key
Cost
vMotion Cost
networkCostPerVmotion
1
Storage vMotion Cost
networkCostPerSVmotion
0
Maximum Cost
maxCostPerNic
2
maxCostPer1GNic
4
maxCostPer10GNic
8
Хранилище (Datastore)
Operation
Config Key
Cost
vMotion Cost
CostPerEsx41Vmotion
1
Storage vMotion Cost
CostPerEsx41SVmotion
16
Maximum Cost
maxCostPerEsx41Ds
128
Читать эти таблички просто - например, для хоста ESXi стоимость миграции vMotion равна 1, а поскольку max cost равно 8, то всего на хост может быть 8 одновременных миграций в конфигурации по умолчанию. Либо допустимы одновременно: 1 миграция SVMotion (4 очка) и 4 штуки vMotion (по одному очку каждая), т.е. суммировать надо по костам: 4+1+1+1+1=8.
Для хранилища (Datastore) также есть ограничения vMotion, поскольку передаются страницы файла подкачки (если он не шаренный между хостами), а также производится передача владения VMX-файлом и другими файлами ВМ на хранилище. Но поскольку влияние это мало, то стоимость vMotion для хранилища всего 1 при максимальной емкости одновременных операций 128 (а вот SVMotion, требующая значительных ресурсов хранилища, "кушает" 16 единиц). Таким образом 1 операция vMotion съест 1 единицу коста, поэтому в этот момент для хранилища будет доступно только 7 миграций SVMotion, т.е. (128-1) div 16 = 7.
Соответственно, редактирование параметра Config Key для соответствующей операции позволяет изменять количество одновременных операций vMotion/SVMotion. Для редактирования параметра Config Key нужно отредактировать конфигурационный файл vpxd.cfg на сервере VMware vCenter, который находится в папке:
Если соответствующей секции нет, то ее можно просто добавить. Уменьшать максимальные косты точно можно, а увеличение работает не всегда. То есть гарантированно вы сможете только уменьшить число одновременных миграций vMotion или SVMotion, а вот увеличить - не факт. Ограничение можно делать двумя способами - повышением обычных костов или понижением максимальных костов.
Теперь самое интересное - это динамический параметр max cost для сетевых адаптеров. Как видно из таблицы, его действующее значение зависит от типа сетевого адаптера на хосте - 1G или 10G. Но, на самом деле, и не только от типа. Точнее - от скорости соединения для трафика vMotion между хостами ESXi, которую обнаруживает VMkernel. Таким образом:
Если VMkernel обнаруживает соединение на скорости 1Gbit/s - Maximum Cost выставляется в значение 4 (это верно и для случая соединения 1G<->10G).
Если VMkernel обнаруживает соединение на скорости 10Gbit/s - Maximum Cost выставляется в значение 8.
Если VMkernel обнаруживает соединение на скорости ниже 1Gbit/s - Maximum Cost выставляется в значение 2.
Таким образом, для адаптера возможны либо 2, либо 4, либо 8 одновременных миграций vMotion, в зависимости от действующей скорости соединения. Операция Storage vMotion, как видно из таблицы, костов сети не кушает.
Если ограничение для сети жестче (например, 4 миграции vMotion), чем ограничение для хоста (8 миграций vMotion) - то для машин этого хоста действует ограничение сети.