Эта платформа предоставляет инженерам по работе с данными следующие возможности в области Data Science в рамках виртуальной инфраструктуры:
Виртуальное окружение на основе облака VMware Cloud Foundation (VCF) и платформы Kubernetes.
На данный момент для вычислений поддерживается только CPU (но модули GPU будут поддерживаться в будущем).
Платформа построена на базе фреймворков Open Source Kubeflow и Horovod.
Также в составе идет коллекция обучающих примеров (Notebooks) и библиотек, которые помогают понять выполнение следующих задач:
Data collection and cleaning (получение данных из различных источников и описание семантики данных с использованием метаданных).
Data cleansing and transformation (приведение собранных данных в порядок и их трансформация из сырого формата в структурированный, который больше подходит для процессинга).
Model training (разработка предиктивных и оптимизационных моделей машинного обучения).
Model serving (развертывание модели для запуска в реальном окружении, где могут обслуживаться онлайн-запросы).
Для использования движка vMLP вам потребуется развернутая инфраструктура VMware Cloud Foundation 3.8.
В комплекте с платформой идет документация. Скачать весь пакет можно по этой ссылке.
Вчера мы писали об очередной новинке на VMware Labs, мобильном клиенте vSphere Mobile Client для iOS и Android, а сегодня расскажем еще об одной утилите - Virtual Machine Compute Optimizer. Это средство представляет собой PowerShell-сценарий для модуля PowerCLI VMware.VimAutomation.Core, который собирает информацию о хостах ESXi и виртуальных машинах в вашем виртуальном окружении и выдает отчет о том, правильно ли они сконфигурированы с точки зрения процессоров и памяти.
Для этого в отчете есть колонка VMCPUsOptimized, которая принимает значения Yes или No.
Далее также идут колонки, где показаны оптимальные количества сокетов и ядер для виртуальных машин, которые было бы неплохо сделать для текущей конфигурации (OptimalSockets и OptimalCores). Текущая конфигурация также представлена в колонках VMNumSockets и VMCoresPerSocket.
Назначения колонок представлены на картинке ниже:
Надо понимать, что VMCO анализирует вашу инфраструктуру только на базе рекомендаций для оптимальной конфигурации виртуальных машин без учета реальной нагрузки, которая исполняется внутри. Для такой задачи нужно средство для сайзинга посерьезнее - например, VMware vRealize Operations Manager.
Скрипт Virtual Machine Compute Optimizer можно запускать как минимум под аккаунтом с правами на чтение инфраструктуры vCenter. Скачать его по этой ссылке.
Еще очень давно, 8 лет назад, компания VMware развивала мобильный клиент (см. также тут) для управления инфраструктурой VMware vSphere, но забросила это дело на некоторое время.
И вот совсем недавно на сайте проекта VMware Labs появилось средство vSphere Mobile Client 1.1. Это очередной подход VMware к управлению виртуальной средой через мобильные приложения для iOS и Android.
Само собой, vSphere Mobile Client предоставляет лишь малую часть функций полноценного клиента (но для мобильных устройств это и не нужно), вот основные из них:
Просмотр информации и виртуальных машинах - просмотр статуса ВМ (включено/выключено), использования ресурсов и конфигурации машин.
Управление ВМ - операции с питанием (в том числе, перезагрузка). Возможность найти виртуальную машину с помощью поиска. Если вы свайпните влево карточку с виртуальной машиной, то получите скриншот ее консоли, который можно сохранить.
Мониторинг задач - можно "подписаться" на любую запущенную задачу и получать нотификации на телефон о том, когда она завершится. При этом неважно, что ваш девайс находится в неактивном режиме или в данный момент вы работаете с другим приложением.
Графики производительности - можно отслеживать использование ресурсов виртуальными машинами в реальном времени, либо в разрезе дня, недели, месяца или года назад. Счетчики включают в себя метрики CPU, памяти, хранилищ и сети. Также на дэшборде можно посмотреть общее использование ресурсов vCenter.
Ссылки на загрузку vSphere Mobile Client:
Android - до того, как устанавливать клиент, вам надо присоединиться к этой группе Google Groups, члены которой принимают участие в альфа-тестировании.
Чтобы получать пуш-уведомления на ваши устройства, нужно будет поднять vSphere Mobile Client Notification Service в виде контейнера Docker. О том, как это сделать написано тут, а скачать сам контейнер можно на странице vSphere Mobile Client.
Весной этого года мы писали о новой версии продукта VMware vRealize Network Insight (vRNI) 4.1, который позволяет системным и сетевым администраторам (а также администраторам информационной безопасности) наблюдать за сетевым взаимодействием в рамках виртуальной инфраструктуры и предпринимать действия по ее защите.
На днях VMware объявила о выпуске vRNI 4.2, давайте посмотрим, что там появилось нового.
1. Новые Data Sources
Теперь данные можно получать из следующих систем:
Fortinet Firewall
Можно получить полный доступ к средствам управления Fortinet FortiManager, который управляет сетевыми экранами FortiGate. Это позволяет видеть всю инфраструктуру в контексте фаерволов, мгновенно видеть, какие правила привязаны к ВМ, получать сетевую топологию и многое другое.
OpenShift Container Platform
В прошлой версии была добавлена поддержка VMware Enterprise PKS и ванильной инсталляции Kubernetes, а теперь поддержка была расширена функциями сетевой видимости, средствами обеспечения безопасности приложений, планирования миграции и решения проблем для небольших нагрузок.
Кастомные Data Sources
Это называется User Assisted Network Information (U-AN-I). В рамках этого механизма вы можете ввести информацию о собственном коммутаторе или маршрутизаторе, который в дальнейшем будет добавлен в список поддерживаемых устройств. Но еще до полноценной поддержки это даст вам возможность просматривать пути VM-to-VM, дэшборд для коммутатора/маршрутизатора в рамках сетевой топологии, список всех интерфейсов, маршрутов, список VRF и т.п.
Также есть Python-библиотека, которая позволит автоматизировать сбор информации с устройств (маршруты, интерфейсы и т.д.) и загрузить ее в Network Insight. Саму эту задачу можно добавить в планировщик для регулярного обновления.
2. Метрики Network Latency.
Network Insight 4.2 представляет метрику задержки в 2 формах: TCP Round-Trip Time (RTT), которая привязана к сетевому потоку и метрика latency между отдельными компонентами (виртуальные и физические адаптеры NIC в рамках хоста ESXi).
Метрика TCP RTT может быть найден на дэшборде потока:
Также можно найти все потоки, время RTT которых больше 10 мс, следующей командой в поиске:
Average Tcp RTT of flow where Average Tcp RTT > 10ms
Кроме того, есть еще один наглядный способ увидеть все сетевые потоки вашей инфраструктуры на одной странице - надо пойти в Flow Insights и выбрать диаграмму Network Performance:
Из этого представления вы сразу поймете, какие потоки отрабатывают с самой большой задержкой, после чего можно углубиться в структуру потока и понять причину, по которой эта задержка столь велика.
С точки зрения измерения latency между компонентами, сейчас доступны следующие связки: vNIC к pNIC, pNIC к vNIC и vNIC к vNIC.
Надо отметить, что для получения данной информации вам потребуется NSX Data Center for vSphere версии 6.4.5 или выше.
3. Новые функции Application Discovery.
В Network Insight 4.1 появилась возможность обнаружения приложений без использования агентов с помощью трех методов:
Использование тэгов рабочей нагрузки (workload tags)
Иморт приложений из ServiceNow CMDB
Использование паттерн наименования (naming convention)
Последний метод особенно актуален для облачных систем (например, инстансы AWS EC2), поэтому раньше пользователи должны были сами конструировать регулярные выражения, что непросто.
Теперь же в мастере application discovery wizard для этого есть Pattern Builder:
Также, начиная с vRNI 4.2, вы можете сохранять application discovery runs как шаблоны, чтобы не конструировать регулярные выражения заново, что очень удобно.
4. Улучшения дэшборда Application Dashboard.
Это лучший дэшборд vRNI, который показывает все потоки между всеми обнаруженными приложениями в вашей инфраструктуре. В версии vRNI 4.1 его возможности были несколько ограничены, теперь же каждый поток визуализуется и детализируется, когда вы увеличиваете диаграмму и масштабируете его.
При этом с увеличением конкретного компонента увеличивается степень детализации, то есть включаются все виртуальные машины, контейнеры и т.п.
Полный список улучшений и нововведений находится в Release Notes. Скачать vRealize Network Insight 4.2 можно по этой ссылке.
Многие из администраторов VMware vSphere знают про механизм Storage I/O Control (SIOC) в платформе VMware vSphere (см. также наш пост здесь). Он позволяет приоритезировать ввод-вывод для виртуальных машин в рамках хоста, а также обмен данными хостов ESXi с хранилищами, к которым они подключены.
Сегодня мы поговорим о SIOC версии 2 и о том, как он взаимодействует с политиками Storage Policy Based Management (SPBM). Начать надо с того, что SIOC v2 полностью основан на политиках SPBM, а точнее является их частью. Он позволяет контролировать поток ввода-вывода на уровне виртуальных машин.
SIOC первой версии работает только с томами VMFS и NFS, тома VVol и RDM пока не поддерживаются. Он доступен только на уровне датасторов для регулирования потребления его ресурсов со стороны ВМ, настраиваемого на базе шар (shares). Там можно настроить SIOC на базе ограничения от пиковой пропускной способности (throughput) или заданного значения задержки (latency):
На базе выделенных shares виртуальным машинам, механизм SIOC распределит пропускную способность конкретного хранилища между ними. Их можно изменять в любой момент, перераспределяя ресурсы, а также выставлять нужные лимиты по IOPS:
Надо отметить, что SIOC v1 начинает работать только тогда, когда у датастора есть затык по производительности, и он не справляется с обработкой всех операций ввода-вывода.
Если же мы посмотрим на SIOC v2, который появился в VMware vSphere 6.5 в дополнение к первой версии, то увидим, что теперь это часть SPBM, и выделение ресурсов работает на уровне виртуальных машин, а не датасторов. SIOC v2 использует механизм vSphere APIs for I/O Filtering (VAIO), который получает прямой доступ к потоку ввода-вывода конкретной ВМ, вне зависимости от того, на каком хранилище она находится.
Таким образом, вы можете использовать SIOC v2 для регулирования потребления машиной ресурсов хранилища в любой момент, а не только в ситуации недостатка ресурсов.
Поэтому важно понимать, что SIOC v1 и SIOC v2 можно использовать одновременно, так как они касаются разных аспектов обработки потока ввода-вывода от виртуальных машин к хранилищам и обратно.
SIOC v2 включается в разделе политик SPBM, в секции Host-based rules:
На вкладке Storage I/O Control можно выбрать предопределенный шаблон выделения ресурсов I/O, либо кастомно задать его:
Для выбранной политики можно установить кастомные значения limit, reservation и shares. Если говорить о предопределенных шаблонах, то вот так они выглядят для варианта Low:
Так для Normal:
А так для High:
Если выберите вариант Custom, то дефолтно там будут такие значения:
Лимит можно задать, например, для тестовых машин, где ведется разработка, резервирование - когда вы точно знаете, какое минимальное число IOPS нужно приложению для работы, а shares можете регулировать долями от 1000. Например, если у вас 5 машин, то вы можете распределить shares как 300, 200, 100, 100 и 100. Это значит, что первая машина будет выжимать в три раза больше IOPS, чем последняя.
Еще один плюс такого назначения параметров SIOC на уровне ВМ - это возможность определить политики для отдельных дисков VMDK, на которых может происходить работа с данными разной степени интенсивности:
После того, как вы настроили политики SIOC v2, вы можете увидеть все текущие назначения в разделе Monitor -> Resource Allocation -> Storage:
Мы часто пишем о томах VVols (Virtual Volumes), которые позволяют вынести часть нагрузки по обработке операций с хранилищами на сторону аппаратных устройств (они, конечно же, должны поддерживать эту технологию), что дает пользователям преимущества по сравнению с VMFS. В инфраструктуре VVols массив сам определяет, каким образом решать задачи доступа и организации работы с данными для виртуальных машин, выделяя для их объектов (виртуальные диски и прочее) отдельные логические тома (VVols).
Один из известных производителей, поддерживающих технологию VVols - это компания Pure Storage. Недавно Cody Hosterman написал статью о том, как подключить тома VVols в VMware vSphere через PowerCLI для хранилищ Pure Storage. Коди развивает свой модуль PowerShell, который называется PureStorage.FlashArray.VMware.
Давайте посмотрим, как он работает. Сначала можно почитать о доступных опциях командлета Mount-PfaVvolDatastore, с помощью которого можно сделать монтирование датастора VVol:
Командлет может делать следующее:
Проверяет, презентован ли protocol endpoint (PE) указанного массива кластеру. Если нет, то с его помощью можно сделать это.
Ресканирует кластер, чтобы убедиться, что PE виден хостам.
Монтирует VVol в кластере.
Возвращает датастор хранилищу.
Пример 1 - имеется прямой доступ к массиву
Соединяемся с vCenter и создаем соединение с FlashArray:
Значит тут мы полагаем, что администратор хранилищ уже настроил PE, и вам нужно только смонтировать том VVol:
Так как датастор VVol ранее не монтировался, нельзя просто создать array connection (нет доступа к массиву). В этом случае подойдет командлет Get-VasaStorageArray:
Передав в командлет монтирования массив FA-m50, имя кластера и имя датастора, можно смонтировать том VVol:
На днях компания VMware объявила о том, что теперь ее продукты можно будет попробовать в рамках проекта VMware Odyssey, который доступен как дополнение к лабораторным работам Hands-On Labs (HOL). Odyssey - это 15-минутные задачки, которые добавляют элемент геймификации в скучный процесс выполнения лаб.
VMware провела эксперимент с геймификацией в реальном мире на vForum Singapore 2018 - там 52 участника сформировали команды по 2-3 человека, создав 18 команд, которые выполняли задачи на сообразительность и скорость:
В рамках этого мероприятия правильность решения задач проверялась персоналом HoL вручную, но спустя 6 месяцев, компания VMware сделала свой движок геймификации, который обрабатывает полученные пользователем конфигурации автоматически.
Проект Odyssey был создан в рамках инфраструктуры Hands-on Labs, где мануалы были несколько изменены таким образом, чтобы протестировать знания участников в рамках ограниченного времени. Как только пользователь выполняет задание - он получает мгновенную обратную связь о правильности его выполнения.
Есть также лидерборд, где участники в командах по всему миру могут посоревноваться в выполнении задачек на время:
Многим администраторам знакома такая вещь: сначала для теста устанавливается виртуальная машина VMware vCenter Server Appliance в конфигурации tiny (минимальные аппаратные настройки), а потом она приживается, и хочется сделать из нее полноценную производственную среду управления (конфигурацию large). Только вот не хочется ее переустанавливать.
Для тех, кто столкнулся с такой проблемой, Robert Szymczak написал полезный пост о том, как это сделать (но помните, что это неофициальная и неподдерживаемая процедура).
Установщик vCSA использует фреймворк Electron, настраивая конфигурацию через JSON, и механизм JSON-Schema для установки и валидации параметров. Поэтому в ISO-образе вы сможете найти конфигурацию сервера vCenter по следующему пути:
Там как раз и находятся данные о типовых конфигурациях vCSA. Например, так выглядит размер xlarge:
"xlarge": {
"cpu": 24,
"memory": 49152,
"host-count": 2000,
"vm-count": 35000,
"disk-swap": "50GB",
"disk-core": "100GB",
"disk-log": "25GB",
"disk-db": "50GB",
"disk-dblog": "25GB",
"disk-seat": "500GB",
"disk-netdump": "10GB",
"disk-autodeploy": "25GB",
"disk-imagebuilder": "25GB",
"disk-updatemgr": "100GB",
"disk-archive": "200GB",
"required-disk-space": "1180GB",
"label": "X-Large vCenter Server with Embedded PSC",
"description": "This will deploy a X-Large VM configured with 24 vCPUs and 48 GB of memory and requires 1180 GB of disk space will be updated for xlarge later. This option contains vCenter Server with an embedded Platform Services Controller for managing up to 2000 hosts and 35,000 VMs."
}
Таким образом вы поймете, на какие именно конфигурации нужно изменить компоненты виртуальной машины с vCenter. Перед изменением конфигурации сделайте снапшот машины vCSA, который сохранит параметры ее виртуального аппаратного обеспечения.
Теперь переходим, собственно, к изменению самой конфигурации:
1. Увеличение CPU и памяти (RAM).
Остановите машину.
Хорошая идея - вывести ее ESXi-хост из кластера DRS.
Зайдите на ESXi через Host Client, после чего в настройках ВМ измените конфигурацию CPU и памяти, чтобы выставить ее в соответствии с нужной конфигурацией.
2. Увеличение диска ВМ с сервером vCSA.
Об увеличении дискового пространства сервера vCSA 6.5 мы писали вот в этой статье. С тех пор ничего особо не изменилось. Некоторую дополнительную информацию вы также можете получить в KB 2145603 на случай если что изменится в процедуре vCSA 6.x.
Диски нужно настраивать не только по размеру, но и по корректной позиции в виртуальном слоте SCSI.
Примерно так это выглядит для vCenter 6.7 Update 2:
Назначение
Позиция в фале JSON
Номер VMDK
Слот SCSI
root / boot
n/a
1
0:0
tmp
n/a
2
0:1
swap
1
3
0:2
core
2
4
0:3
log
3
5
0:4
db
4
6
0:5
dblog
5
7
0:6
seat
6
8
0:8
netdump
7
9
0:9
autodeploy
8
10
0:10
imagebuilder
9
11
0:11
updatemgr
10
12
0:12
archive
11
13
0:13
Помните, что иногда имя VMDK может не соответствовать его позиции в слоте SCSI. Например, встречаются случаи, когда VMDK0 смонтирован в слот SCSI(0:4), а VMDK2 - в слот SCSI(0:0). В этом случае реальным загрузочным диском будет VMDK2, а не VMDK0, несмотря на их названия.
Также обратите внимание, что SCSI слот 0:7 не используется - не ошибитесь.
После изменения этих параметров запустите vCenter и убедитесь, что все в порядке.
Напомним, что Helpdesk Utility предназначена для сотрудников технической поддержки, работающих с пользователями инфраструктуры виртуальных ПК. Она реализует всю функциональность Helpdesk в HTML5 интерфейсе управления VMware Horizon.
Давайте посмотрим, что нового в Horizon Helpdesk Utility 1.4 (о прошлой версии мы писали вот тут):
Добавлена предварительная поддержка Horizon 7.9.
Больше не требуется наличие лицензии Helpdesk.
Возможность взаимодействия с машинами vCenter.
Возможность открывать консоли машин vCenter.
Возможность выполнять пакетные действия с виртуальными машинами.
Возможность запускать задачи refresh / recompose прямо из утилиты.
Добавлен механизм опроса (polling), чтобы получить время операций логина, если при запросе сессии не произошло возврата данных.
Убрана графика со страницы логина, которая доставляла неприятные ощущения.
Убраны пустые пункты при выборе Pod из меню в трее.
Исправлены проблемы с производительностью при нескольких открытых окнах.
Исправлена ошибка с падением, когда нельзя было получить время операции логина.
Исправлена ошибка с падением при завершении процессов.
Исправлены проблемы с делегированием административных функций.
Улучшено поведение при изменении темы.
Устранены утечки памяти при нахождении приложения в трее.
Скачать Horizon Helpdesk Utility 1.4 можно по этой ссылке.
А вот что нового появилось в Horizon Toolbox 7.8.1 (о версии 7.2 мы писали еще в 2017 году):
Поддержка Horizon View 7.5, 7.6, 7.7, 7.8 (да, до версии 7.9 еще не добрались, но, наверное, уже совсем скоро добавят).
Исправлено множество ошибок.
Напомним, что Horizon Toolbox - это расширение возможностей Horizon View, которое позволяет получать информацию о виртуальных ПК, производительности и сессиях пользователей в инфраструктуре VMware Horizon View.
На днях VMware сделала анонс о завершении M&A-сделки по приобретению компании Avi Networks, которая занимается разработкой программного обеспечения в сетевой сфере, способствующего прозрачной доставке пользователям приложений в онпремизных и облачных датацентрах.
Цель приобретения - дополнить портфолио продукта NSX технологиями, которые позволяют создать multicloud network-virtualization overlay (NVO) на уровнях 2-7 в рамках законченной концепции SDN (software-defined networks).
Философия Avi Networks заключается в том, что частные облака должны оперировать с приложениями точно так же, как и публичные, обеспечивая переносимость машин и приложений между датацентрами вне зависимости от исходной ИТ-инфраструктуры каждого из них.
Основные фичи, которые предоставляет Avi Networks для облачных инфраструктур:
Глобальный балансировщик для серверов на уровне датацентров
Ускорение миграции и работы приложений
Обеспечение защиты приложений при их миграции между облаками
Обеспечение доступности приложений
Мониторинг производительности и отчетность
Обнаружение сервисов в датацентре
Контейнеризация приложений на сетевом уровне (для миграции между датацентрами)
Предоставление RESTful API для интеграции в существующую сетевую инфраструктуру датацентров
Некоторые компоненты Avi Networks, в частности балансировщик нагрузки, будут интегрированы в продукт VMware NSX, также само решение Avi Networks будет доступно как самостоятельный ADC-продукт для глобальной балансировки нагрузки, сетевого экранирования (Web application firewall, WAF) и расширенной аналитики и отчетности о сетевой инфраструктуре приложений датацентров.
Например, можно получить вот такой отчет об end-to-end коммуникации пользователей с приложением, визуализирующий время отклика на каждом из сетевых сегментов:
Более подробнее о приобретении Avi Networks можно узнать из этого поста в блоге VMware.
Это гостевой пост нашего спонсора - сервис-провайдера ИТ-ГРАД, предоставляющего услугу аренды виртуальных машин из облака. В MIT предложили систему, которая в два раза уменьшит объем электричества, потребляемого «твердотельниками» в ЦОД. Рассказываем, как она устроена.
Проблема энергопотребления
Приблизительно через десять лет на вычислительные системы (в целом) будет приходиться40% потребляемой электроэнергии. За пятую часть этого объема будут «ответственны» центры обработки данных.
Системы хранения данных — один из основных «потребителей» электроэнергии в ЦОД. Чтобы сократить расходы на содержание СХД, операторы дата-центров заменяют жесткие диски на твердотельные накопители. Последние более производительны и энергоэффективны: известны случаи, когда SSD уменьшали объем потребляемого стойками СХД электричества на 60%.
Но ситуация все равно далека от идеальной. В машинном зале крупного дата-центра могут находиться сотни стоек с накопителями, и счета за электроэнергию остаются большими. Поэтому сегодня разрабатываются новые технологии, чтобы еще сильнее сократить энергопотребление SSD. Одну из таких технологий представили в MIT. Специалисты вуза спроектировали архитектуру системы хранения данных на базе твердотельных накопителей, которая снижает расходы операторов ЦОД на электричество в два раза. Ее назвали LightStore.
Как устроена система
LightStore представляет собой хранилище типа «ключ — значение» (KV-хранилище). Ключом считаются пользовательские запросы к СХД, а значением — сами данные. Систему разворачивают на специальном аппаратном узле в сети ЦОД. Его подключают напрямую, в обход серверов хранения данных (дополнительно потребляющих электроэнергию).
Узел построен на базе энергоэффективного CPU, а также NAND- и DRAM-памяти. Управляет им контроллер и специализированное ПО. Первый компонент отвечает за обмен данными с массивами NAND, а второй — за хранение ключей и их обработку. В основе программной архитектуры LightStore лежат так называемые LSM-деревья — структуры данных, используемые во всех современных СУБД.
Кластер LightStore масштабируется линейно путем подключения дополнительных узлов к сети. Для этих целей применяются специальные адаптеры. Они формализуют пользовательские запросы к СХД и трансформируют их в понятные для нее команды. Обработка запросов производится с использованием согласованного хеширования — при добавлении новой пары ключ-значение, хеш рассчитывается только для нее, а не для всех пар. Аналогичный подход применяют системы Redis и Swift.
В общем случае архитектуру LightStore и схему ее подключений в ЦОД можно представить вот так:
По словам разработчиков, пропускная способность LightStore при работе в 10GbE-сети дата-центра превышает 600 Мбит/с. При этом один ее узел потребляет на 10 Вт меньше, чем узел «классических» SSD-систем — для них этот показатель равен 20 Вт. Также оборудование занимает в два раза меньше места, отчасти из-за того, что LightStore не требуются серверы хранения.
Сейчас инженеры из MIT занимаются исправлением недостатков LightStore и расширением функциональности системы. Например, ее «учат» работать с атомарными запросами и запросами по диапазону. Также в планах разработчиков добавить поддержку SQL-запросов. Авторы убеждены, что в будущем LightStore может стать отраслевым стандартом для SSD-хранилищ в центрах обработки данных.
Аналоги решения
В прошлом году компания Marvell, которая занимается разработкой СХД, анонсировала SSD-контроллеры с интеллектуальными функциями. Они построены на базе систем ИИ, которые оптимизируют энергопотребление SSD в ЦОД. Ожидается, что решение найдет применение в машинных залах организаций, занимающихся аналитикой больших данных.
Еще один пример — накопитель WD Blue SSD с повышенной производительностью и энергоэффективностью. Устройство использует спецификацию NVMe для подключения дисков к шине PCI Express. Такой подход позволил повысить эффективность накопителя при работе с большим числом параллельных запросов. Устройство имеет скорость чтения в 545 МБ/с и скорость записи в 525 МБ/с. NVMe может стать стандартом ИТ-индустрии для SSD-интерфейсов. Производителям аппаратного обеспечения больше не придется расходовать ресурсы на разработку уникальных драйверов и разъемов.
В будущем можно ожидать появления большего числа решений, повышающих энергоэффективность СХД, подобных системам из MIT, Marvell и WD.
Напомним, что данное средство предназначено для записи пользовательских сессий и активности в виртуальных десктопах и приложениях, доставляемых по протоколу Blast Extreme. С помощью Session Recording администратор Horizon имеет возможность перенаправить запись экрана сессий пользователей, сделанных в определенное время, на центральный сервер, где потом он может воспроизвести их в HTML5-консоли. Саму сессию в виде видеофайла можно скачать как MP4 для воспроизведения в локальном плеере.
Добавлена поддержка версии VMware Horizon 7.8 и более поздних, включая только что вышедшую 7.9.
Добавлена возможность записи на базе членства пользователей в группах.
Множество багов было исправлено в агенте для виртуального десктопа.
Некоторые ошибки были также пофикшены на сервере.
Скачать VMware Horizon Session Recording можно по этой ссылке. Кстати, вместе с утилитой идет подробный документ с картинками, объясняющий аспекты развертывания и настройки продукта. Вы можете скачать его, выбрав нужный элемент в комбо-боксе:
Недавно компания VMware выпустила обновление платформы для виртуализации и доставки ПК предприятия VMware Horizon 7.9, а также обновила клиенты для этой платформы VMware Horizon Clients 5.1.
Помимо этого в сфере End User Comuting (EUC) VMware объявила об обновлении еще одной платформы - облачной инфраструктуры VMware Horizon Cloud (напомним, что мы писали об этом облаке на базе Azure тут и тут).
Давайте посмотрим, что нового появилось в июльском релизе Horizon Cloud on Microsoft Azure:
1. Поддержка дополнительных типов и размеров ВМ облака Azure.
Теперь поддерживается около 200 различных типов ВМ и их размеров для вариантов использования VDI и RDSH при назначении десктопов или создании фермы. Доступные для создания десктопы также зависят от типа подписки Azure и региона пользователя.
Некоторые размеры ВМ не поддерживаются Horzion Cloud - это не применимые к виртуальным ПК размеры в сериях Standard A series и B series.
А в основной консоли изменения коснулись, в первую очередь, механизма навигации (что всегда является большой проблемой в облачных консолях):
3. Улучшенные функции отчетности.
Теперь есть предсозданные отчеты, которые покрывают варианты использования сессий VDI и RDSH, а также учет статистик приложений в облачной среде. Есть также и готовые отчеты по пользователям:
4. Поддержка кастомной роли при создании Microsoft Azure Service Principal.
Пользователи больше не обязаны выбирать роль Contributor при создании Service Principal и теперь могут выбрать кастомную роль с возможностью гибкой настройки прав доступа. Напомним, что эта роль нужна для развертывания и оперирования сервисами.
Получить доступ к VMware Horizon Cloud on Microsoft Azure можно по этой ссылке.
Не так давно мы писали о новых возможностях последней версии платформы виртуализации VMware vSphere 6.7 Update 2. Одним из нововведений стал улучшенный интерфейс управления плагинами (Plugin Management UI), который дает пользователю полный контроль над процессами обновления и развертывания плагинов к vSphere.
Если еще в Update 1 при установке нового плагина или обновлении старого, в случае неудачи процесс просто завершался, и приходилось смотреть в файл журнала, то теперь для этого есть графическое представление с выводом информации о возникших проблемах (например, несовместимость с новой версией платформы).
В подразделе Client Plug-ins раздела Administrator теперь приведены все клиентские зарегистрированные плагины на любом из серверов vCenter в вашем окружении. Также у этих плагинов есть статусы: In Progress, Deployed, Failed или Incompatible.
Статусы Failed и Incompatible являются кликабельными - при нажатии на них всплывет подсказка с возможной причиной возникновения подобных ошибок или причины несовместимости (при возможности будет также приведен участок лога):
В процессе инсталляции плагин проходит через несколько фаз, которые отслеживаются сервером vCenter, также их можно получать через TaskManager API (его могут использовать и сторонние разработчики). Выполняемые задачи отображаются на сервере vCenter в 3 разделах:
Панель Recent Tasks в нижней части клиента
Консоль в разделе задач (Task Console)
Просмотр представления Tasks для выбранного объекта vCenter Server
Задачи создаются и отслеживаются на сервере vCenter, к которому в данный момент подключен vSphere Client. Если же виртуальная среда работает в режиме федерации Enhanced Linked Mode, то задачи по развертыванию плагина создаются на всех подключенных серверах vCenter. Поэтому любой экземпляр vSphere Client будет видеть эти задачи.
Как происходит работа с плагинами
При логине пользователя в vSphere Client, все плагины vCenter загружаются в кэшированную папку самого клиента на сервере vCenter. Для отслеживания этого процесса создается задача "Download plug-in". Если загрузка плагина прошла успешно, то он становится доступным для развертывания, что видно в консоли задач. И это значит, что он был загружен в кэшированную папку.
Следующая фаза - это задача "Deploy plug-in", которая стартует следующей. Если она завершается успешно, это значит, что плагин установлен и доступен для использования со стороны vSphere Client. Кстати, если задача Download plug-in прошла с ошибкой, то и задача Deploy plug-in будет пропущена.
Ошибки плагинов при развертывании теперь детально описаны в консоли:
Также иногда к ошибке прилагается лог развертывания, например, в случае, когда их вызвало стороннее программное обеспечение, отдающее некоторый лог ошибки.
В случае апгрейда плагина этот процесс представляется набором из трех задач: "Download plug-in", "Undeploy plug-in" и "Deploy plug-in". После этого в vSphere Client появляется глобальная нотификация о новой версии развернутого плагина и с просьбой сделать рефреш в браузере, чтобы плагин начал работать.
Один сервер vCenter может работать только с одной версией плагина, но в архитектурах Enhanced Linked Mode и Hybrid Linked Mode может быть несколько серверов vCenter, каждый из которых может содержать свою версию плагина.
В этом случае vSphere Client обрабатывает плагины двумя способами:
Local plug-in architecture - в этом случае оперирование происходит с самой новой версией плагина, обнаруженной на всех доступных серверах vCenter. При этом все остальные версии плагина игнорируются. Если обнаруживается более новая версия плагина на одном из серверов vCenter - происходит ее апгрейд.
Remote plug-in architecture - она появилась в vSphere 6.7 Update 1. В этом случае происходит поддержка своей версии плагина на уровне того сервера vCenter, с которым происходит оперирование со стороны vSphere Client. Такое поведение используется, например, в среде Hybrid Linked Mode, где версии плагинов и серверов vCenter могут отличаться очень значительно. В этом случае все версии плагина скачиваются с соответствующих экземпляров vCenter и работа со стороны vSphere Client происходит с каждой версией как с независимым плагином.
Ну и напоследок приведем статусы, которые могут возникать при развертывании и апгрейде плагинов:
In progress
Плагин находится в стадии развертывания.
Deployed
Плагин установлен и доступен для использования через интерфейс vSphere Client.
Failed
Показывается при невозможности скачать или установить плагин:
Download error
Установка из незащищенного места - используется http вместо https.
Невозможно получить URL плагина.
vSphere Client не авторизован для скачивания плагина.
Packaging error
Поврежден zip-пакет плагина.
Отсутствует файл манифеста.
Отсутствует папка plugins.
Отсутствуют необходимые бандлы в плагине.
Deployment error
Ошибка связей (Dependency error) при развертывании плагина на vSphere Client.
Не так давно мы писали об обновлении платформы VMware Cloud Foundation 3.7, которая представляет собой набор продуктов для развертывания, исполнения, мониторинга и поддержки виртуальной инфраструктуры в онпремизном датацентре.
Архитектура VCF включает в себя компоненты VMware vRealize Suite, VMware vSphere Integrated Containers, VMware Integrated OpenStack, VMware Horizon, NSX и другие, работающие в онпремизной, облачной или гибридной инфраструктуре предприятия, которые желательно развертывать все вместе, но можно какие-то и опустить. Все это находится под управлением решения VMware SDDC Manager.
На днях был анонсирован еще один пакет решений - VMware Cloud Foundation Platinum. Смысл этой платформы - повышенная защищенность частных облаков, обеспечиваемая платформой виртуализации vSphere Platinum, где инфраструктура находится под наблюдением средства анализа и активной защиты - продукта AppDefense.
Он является ядром всей платформы с точки зрения безопасности и предоставляет множество возможностей, обеспечивающих защиту виртуальной инфраструктуры на различных уровнях:
Давайте посмотрим на ключевые моменты этой архитектуры:
1. Обеспечение умного подхода к безопасности.
По аналогии с vSphere Platinum и vCloud Suite Platinum, издание Platinum для VMware Cloud Foundation интегрирует решение AppDefense напрямую в гипервизор vSphere для защиты как самой платформы, так и рабочих нагрузок в виртуальных машинах. Фишка AppDefense - алгоритмы машинного обучения, которые позволяют обучиться нормальному сетевому поведению компонентов виртуального датацентра, а потом сигнализировать об отклонениях от этой модели и предпринимать некоторые шаги по активной защите инфраструктуры.
Действие AppDefense распространяется на vSphere, NSX и vSAN, что позволяет защитить все рабочие нагрузки, входящие в структуру Cloud Foundation.
2. Работа на различных уровнях в датацентре.
AppDefense не только смотрит на виртуальные машины извне, но и анализирует поведение приложений изнутри гостевых ОС, где их поведение полностью находится под наблюдением ML-алгоритмов. В этом процессе данные собираются от среды управления vCenter, а также различных средств разработки и фреймворков для управления виртуальной средой.
3. Многоуровневая защита.
AppDefense в рамках Cloud Foundation Platinum обеспечивает активную защиту на следующих уровнях:
Compute - анализ поведения ВМ на вычислительном уровне, в том числе тех, кто имеет включенные функции шифрования (VM encryption), как при хранении, так и при перемещении машин между хранилищами.
Network - решение NSX в виртуальном датацентре использует подход микросегментации и гранулярной безопасности, что полностью поддерживается рабочим процессом AppDefense (возможность перемещения политик безопасности вместе с ВМ, вне зависимости от топологии сети).
Storage - поддержка шифрования vSAN (data-at-rest encryption) на уровне кластера, а также инфраструктуры KMIP (поддерживаются такие продукты, как CloudLink, Hytrust, SafeNet, Thales и Vormetric).
Management - vCloud Suite автоматизирует рутинные операции (включая по обеспечению безопасности и мониторингу среды в реальном времени), исключая вероятность возникновения ошибок и уязвимостей по причине человеческого фактора.
Cloud Foundation Platinum - это законченное решение для гибридных виртуальных сред (частное+публичное облако под управлением одного пакета решений), где поведение всех приложений находится под наблюдением AppDefense в рамках комплексного рабочего процесса по обеспечению безопасности. Каждая из задач может выполняться пользователем с соответствующей ролью в виртуальном датацентре:
Более подробно о VMware Cloud Foundation Platinum можно узнать по этой ссылке.
Вчера мы рассказали о новых возможностях платформы для виртуализации и доставки настольных ПК предприятия VMware Horizon 7.9, а сегодня поговорим о том, что нового появилось в клиентах.
Как обычно, VMware обновляет все клиенты для всех платформ (в этот раз - это Horizon Clients 5.1), в каждом из которых свой набор нововведений. Напомним, что о функционале vSphere Clients 5.0 мы писали в марте этого года вот тут.
Давайте посмотрим, что нового появилось в клиентах для различных платформ:
VMware Horizon Client 5.1 for Windows
Улучшенная функциональность Drag and Drop.
Пользователи могут перетаскивать текст, rich text, HTML, картинки и файловые объекты между клиентской системой и десктопом или опубликованным приложением. Эта функция требует Horizon Agent 7.9. Администратор может использовать настройки групповых политик или умные политики (Smart Policies) для настройки этого поведения. Более подробно об этом написано вот тут.
Установка ярлыков для десктопа и приложений при запуске Horizon Client.
Новая опция командной строки -installShortcutsThenQuit позволяет установить ярлыки десктопов и приложений, которые настроены на сервере, при запуске Horizon Client. При использовании этого параметра Horizon Client бесшумно соединяется с сервером, устанавливает ярлыки, после чего завершает работу. Подробнее об этом рассказано здесь.
Поддержка Windows 10 Education.
Можно установить Horizon Client for Windows на клиентскую систему Windows 10 с изданием Education edition.
Перенаправление COM-портов в режиме вложенной виртуализации (nested mode).
Теперь последовательный порт можно перенаправить при работе в nested mode. Как этим пользоваться указано в KB 67248.
Фильтрация устройств и папок на стороне клиента.
Администратор может принудительно включить или исключить папки или отдельные устройства на базе полей vendor и product ID из перенаправления через групповую политику. Шаблон VMware Horizon Client Drive Redirection ADMX (vdm_agent_cdr.admx) содержит две новых настройки групповых политик - Exclude Vid/Pid Device и Include Vid/Pid Device. Подробнее об этом написано вот тут.
Изменение поддержки для нескольких мониторов.
Обновленные спецификации дисплеев Windows требуют Windows 10 версии 1803 или более поздней для поддержки 6 мониторов. Подробнее об этом написано вот тут.
VMware Horizon Client 5.1 for Linux
Возможность VMware Integrated Printing feature .
Пользователи теперь могут применять функцию VMware Integrated Printing, чтобы печатать документы на сетевых принтерах или на привязанных локально устройствах. Эта возможность требует Horizon Agent 7.9.
Улучшенная производительность с Lightweight Protocol Client.
Horizon Client теперь использует драйвер Lightweight Protocol Client driver для рендеринга и прочей обработки данных. Этот драйвер имеет лучшую произодительность, чем драйвер протокола RMKS, использовавшийся в прошлых версиях Horizon Client. Лог-файлы, которые раньше содержали записи "RMKS" теперь содержат строчки "VIEWCLIENT".
Поддержка аутентификации RSA SecurID и RADIUS в интерфейсе командной строки.
Теперь интерфейс поддерживает логин с помощью аутентификации RSA SecurID и RADIUS без необходимости взаимодействия пользователя с клиентом Horizon Client. Пользователи могут ввести их учетные данные RSA SecurID или RADIUS, вызвав параметры командной строки --tokenUserName и --passcode.
Выбор конкретных мониторов для отдельных приложений.
В многомониторной конфигурации клиентов для нужных опубликованных приложений можно выбрать мониторы, где они будут отображаться.
Expanded support for serial port redirection
Теперь последовательный порт можно перенаправить для десктопов с ОС Windows 7 и Windows 10, на которых установлен Horizon Agent 7.9 с опцией Serial Port Redirection. Также протокол PCoIP был полностью валидирован и поддерживается для этой возможности.
Поддержка HTML5 Multimedia Redirection.
Horizon Client for Linux теперь поддерживает перенаправление мультимедиа-контента на клиентскую систему из браузеров Google Chrome и Microsoft Edge, которые работают в удаленном десктопе. Эта функция снижает нагрузку на хосты ESXi и улучшает производительность аудио и видео для пользователя за счет локальной обработки потока.
VMware Horizon Client 5.1 for Android
Поддержка 64-битной архитектуры Android.
Теперь можно установить Horizon Client for Android на устройства Android с архитектурой ARM64 и x86_64.
Функция Derived credentials для устройств Chromebook.
Теперь можно создать виртуальную смарт-карту для логина на сервер и соединения со своим десктопом из устройства Chromebook. Более подробно об этом рассказано здесь.
Поддержка IPv6 для Chromebook. Начиная с Horizon 7.9, вы можете использовать Horizon Client 5.1 for Android на устройствах Chromebook в окружениях с IPv6.
VMware Horizon Client 5.1 for Mac
Фильтрация устройств и папок на стороне клиента.
Администратор может принудительно включить или исключить папки или отдельные устройства на базе полей vendor и product ID из перенаправления через групповую политику. Шаблон VMware Horizon Client Drive Redirection ADMX (vdm_agent_cdr.admx) содержит две новых настройки групповых политик - Exclude Vid/Pid Device и Include Vid/Pid Device. Подробнее об этом написано вот тут.
Поддержка драйверов смарт-карт CryptoTokenKit
Для карт CAC и PIV Horizon Client for Mac теперь использует драйвер CryptoTokenKit по умолчанию, поэтому дополительно вам устанавливать ничего не нужно. Подробнее об этом рассказано здесь.
Улучшенная функциональность Drag and Drop.
Пользователи могут перетаскивать текст, rich text, HTML, картинки и файловые объекты между клиентской системой и десктопом или опубликованным приложением. Эта функция требует Horizon Agent 7.9. Администратор может использовать настройки групповых политик или умные политики (Smart Policies) для настройки этого поведения. Более подробно об этом написано вот тут.
Возможность VMware Integrated Printing feature .
Пользователи теперь могут применять функцию VMware Integrated Printing, чтобы печатать документы на сетевых принтерах или на привязанных локально устройствах. Эта возможность требует Horizon Agent 7.9. Подробнее об этом написано тут.
Выбор конкретных мониторов для отдельных приложений.
В многомониторной конфигурации клиентов для нужных опубликованных приложений можно выбрать мониторы, где они будут отображаться. Подробнее об этом тут.
Поддержка Metal
Horizon Client for Mac теперь использует фреймворк Metal вместо OpenGL для рендеринга десктопов и опубликованных приложений.
VMware Horizon Client 5.1 for Chrome
Поддержка Workspace ONE.
Пользователи могут запускать приложения через Horizon Client for Chrome напрямую из VMware Workspace ONE.
Поддержка бесшовных окон (Seamless Windows).
Теперь можно использовать удаленный десктоп и опубликованные приложения так, как будто они запущены локально (то есть без сайдбара и верхнего меню).
Управление настройками монитора через консоль Google Admin.
Администраторы могут теперь использовать Google Admin console для включения и отключения возможности нескольких мониторов и режима High Resolution Mode для определенных серверов Connection Server. Подробнее об этом тут.
VMware Horizon Client 5.1 for Windows 10 UWP
Изменение доменной безопасности.
Когда пользователь логинится в Horizon 7.8 или более поздней версии из Horizon Client 5.1 for Windows 10 UWP, ему может потребоваться ввести домен в поле User name (domain\username или username@domain.com). В зависимости от конфигурации сервера, комбобокс выбора домена может быть спрятан в целях безопасности (либо там может отображаться *DefaultDomain*). Подробнее об этом здесь.
Интересно, что в рамках этого релиза клиенты VMware Horizon Client 5.1 for iOS и VMware Horizon HTML Access 5.1 не получили никаких новых возможностей.
Скачать все клиенты VMware Horizon Client 5.1 можно будет скоро по этой ссылке.
На днях компания VMware выпустила третий пакет обновления для предыдущего поколения своей главной платформы виртуализации - VMware vSphere 6.5 Update 3. Напомним, что Update 2 вышел в мае прошлого года, так что давно было уже пора выпускать апдейт, так как версия 6.5 по-прежнему широко используется, особенно в крупных предприятиях.
Давайте посмотрим, что нового в vSphere 6.5 U3.
Новые функции vCenter 6.5 Update 3:
События о добавлении, удалении и модификации пользовательских ролей содержат информацию о пользователе, который производит изменения.
Улучшения возможностей аудита в компоненте VMware vCenter Single Sign-On - теперь появились события для следующих операций: управление пользователями, логин, создание групп, изменение источника идентификации, управление политиками. Доступна эта фича только для виртуального модуля vCSA с интегрированным Platform Services Controller. Поддерживаемые источники идентификации: vsphere.local, Integrated Windows Authentication (IWA) и Active Directory over LDAP.
Поддержка новых внешних баз данных - добавлена поддержка Microsoft SQL Server 2014 SP3.
Драйвер ixgben добавляет функцию queue pairing для оптимизации эффективности CPU.
С помощью ESXi 6.5 Update 3 вы можете отслеживать использование лицензий и обновлять топологию коммутаторов. Также улучшения можно увидеть в Developer Center клиента vSphere Client.
Поддержка устаревших серверов AMD Zen 2.
Множество обновлений драйверов устройств: lsi-msgpt2, lsi-msgpt35, lsi-mr3, lpfc/brcmfcoe, qlnativefc, smartpqi, nvme, nenic, ixgben, i40en и bnxtnet.
Поддержка Windows Server Failover Clustering и Windows Server 2019.
Добавлено свойство com.vmware.etherswitch.ipfixbehavior в распределенные виртуальные коммутаторы, чтобы позволить пользователям выбирать способ трекинга входящего и исходящего трафика. Значение 1 включает сэмплирование для входящего и исходящего трафика, значение 0 включает его только для исходящего (значение по умолчанию).
Если вы ожидали среди возможностей чего-то действительно нового - увы, этого не бывает. VMware надо развивать ветку vSphere 6.7 и следующие версии платформы. Скачать VMware vSphere 6.5 Update 3 можно по этой ссылке.
Какие еще продукты VMware были обновлены параллельно с этим релизом:
Некоторые пользователи, особенно после апгрейда сервера VMware vCenter Server Appliance 6.5 на версию 6.7, получают вот такое сообщение при попытке входа через интерфейс VAMI (Virtual Appliance Management Infrastructure):
Напомним, что интерфейс VAMI для управления виртуальным модулем vCSA доступен по ссылке:
https://<vCenter_FQDN>:5480
Причин проблемы может быть 2:
1. Пароль пользователя root устарел (кстати, помните, что в пароле нельзя использовать двоеточие). Для этого надо зайти в консоль vCSA и проверить это командой:
chage -l root
2. Не поднялась служба VMware Appliance Management Service.
Эта служба также кратко называется "applmgmt". Чтобы запустить ее через vSphere Client, зайдите в administrator@vsphere.local > Administration > Deployment > System Configuration > Services, выделите Appliance Management Service и нажмите Start.
Также можно сделать это из командной строки шелла vCSA:
service-control --start applmgmt
Далее нужно проверить, что служба действительно запустилась:
service-control --Status
Можно также поднять все сервисы vCSA одной командой:
service-control --start --all
Кстати, иногда после апгрейда хостов ESXi 6.5 на версию 6.7 внешний сервер Syslog может перестать принимать логи от vCSA из-за того, что правило фаервола ESXi для Syslog почему-то перестает быть активным. Можно снова включить это правило через интерфейс vSphere Client, либо вот такой командой PowerCLI:
Get-VMHost | Get-VMHostFirewallException | where {$_.Name.StartsWith(‘syslog’)} | Set-VMHostFirewallException -Enabled $true
Многие администраторы платформы VMware vSphere очень часто интересуются вопросом замены сертификатов для серверов ESXi в целях обеспечения безопасности. Как правило, это просто инструкции, которые не дают понимания - а зачем именно нужно менять эти сертификаты.
Недавно VMware выпустила интересную статью на тему сертификатов в vSphere и других продуктах, приведем ниже основные выдержки из нее.
1. Сертификаты - это вопрос доверия и шифрования.
При соединении с различными веб-консолями компонентов инфраструктуры VMware vSphere используется протокол HTTPS, где S означает "Secure". Инфраструктура SSL, а точнее ее последователь Transport Layer Security (TLS), использует известный в криптографии принцип открытого и закрытого ключей, который позволяет узлам, доверяющим друг другу безопасно обмениться информацией по шифрованному каналу.
TLS развивается по следующему пути:
Версия 1.0 имеет уязвимости, он небезопасен и больше не должен использоваться.
Версия 1.1 не имеет таких уязвимостей, как 1.0, но использует такие алгоритмы шифрования, как MD5 и SHA-1, которые больше не считаются безопасными.
Версия 1.2 добавляет шифрование AES, которое работает быстро и не использует небезопасные методы, сам же алгоритм использует SHA-256. На текущий момент это стандарт TLS.
Версия 1.3 не содержит слабых точек и добавляет возможности увеличения скорости соединения, этот стандарт скоро будет использоваться.
Если вы используете сертификаты vSphere, то независимо от того, какие они (самоподписанные или выданные центром сертификации) - общение между компонентами виртуальной инфраструктуры будет вестись посредством TLS с надежным шифрованием. Вопрос сертификатов тут - это всего лишь вопрос доверия: какому объекту, выпустившему сертификат, вы доверяете - это и есть Центр сертификации (он же Certificate Authority, CA).
Многие крупные компании, имеющие определенный вес (например, Microsoft) сами являются Центрами сертификации, а некоторые компании используют службы Microsoft Active Directory Certificate Services, чтобы встроить собственные CA в операционную систему и браузеры (импортируют корневые сертификаты), чтобы "научить" их доверять этим CA.
2. В VMware vSphere сертификаты используются повсеместно.
Как правило, они используются для трех целей:
Сертификаты серверов ESXi, которые выпускаются для управляющих интерфейсов на всех хост-серверах.
"Машинные" сертификаты SSL для защиты консолей, с которыми работает человек - веб-консоль vSphere Client, страница логина SSO или Platform Service Controllers (PSCs).
"Solution"-сертификаты, используемые для защиты коммуникаций со сторонними к платформе vSphere продуктам, таким как vRealize Operations Manager, vSphere Replication и другим.
Полный список компонентов, где vSphere использует сертификаты, приведен вот тут.
3. vSphere имеет собственный Центр сертификации.
Платформа vSphere из коробки поставляется с собственным CA, который используется для коммуникации между компонентами. Называется он VMware Certificate Authority (VMCA) и полностью поддерживается для vSphere как с внешним PSC, так и для vCenter Server Appliance (vCSA) со встроенным PSC.
Как только вы добавляете хост ESXi в окружение vCenter, то VMCA, работающий на уровне vCenter, выпускает новый сертификат на этот ESXi и добавляет его в хранилище сертификатов. Такая же штука происходит, когда вы настраиваете интеграцию, например, с решениями vRealize Operations Manager или VMware AppDefense.
Надо понимать, что CA от VMware - это всего лишь решение для защищенной коммуникации между серверами, которое поставляется из коробки. Ваше право - доверять этой модели или нет.
4. Есть 4 способа внедрить инфраструктуру сертификатов на платформе vSphere.
Вот они:
Использовать самоподписанные сертификаты VMCA. Вы можете просто скачать корневые сертификаты с веб-консоли vCenter, импортировать их в операционную систему клиентских машин. В этом случае при доступе к веб-консоли, например, vSphere Client у вас будет отображаться зеленый замочек.
VMCA можно сделать подчиненным или промежуточным (subordinate/ intermediate) центром сертификации, поставив его посередине между CA и конечными хостами, что даст дополнительный уровень сложности и повысит вероятность ошибки в настройке. VMware не рекомендует так делать.
Отключить VMCA и использовать собственные сертификаты для любых коммуникаций. Ваш ответственный за сертификаты должен нагенерировать запросы Certificate Signing Requests (CSR) для всех компонентов. Эти CSR-запросы вы отсылаете с CA, которому вы доверяете, получаете их подписанными, после чего устанавливаете их в ручном режиме. Это отнимает время и чревато ошибками.
Использовать гибридный подход - для хостов ESXi в их коммуникации с vCenter использовать самоподписанные VMCA сертификаты, а для веб-консолей vSphere Client и прочих использовать перевыпущенные сертификаты, которые надо установить на сервере vCenter и хостах, с которых будет управляться инфраструктура через браузер (тогда в нем появится зеленый замочек). Это самый рекомендуемый VMware вариант использования сертификатов.
5. Enterprise-сертификаты - тоже самоподписанные.
Подумайте - самоподписанными являются не только сертификаты VMCA, но и ваши корпоративные сертификаты. Если вы выпускаете эти сертификаты только на уровне своей компании, то у вас 2 точки потенциального недоверия - сторона, выпустившая сертификаты у вас в компании, а также, собственно, сам VMCA. Такая схема создает дополнительный уровень сложности администрирования, а также нарушения безопасности.
6. Не создавайте промежуточный Центр сертификации.
Если вы создаете intermediate CA (он же subordinate CA) для VMCA, превращая его в посредника, вы создаете потенциальную опасность для виртуальной инфраструктуры - если кто-то получает доступ к корпоративному центру сертификации и его парам ключей, то он может навыпускать любых сертификатов от имени VMCA и перехватывать потом любые коммуникации.
7. Можно изменять информацию для самоподписанных сертификатов CA.
С помощью утилиты Certificate Manager utility вы можете сгенерировать новый VMCA с необходимой информацией о вашей организации внутри него. Эта утилита перевыпустит все сертификаты и заменит их на всех хостах виртуальной инфраструктуры. Это хорошая опция для гибридной модели. Кстати, вы можете менять даты устаревания сертификатов, если дефолтные вас не устраивают.
8. Тестируйте инфраструктуру сертификатов перед внедрением.
Вы можете развернуть виртуальную инфраструктуру и провести все эксперименты с сертификатами в виртуальной среде, где вы можете использовать виртуальные (nested) серверы ESXi. Приятная штука в том, что вы можете создавать снапшоты виртуальных машин, а значит в случае чего - быстро откатитесь на рабочий вариант. Еще одна среда для экспериментов - это облачная инфраструктура VMware Hands-on Labs, где можно безопасно ставить любые эксперименты.
Делайте резервную копию вашего vCenter и PSC на уровне файлов через веб-консоль VAMI. Также утилитой Certificate Manager можно скопировать старый набор сертификатов перед развертыванием новых (но только один набор сертификатов, учитывайте это). Также эта процедура полностью поддерживается со стороны VMware Global Support Services.
10. Понимайте, зачем вы заморачиваетесь с заменой сертификатов.
Ответьте для себя на несколько вопросов:
Стоит ли иконка зеленого замочка в браузере всех этих заморочек?
Нужно ли всем видеть этот замочек или только команде администрирования vSphere?
Почему вы доверяете vCenter для управления всем в виртуальной инфраструктуре, но не доверяете VMCA?
В чем отличие самоподисанного сертификата вашего предприятия от самоподписанного сертификата VMCA?
Действительно ли комплаенс требует от вас кастомных CA-сертификатов?
Какова будет цена процедур по замене сертификатов в инфраструктуре vSphere во времени и деньгах?
Увеличивает или уменьшает риск итоговое решение и почему конкретно?
Вопрос этот важен, так как многие пользуются лимитами для виртуальных машин на уровне хранилищ vSAN, но не хотят, чтобы в случае сбоя ресинхронизация кластера или перемещение машин происходили с ограничениями, которые могут увеличить время восстановления в разы.
Ответ тут прост - нет, не влияет. Лимиты устанавливаются на уровне гостевой системы для VMDK-дисков виртуальных машин и сопутствующих объектов (например, снапшоты, своп и т.п.), поэтому операции, которые проводятся извне со стороны платформы, в этом не участвуют.
Таким образом, лимиты для виртуальных машин можно ставить без ограничений и не заботиться о том, что это повлияет на время восстановление кластера и отдельных ВМ в случае сбоя. Операции SVMotion также затронуты не будут.
Но на этом релизы не остановились - на днях VMware выпустила обновленную утилиту IOBlazer, которая позволяет сгенерировать нагрузку на хранилища с любых платформ - Linux, Windows и OSX. Утилита была выпущена еще в 2011 году, но с тех пор не дорабатывалась, а вот на днях мы увидели ее версию 1.01.
Основная фича утилиты - возможность тонко кастомизировать параметры нагрузки на хранилище изнутри виртуальной машины, такие как размер IO и паттерн нагрузки, пакетирование (объем исходящих операций ввода-вывода), временные промежутки между пакетами, микс трафика чтения/записи, буфферизованные или прямые операции ввода-вывода и многое другое.
IOBlazer также может "проигрывать" записанные логи VSCSI, которые были получены за счет использования утилиты vscsiStats. В качестве метрик производительности можно получить пропускную способность в IOPS и в мегабайтах в секунду, а также задержки ввода-вывода (IO latency). Это дает возможность IOBlazer сгенерировать синтетическую нагрузку на диск виртуальной машины, которая соответствует реальной нагрузке, с возможностью ее повторения в любой момент.
IOBlazer вырос из минималистичного эмулятора MS SQL Server, который бы сфокусирован на эмуляции только нагрузки по вводу-выводу. Ранее утилита имела очень ограниченные возможности по генерации нагрузки по модели MS SQL Server IO (Асинхронность, небуфферизованные IO, параметры Gather/Scatter), теперь же все стало существенно лучше. Но 2 ограничения все еще остаются:
1. Выравнивание доступа к памяти по 4 КБ (страница памяти).
2. Выравнивание операций доступа к диску по 512 байт (дисовый сектор).
Утилиту не надо устанавливать - она запускается из дистрибутива. Инструкции можно найти в файле README. Скачать IOBlazer 1.01 можно по этой ссылке. В комплекте также идет исходник на C, который вы можете собрать самостоятельно.
На сайте проекта VMware Labs появилась еще одна утилита - Horizon DaaS Migration Tool 2.1. Она позволяет смигрировать ранние версии Horizon DaaS (6.1.5, 6.1.6, 7.0.0) на самую последнюю версию 8.0.0. Напомним, что Horizon DaaS - это продукт купленной компании Desktone.
Почему надо мигрировать на последнюю версию DaaS:
VMware Horizon DaaS 6.1.5, 6.1.6 скоро перестанет поддерживаться.
Клиенты на версии VMware Horizon DaaS 8.0.0 смогут обновиться на новые версии, для которых будут выходить новые фичи и апгрейд функциональности и безопасности.
Для миграции поддерживаются сценарии VMware Horizon DaaS 6.1.x и 7.0.0 на версию 8.0.0. Между тем, не поддерживаются следующие сценарии:
При миграции не поддерживаются Floating Desktops, поэтому их надо пересоздавать отдельно путем миграции золотых образов, после чего надо пересоздать пулы десктопов.
Миграция хостов RDSH и приложений. Их нужно мигрировать так же, как и Floating Desktops.
Функциональность Multi Data Center пока не поддерживается в Horizon DaaS 8.0.0.
Несколько Multi Desktop Managers не поддерживается для одного клиента.
Последние две возможности скоро будут доступны в обновленной версии Horizon DaaS. Скачать VMware Horizon DaaS Migration Tool 2.1 и инструкции по миграции можно по этой ссылке.
На VMware Labs еще одно обновление - инженеры VMware выпустили продукт Flowgate, который представляет собой средство агрегации данных из различных источников. Это middleware, которое позволяет провести агрегацию данных систем инвентаризации датацентров DCIM / CMDB и далее передать их в системы управления задачами инфраструктуры (например, vRealize Operations).
В данном решении есть встроенный адаптер для интеграции со следующими системами DCIM и CMDB, которые хранят данные о составе, размещении и конфигурации ИТ-инфраструктуры:
Nlyte
PowerIQ
Infoblox
Labsdb
IBIS (еще не полностью)
Pulse IoT Center (еще не полностью)
С точки зрения интеграции с этими системами, все происходит в графическом интерфейсе в несколько кликов. Также внутри Flowgate есть встроенный механизм управления пользователями и ролями RBAC (Role Based Access Control) с большим выбором привилегий для конфигурации.
Надо отметить, что архитектура Flowgate открыта для интеграции с любыми другими сторонними системами. С помощью RESTFul API можно запрашивать любые данные и далее визуализовывать их уже как угодно, также все задачи управления решением доступны через API.
С точки зрения систем управления задачами ИТ-инфраструктуры, где собранные метрики визуализируются, на данный момент реализована интеграция с vCenter Server и vRealise Operation Manager, но скоро будет добавлена поддержка и других систем.
Более подробно о том, как работает Flowgate, можно узнать из следующего видео, созданного авторами Flowgate:
Для машины с Flowgate на борту, осуществляющей агрегацию данных, потребуется минимум 4 vCPU, 8 ГБ памяти и 60 ГБ диска, но рекомендуется выделить 8 vCPU и 16 ГБ RAM соответственно.
Довольно давно VMware не обновляла свой универсальный фреймворк для управления виртуальной инфраструктурой, но вот на днях вышел VMware PowerCLI 11.3. Напомним, что прошлая версия пакета VMware PowerCLI 11.2 вышла в марте этого года.
Давайте посмотрим, что нового появилось в PowerCLI 11.3:
1. Добавлено 22 новых командлета для управления компонентами HCX и SPBM (политики хранилищ).
Их поддержка уже была в версии 11.2, но теперь она расширилась. Для HCX теперь доступны следующие командлеты:
Get/New/Remove/Set-HCXComputeProfile
Get-HCXInventoryCompute
Get-HCXInventoryDatastore
Get-HCXInventoryDVS
Get-HCXInventoryNetwork
Get-HCXNetworkBacking
Get/New/Remove/Set-HCXNetworkProfile
Get/New/Remove/Set-HCXServiceMesh
Get-HCXStorageProfile
New-HCXComputeProfileDVS
New-HCXComputeProfileNetwork
New-HCXServiceMeshDVS
В плане поддержки SPBM, появился новый командлет Get-SpbmView, который предоставляет прямой доступ к API механизма управления политиками хранилищ. В примере ниже выведен список доступных сервисов и взаимодействие с сервисом Replication Manager для получения набора доступных методов:
Также теперь командлеты Get/Set-SpbmEntityConfiguration могут просматривать или изменять политики хранилищ SPBM для датасторов. Вот пример работ командлета для вывода параметров политики датастора:
2. Поддержка vSphere 6.7 Update 2 в модуле VMware.VIM.
Теперь последняя версия платформы vSphere полностью поддерживается для управления через этот модуль.
3. Поддержка opaque networks в командлете Get-VirtualNetwork.
Эти сети появляются как результат работы с логическими коммутаторами в решении NSX-T. В версии PowerCLI 11.2 управление такими сетями было доступно только через прямой API, а сейчас можно управлять ими с помощью высокоуровневого командлета:
4. Добавлена возможность создания дополнительных типов сетевых адаптеров.
Здесь были добавлены адаптеры SriovEthernetCard и Vmxnet3Vrdma, а также появились параметры PhysicalFunction и DeviceProtocol.
5. Поддержка высокоуровнего преобразования мгновенных клонов (instant clones) в обычные ВМ.
Начиная с vSphere 6.7, мгновенные клоны (instant clones) стали доступны для пользователей в производственной среде, но управлять ими можно было только через API. Теперь же с помощью PowerCLI 11.3 можно использовать командлет Set-VM совместно с параметром PromoteDisks, что даст возможность преобразовать машину instant clone в самостоятельную ВМ, которая больше не зависит от родительской.
6. Обновлена обработка статусов кластера для свойства SpbmEnabled.
Теперь для датастора в кластере не показывается статус SpbmEnabled, так как он всегда включен и не может быть отключен пользователем.
7. Обновленная обработка пакетного режима привязки тэгов.
Теперь привязка тэгов vSphere tags с помощью командлета New-TagAssignment идет на стороне сервера в пакетном режиме, что дает существенный прирост производительности (от 12 до 18 раз):
Коллеги из Veeam Software попросили помочь в поиске человека, который будет заниматься контент-маркетингом в сфере защиты данных и обеспечения доступности виртуальных датацентров. Надо писать тексты, хорошие заголовки и брифы, а также говорить на английском (и, желательно, испанском) языке.
Veeam представлять не требуется - это один из лидеров петербургского (а сейчас уже международного) ИТ-рынка, компания которая стоит не менее 5 миллиардов долларов. Внутри отличная корпоративная атмосфера (просто потому, что стараются брать на работу адекватных людей) и возможности релокации по всему миру (если вам такое интересно). Можно переехать в Чехию, в Америку, в Бухарест, да и вообще много куда.
Veeam Software is a global leader in intellectual data management based in more than 30 countries that serves 343,000+ customers all over the world.
Our clients are big and midsize business from different industries. We help 82% Fortune 500 companies to evolve the way they manage data and to ensure it’s available across any application and across any cloud infrastructure.
We are trusted by: L’Oreal, PwC, Volvo, Gatwick, Scania and many more.
In a partnership with VMware и Microsoft we help business to improve.
Знание языков
Английский
Обязанности
Create short texts, product descriptions, blog posts, white papers about Veeam solutions and data management industry in general - topics might include virtualization, data protection for both physical and virtual environments, cloud data management, server networking, data center infrastructure trends etc - with purpose of helping to drive organic and paid traffic to Veeam sites and raise awareness about Veeam solutions and thought leadership.
Publish content via WordPress on Veeam blogs or coordinate content publishing on 3rd party platforms.
Collaborate with external and internal subject matter experts (evangelists, bloggers, engineers, developers, analytics, IT administrators) on content topic development and content creation.
Collaborate with multiple teams across regions/departments to ensure aligned content production and promotion: product marketing, campaign management, digital advertisement, email marketing, SEO, localization, creatives, web-development etc.
Initiate and drive projects with creative and web-development teams to ensure effective content placement on Veeam and 3rd party web sites (mainly Veeam blog UX).
Use Google Analytics, MOZ and similar digital analytical tools to perform regular reporting on content activities results.
Maintain content publishing schedule for particular audiences/regions.
Work with tracking, planning and CRM systems for tasks management and analytics.
Требования
Proven written and oral communication English and Spanish language skills, including business communications.
In-bound and out-bound digital marketing understanding.
Ability to learn quickly.
Strong interpersonal, writing, and verbal skills.
Must be able to work effectively both as a team member and independently.
Demonstrate ability to prioritize, multi-task, and work with minimal supervision in a team environment.
Strong organization skills with emphasis on being conscientious and detail-oriented.
Strong computer skills and proficiency in Word, Excel, Outlook and PowerPoint.
Technical understanding of data protection industry and virtualization principles.
Technical background (degree or work experience as network/support engineer or similar) and/or work experience in Digital Marketing is a strong plus.
Working knowledge of computer software such as VMware, Windows Server/Hyper-V or similar is a strong plus.
Experience in Google Analytics is a strong plus.
Basic understanding and/or experience of PPC, SEO, analytics and web-development is a strong plus.
Условия
Work in a stable, dynamic company
Modern energetic multinational working environment
Interesting people, an excellent team of professionals
Extensive opportunities for professional growth and career
Flexible work schedule (work on European time)
Employment according to the Labor Code of the Russian Federation, “white” salary
An extended medical insurance policy
Opportunity to join the Veeam footbal/lvolleyball team
Как знают почти все администраторы платформы VMware vSphere, для кластеров VMware HA/DRS есть такой режим работы, как Enhanced vMotion Compatibility (EVC). Нужен он для того, чтобы настроить презентацию инструкций процессора (CPU) хостами ESXi так, чтобы они в рамках кластера соответствовали одному базовому уровню (то есть все функции процессоров приводятся к минимальному уровню с набором инструкций, которые гарантированно есть на всех хостах).
Ввели режим EVC еще очень давно, чтобы поддерживать кластеры VMware vSphere, где стоят хосты с процессорами разных поколений. Эта ситуация случается довольно часто, так как клиенты VMware строят, например, кластер из 8 хостов, а потом докупают еще 4 через год-два. Понятно, что процессоры уже получаются другие, что дает mixed-окружение, где по-прежнему надо перемещать машины между хостами средствами vMotion. И если набор презентуемых инструкций CPU будет разный - двигать машины между хостами будет проблематично.
EVC маскирует инструкции CPU, которые есть не на всех хостах, от гостевых ОС виртуальных машин средствами интерфейса CPUID, который можно назвать "API для CPU". В статье VMware KB 1005764 можно почитать о том, как в кластере EVC происходит работа с базовыми уровнями CPU, а также о том, какие режимы для каких процессоров используются.
Надо отметить, что согласно опросам VMware, режим кластера EVC используют более 80% пользователей:
В VMware vSphere 6.7 появились механизмы Cross-Cloud Cold и Hot Migration, которые позволяют переносить нагрузки в онлайн и офлайн режиме между облаками и онпремизной инфраструктурой.
Когда это происходит, виртуальной машине приходится перемещаться между хостами с разными наборами инструкций процессора. Поэтому, в связи с распространением распределенных облачных инфраструктур, в vSphere появилась технология Per-VM EVC, которая позволяет подготовить виртуальную машину к миграции на совершенно другое оборудование.
По умолчанию, при перемещении машины между кластерами она теряет свою конфигурацию EVC, но в конфигурации ВМ можно настроить необходимый базовый уровень EVC, чтобы он был привязан к машине и переезжал вместе с ней между кластерами:
Обратите внимание, что Per-VM EVC доступна только, начиная с vSphere 6.7 и версии виртуального железа Hardware Version 14. Эта конфигурация сохраняется в vmx-файле (потому и переезжает вместе с машиной) и выглядит следующим образом:
Некоторые пользователи не включают EVC, так как покупают унифицированное оборудование, но VMware рекомендует включать EVC в кластерах со старта, так как, во-первых, никто не знает, какое оборудование будет докупаться в будущем, а, во-вторых, так будет легче обеспечивать миграцию виртуальных машин между облачными инфраструктурами.
Основная причина, по которой не включают EVC - это боязнь того, что поскольку машины не будут использовать весь набор инструкций CPU (особенно самых последних), то это даст снижение производительности. Поэтому VMware написала целый документ "Impact of Enhanced vMotion Compatibility on Application Performance", где пытается доказать, что это не сильно влияет на производительность. Вот, например, производительность Oracle на выставленных базовых уровнях для разных поколений процессоров (в документе есть еще много интересных графиков):
Чтобы включить EVC на базе виртуальной машины, нужно ее выключить, после чего настроить нужный базовый уровень. Для автоматизации этого процесса лучше использовать PowerCLI, а сама процедура отлично описана в статье "Configuring Per-VM EVC with PowerCLI".
Для того, чтобы выяснить, какие базовые уровни EVC выставлены для виртуальных машин в кластере, можно использовать следующий сценарий PowerCLI:
Get-VM | Select Name,HardwareVersion,
@{Name='VM_EVC_Mode';Expression={$_.ExtensionData.Runtime.MinRequiredEVCModeKey}},
@{Name='Cluster_Name';Expression={$_.VMHost.Parent}},
@{Name='Cluster_EVC_Mode';Expression={$_.VMHost.Parent.EVCMode}} | ft
Это даст примерно следующий результат (надо помнить, что отчет будет сгенерирован только для VM hardware version 14 и позднее):
В примере выше одна машина отличается от базового уровня хостов, но в данном случае это поддерживаемая конфигурация. Проблемы начинаются, когда машина использует более высокий базовый уровень CPU, чем его поддерживает хост ESXi. В этом случае при миграции vMotion пользователь получит ошибку:
Понять максимально поддерживаемый режим EVC на хосте можно с помощью команды:
В целом тут совет такой - включайте режим Enhanced vMotion Compatibility (EVC) в кластерах и для виртуальных машин VMware vSphere сейчас, чтобы не столкнуться с неожиданными проблемами в будущем.
Напомним, что о версии HCIBench 2.0 мы писали вот тут, а здесь мы рассматривали использование этой утилиты для замеров производительности кластеров VMware vSAN. Напомним, что это средство позволяет провести комплексный тест производительности отказоустойчивых кластеров хранилищ Virtual SAN, а также других конфигураций виртуальной инфраструктуры.
Проект HCIbecnh ("Hyper-converged Infrastructure Benchmark") является оберткой для известного open source теста VDbench, он позволяет организовать автоматизированное тестирование гиперконвергентного кластера (HCI-кластера). Гиперконвергентный кластер - это когда все его вычислительные ресурсы, системы хранения и сети виртуализованы и собраны в единую интегрированную сущность и управляются из одной точки.
Целью такого тестирования может быть, например, необходимость убедиться, что развернутая инфраструктура обеспечивает достаточную производительность для планируемой на нее нагрузки.
Что нового появилось в HCIBench 2.1:
Интерфейс переключили на темную тему.
Переработанная технология подготовки VMDK, которая теперь работает гораздо быстрее за счет использования рандомизации на дедуплицированных хранилищах.
Добавлена возможность обновления процесса подготовки VMDK.
Добавлена проверка портов базы данных Graphite в процесс превалидации.
Пароли vCenter и хостов ESXi затемняются при сохранении
На сайте проекта VMware Labs появилось очередное обновление - стала доступна новая версия средства USB Network Native Driver for ESXi до версии 1.1. Напомним, что ранее мы писали о нем вот тут. Это нативный драйвер для сетевых адаптеров серверов, которые подключаются через USB-порт.
Такой адаптер можно использовать, когда вам необходимо, например, подключить дополнительные Ethernet-порты к серверу, а у него больше не осталось свободных PCI/PCIe-слотов. В каких-то еще случаях подключение такого адаптера может помочь, чтобы получить еще одно сетевое соединение без необходимости перезагружать сервер (и так же просто отключить его).
Новая версия драйвера содержит поддержку девяти новых устройств USB NIC, включая девайсы USB 2.0 RTL8152 & TPLINK. Полный список поддерживаемых устройств теперь таков:
Vendor
Chipset
VendorID
ProductID
ASIX
AX88179
0x0b95
0x1790
ASIX
AX88178a
0x0b95
0x178a
CISCO LINKSYS
RTL8153
0x13b1
0x0041
DLINK
AX88179
0x2001
0x4a00
LENOVO
AX88179
0x17ef
0x304b
LENOVO
RTL8153
0x17ef
0x7205
LENOVO
RTL8153
0x17ef
0x3069
LENOVO
RTL8153
0x17ef
0x720a
LENOVO
RTL8153
0x17ef
0x3062
NVIDIA
RTL8153
0x0955
0x09ff
REALTEK
RTL8153
0x0bda
0x8153
REALTEK
RTL8152
0x0bda
0x8152
SITECOMEU
AX88179
0x0df6
0x0072
TP-LINK
RTL8153
0x2357
0x0601
Помимо этого, в драйвер также была добавлена поддержка Jumbo Frames (размером до 4K) для устройств RTL8153 и AX88179.
Для установки драйвера нужно развернуть на ESXi 6.5 или 6.7 один из двух VIB-пакетов для соответствующей версии:
Очень часто администраторы платформы VMware vSphere задаются следующими вопросами о версиях продукта vCenter: какая разница между обновлением vCenter (он же update) и патчем (patch)? в чем отличие апгрейда (upgrade) и миграции (migration)? почему некоторые версии vCenter нумеруются как-то отдельно? Попробуем дать ответы на эти вопросы ниже, используя материал вот этой статьи в блоге VMware.
Первое, что нужно понять - это нумерация версий vCenter. Она подразумевает 2 компонента - номер версии (например, vCenter 6.7 Update 2a) и номер билда (например, 13643870):
Номер версии имеет также и цифровое обозначение. Если вы зайдете в интерфейс VMware Appliance Management Interface (VAMI), то увидите там номер билда (13643870), а также полный номер версии (6.7.0.31000):
Если же вы зайдете в vSphere Client и перейдете там на вкладку Summary для вашего сервера vCenter (в данном случае vCenter Server Appliance, vCSA), то увидите там версию 6.7.0:
В данном случае в поле Build указан номер билда клиента vSphere Client (13639324), и не стоит его путать с номером билда самого vCenter. Все это как-то более-менее соотносится между собой (VAMI дает более полную информацию о цифровом номере версии).
Теперь, чтобы сложить все это в единую картину и соотнести с датой релиза конкретной версии vCenter, существует статья базы знаний KB 2143838, где есть полезная табличка:
Обратите внимание на последнюю колонку - Client/MOB/vpxd.log. Это версия клиента vSphere Client, и именно она появится в лог-файле vpxd.log, поэтому не стоит удивляться, что она отличается от номера билда vCenter.
Теперь перейдем к апдейтам и патчам. vCenter Server Update - это полноценное обновление платформы, которое может включать в себя новый функционал, исправления ошибок или доработки существующей функциональности. Выходит апдейт довольно редко и имеет свое строковое наименование (например, vCenter 6.7 Update 2a). Для апдейта всегда выпускается документ Release Notes, и его можно скачать через my.vmware.com.
Патч - это постоянно выпускаемое небольшое обновление для vCenter, которое поддерживает уровень безопасности, закрывает критические уязвимости, исправляет фатальные ошибки и т.п. Он может относиться к вспомогательным компонентам vCSA, например, Photon OS, базе данных Postgres DB или фреймворку Java.
Для патча нет выделенного документа Reelase Notes, но информация о нововведениях доступна в VMware vCenter Server Appliance Photon OS Security Patches. Патчи нельзя скачать через my.vmware.com, но они загружаются через VMware Patch Portal. Само собой, патчи включаются в апдейты, выпускаемые на какой-то момент времени. Патчи накатываются в рамках одного цифрового обновления. То есть 6.7 Update 1 не патчится напрямую на 6.7 Update 2b, сначала надо накатить апдейт 6.7 Update 2a, а затем уже пропатчиться на 6.7 Update 2b.
Также на VMware Patch Portal вы можете найти ISO-образы vCenter Server, но их не надо использовать для новых развертываний, они нужны только для восстановления вашего vCenter Server Appliance, если вы используете резервное копирование на уровне файлов.
Теперь перейдем к разнице между апгрейдом и миграцией. Апгрейд - это обновление мажорной версии сервера vCenter одного типа развертывания (например, вы делаете апгрейд vCenter Server Appliance 6.5 на vCenter Server Appliance 6.7). Миграция - это когда вы меняете тип развертывания vCenter, переходя, например, с Windows-платформы на Linux (к примеру, vCenter Server 6.5 for Windows мигрируете на vCenter Server Appliance 6.7).
Если вы обновляете vCSA 6.5 на 6.7, то апгрейд идет как бы ненастоящий - развертывается новый виртуальный модуль vCSA 6.7, и на него переезжают все настройки (FQDN, IP, сертификаты и UUID), а также содержимое базы данных vCSA 6.5.
Также надо упомянуть и back-in-time upgrade - это когда вы хотите обновить, например, vSphere 6.5 Update 2d на vSphere 6.7 Update 1. Прямое обновление тут не поддерживается, так как Update 2d для версии 6.5 вышел позднее, чем Update 1 для версии 6.7. То есть Update 2d содержит код, которого нет в Update 1, а значит это может вызвать потенциальные конфликты.
Поэтому для каждой новой версии vCenter выпускается раздел Upgrade Notes for this Release, где можно найти информацию о возможности апгрейда:
На сайте проекта VMware Labs появилось очередное обновление - Workspace ONE UEM SCIM Adapter. С помощью этого средства администратор получает возможности управления пользователями, группами и правами доступа SCIM в инфраструктуре решения Workspace ONE UEM.
Это средство представляет собой middleware, которое транслирует интерфейс System for Cross-Domain Identity Management (SCIM) во фреймворк CRUD REST, который может интерпретировать средство Workspace ONE UEM. Эта возможность позволяет Workspace ONE UEM синхронизировать облачные сервисы идентификации (пользователи/группы/назначения прав) без необходимости дополнительной интеграции LDAP (service to service model). Такими примерами являются решения Azure AD, Okta и Sailpoint.
Примеры развертывания данного средства можно посмотреть в следующих статьях: