Новости Статьи VMware Veeam StarWind vStack Microsoft Nakivo Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6260 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Все презентации VMware Explore 2024 US и Europe доступны для скачивания в PDF

Обновился фреймворк Skyline CLI для конфигурации коллекторов до версии 1.0.6


На сайте проекта VMware Labs вышло обновление утилиты Skyline CLI 1.0.6. Напомним, что решение Skyline CLI позволяет с помощью интерфейса командной строки автоматизировать операции и конфигурации компонентов Skyline Collectors. О предыдущем обновлении мы писали вот тут.

Средствами фреймворка Skyline CLI можно сделать следующие вещи:

  • Настроить новый Skyline Collector через JSON-файл
  • Добавлять, удалять и обновлять Endpoints для Skyline Collector
  • Настраивать политику пароля root
  • Включать и отключать автообновления
  • Настраивать friendly name для сборщика
  • Задавать параметры прокси-сервера
  • Обновлять Skyline Collector и регистрировать его
  • Получать текущий статус сборщика

Пример полной конфигурации коллектора в JSON-файле:

Давайте посмотрим, что нового появилось в Skyline CLI 1.0.6:

  • Улучшения в коде утилиты
  • Возможность настройки доступа root по SSH
  • Возможность изменения политики паролей администраторов
  • Сброс пароля администратора
  • Создавание лог-бандла для Skyline collector
  • Включение/отключение логирования в режиме отладки для Skyline collector

Также в версии Skyline CLI 1.0.3 были сделаны следующие улучшения:

  • Нотификации, отправляемые в Slack через Skyline Endpoints
  • Улучшения в коде

Скачать Skyline CLI 1.0.6 можно по этой ссылке. Инструкции по использованию фреймворка находятся здесь.


Таги: VMware, Skyline, CLI, Update, Labs

Как установить настройку VMware ESXi Advanced Setting, если она недоступна через esxcli?


Как вы знаете, через интерфейс esxcli на сервере VMware ESXi можно устанавливать расширенные настройки (Advanced Settings). Список таких доступных настроек можно вывести командой:

esxcli system settings advanced list

При этом не все пространства имен (namespaces) доступны через этот интерфейс командной строки. Эти настройки, в таком случае, как правило, доступны через интерфейс vSphere Client, но вам может понадобиться заскриптовать их. Об этом рассказал Дункан Эппинг.

Некоторые администраторы vSphere знают, что есть также такой интерфейс vim-cmd, который уже не рекомендуется использовать, но, тем не менее, его еще можно применять для установки некоторых настроек. Среди них, например, есть настройка Config.HostAgent.ssl.keyStore.allowSelfSigned для разрешения самоподписанных сертификатов на хостах ESXi.

В этом случае вы можете использовать команды в следующем формате:

vim-cmd hostsvc/advopt/update name.option type value

Для самоподписанных сертификатов нужная команда выглядит так:

vim-cmd hostsvc/advopt/update Config.HostAgent.ssl.keyStore.allowSelfSigned bool "true"

Ну а чтобы вывести список всех доступных расширенных настроек, используйте команду:

vim-cmd hostsvc/advopt/settings


Таги: VMware, ESXi, CLI, vSphere

Новые утилиты на VMware Labs: Skyline Automation Toolkit и Skyline CLI


На сайте проекта VMware Labs появились две интересные утилиты для пользователей решения VMware Skyline. Напомним, что этот продукт предназначен для предоставления расширенной технической поддержки некоторым клиентам для Enterprise-продуктов с целью предотвратить возникновение проблем в будущем на базе анализа текущего состояния виртуальной среды.

Первая утилита - Skyline Automation Toolkit - представляет собой набор средств для экономии времени при исправлении потенциальных ошибок конфигурации, выявленных решением Skyline Advisor. Облачные администраторы могут автоматизировать действия движка Proactive Intelligence с помощью собственных сценариев, которые решают 2 следующих задачи:

  • Выполнение операций для найденных Skyline Proactive Findings
  • Установка и конфигурация компонента Skyline Collector с подключенными Endpoints

С помощью модулей Powershell данный тулкит позволяет обновлять и конфигурировать виртуальную инфраструктуру VMware, при этом предварительно рекомендуется проводить все операции в тестовой среде.

В состав входят следующие пакеты:

  • skyline-fixer - этот скрипт проверяет CSV-файлы, экспортированные из Skyline Advisor и имплементирует шаги по исправлению конфигурации виртуальной среды
  • skyline-comm - посылает Skyline Findings в Slack, Jira, Pagerduty и другие внешние системы
  • skyline-helper - позволяет настраивать надежные соединения между Endpoints и Skyline Collector
  • skyline-docker - позволяет построить дополнительную инфраструктуру для поддержки функциональности "Findings and Recommendations" за пределами продуктов VMware.

Скачать Skyline Automation Toolkit можно по этой ссылке.

Второе решение - Skyline CLI - позволяет с помощью интерфейса командной строки автоматизировать операции и конфигурации компонентов Skyline Collectors. Средствами этого фреймворка можно сделать следующие вещи:

  • Настроить новый Skyline Collector через JSON-файл
  • Добавлять, удалять и обновлять Endpoints для Skyline Collector
  • Настраивать политику пароля root
  • Включать и отключать автообновления
  • Настраивать friendly name для сборщика
  • Задавать параметры прокси-сервера
  • Обновлять Skyline Collector и регистрировать его
  • Получать текущий статус сборщика

Скачать Skyline CLI можно по этой ссылке. Инструкции по использованию фреймворка находятся здесь.


Таги: VMware, Skyline, Labs, CLI, Toolkit

Развертывание VMware vCenter Server Appliance (VCSA) в среде vCloud for AWS.


Недавно мы писали о том, как настроить сетевое соединение между Compute Network и SDDC Management Network в публичном облаке VMware vCloud on AWS (VMConAWS). Сегодня мы расскажем еще об одной полезности, предложенной Вильямом Ламмом - развертывании виртуального модуля VMware vCenter Server Appliance (VCSA) в такой инфраструктуре.

Начать надо с того, что когда вы запустите графический установщик виртуального модуля vCSA в среде VMC, то получите вот такое сообщение об ошибке на этапе указания параметров хоста для развертывания:

User has no administrative privileges

Это интересно тем, что на самом деле установщик vCSA не требует административных привилегий и, по идее, не должен выдавать такого сообщения об ошибке. Поэтому Вильям нашел, все-таки, способ развернуть vCSA в публичном облаке.

Для этого надо сделать следующее:

1. Создать вспомогательную ВМ (например, с Windows 10 на борту), которая будет использовать для развертывания нового экземпляра vCSA с помощью командной строки. Вы можете использовать для этой цели любую ОС, которая поддерживает интерфейс vCSA CLI.

2. Настроить соединение между сетевыми экранами Management (MGW) и Compute (CGW) для этой машины, как мы писали вот тут, чтобы установщик имел доступ к административной сети. 

3. Развернуть vCSA через CLI с помощью файла конфигурации развертывания в формате JSON, настроенного под ваше окружение. Вот пример содержимого такого файла, который вы можете взять за основу:

{
    "new_vcsa": {
        "vc": {

            "hostname": "vcenter.sddc-a-b-c-d.vmwarevmc.com",
            "username": "cloudadmin@vmc.local",
            "password": "FILLMEIN",
            "deployment_network": "sddc-cgw-network-1",
            "datacenter": [
                "SDDC-Datacenter"
            ],
            "datastore": "WorkloadDatastore",
            "target": [
                "Cluster-1",
                "Resources",
                "Compute-ResourcePool"
            ]
        },
        "appliance": {
            "thin_disk_mode": true,
            "deployment_option": "tiny",
            "name": "VCSA-67u2"
        },
        "network": {
            "ip_family": "ipv4",
            "mode": "dhcp"
        },
        "os": {
            "password": "VMware1!",
            "time_tools_sync": true,
            "ssh_enable": true
        },
        "sso": {
            "password": "VMware1!",
            "domain_name": "vsphere.local"
        }
    },
    "ceip": {
        "settings": {
            "ceip_enabled": false
        }
    }
}

После этой процедуры вы получите работающий VMware vCenter Server Appliance 6.7 Update 2 в своей инфраструктуре, который сможете использовать как для тестирования его возможностей, так и для полноценного управления виртуальной средой:


Таги: VMware, vCloud, VMConAWS, CLI, vCenter, vCSA

Новое на VMware Labs для администраторов решений vRealize Automation (vRA) и vRealize Orchestrator (vRO) - пакет vRealize Build Tools.


На сайте проекта VMware Labs появилось полезное администраторам решений vRealize Automation (vRA) и vRealize Orchestrator (vRO) средство vRealize Build Tools.

С помощью него разработчики и администраторы, работая совместно, смогут реализовать новые сценарии и рабочие процессы к vRA и vRO, используя стандартные практики DevOps. Пакет сфокусирован на качестве кода, его повторном использовании, модульном тестировании, управлении взаимосвязями и параллельных релизах проектов под платформу vRealize.

На практике vRealize Build Tools представляют собой расширения (extensions), упакованные в формат репозитория Maven, которые поддерживают использование IDE (через Maven), а также интерфейса CLI для разработки, тестирования и развертывания решений для платформ vRA/vRO. Также в пакет включен плагин к vRO, который предоставляет возможности автозаполнения для стандартных и сторонних объектов для сценариев и действий:

а также CLI-команды для развертывания пакетов к vRO/vRA через стандартные API:

Для начала работы с vRealize Build Tools вам понадобятся следующие инструменты:

Скачать vRealize Build Tools можно по этой ссылке.


Таги: VMware, Labs, vRealize, DevOps, CLI, vRA, vRO, Orchestrator, Automation

Новое на VMware Labs - MyVMware CLI.


На сайте проекта VMware Labs появилось очередное обновление - утилита/интерфейс MyVMware CLI, который позволяет взаимодействовать с порталом My VMware (my.vmware.com) посредством командной строки.

Основное назначение утилиты - предоставить администраторам интерфейс для загрузки дистрибутивов различных продуктов VMware.

С помощью MyVMware CLI можно скачать любой продукт VMware, любой версии, а также загружать различные файлы. Надо понимать, что к возможностям загрузки дистрибутивов с помощью данного средства будут применяться ограничения, действующие для используемого аккаунта My VMware (поэтому выведите список всех доступных продуктов командой vmw-cli list).

MyVMware CLI протестирована и работает на Linux или MacOS. Установить интерфейс можно с помощью NodeJS (через NPM) командой:

npm install vmw-cli --global

Также MyVMware CLI можно развернуть на платформе Docker:

docker run -t --rm -e VMWUSER='<username>' -e VMWPASS='<password>' -v ${PWD}:/files apnex/vmw-cli <cmd>

MyVMware CLI доступен из репозитория GitHub, где вы также можете увидеть примеры использования различных команд по листингу и загрузке продуктов VMware. Более подробно об использовании утилиты можно почитать здесь.


Таги: VMware, Labs, CLI, vSphere

Обновленные версии утилит VMware vCenter VM Mobility и DRS Lens.


На днях компания VMware обновила пару своих утилит на сайте проекта VMware Labs, которые могут оказаться вам полезными.

Во-первых, решение VMware vCenter VM Mobility, о котором мы писали вот тут, обновилось до версии 1.5. Напомним, что это средство позволяет через интерфейс командной строки (CLI) перенести машину между серверами vCenter, которые связаны в режиме Linked Mode или размещены независимо друг от друга. Надо отметить, что в режиме Linked Mode и так можно перемещать виртуальную машину между датацентрами, поэтому полезна утилита именно для несоединенных vCenter.

Давайте посмотрим, что нового появилось в версиях vCenter VM Mobility 1.2-1.5:

  • Добавлена возможность выбрать папку ВМ в месте назначения, а также storage pod (для механизма storage drs).
  • Поддержка соединения на сайте назначения, чтобы не прервалась задача перемещения ВМ.
  • Пофикшен баг, когда при миграции нескольких виртуальных машин с одной виртуальной сетью назначения мигрировалась только одна.
  • Поддержка передачи пароля в качестве аргумента для автоматизации задач клонирования и перемещения ВМ между датацентрами.

Скачать VMware vCenter VM Mobility 1.5 можно по этой ссылке. Напомним, что утилитой лучше не пользоваться для миграции связанных клонов ВМ (linked clones).

Вторая обновившаяся утилита - это DRS Lens, про которую мы рассказывали вот тут. Она позволяет администраторам виртуальных инфраструктур получить больше информации о работе механизма балансировки нагрузки на хост-серверы VMware vSphere DRS.

На днях вышла версия DRS Lens версии 1.2. Приведем ниже новые возможности утилиты версий 1.1-1.2:

  • Добавлена поддержка архивирования старых данных мониторинга.
  • Добавлена страница общей информации для vCenter, чтобы получать информацию о кластерах и архивах.
  • Улучшения пользовательского интерфейса.
  • Добавлена совместимость процесса логина с vCenter 5.5.
  • Пофикшены некоторые серьезные баги.

Скачать DRS Lens 1.2 можно по этой ссылке.


Таги: VMware, vCenter, DRS, Monitoring, vMotion, CLI, Update, Labs

Новое на VMware Labs - Host Profiles CLI.


Недавно на сайте проекта VMware Labs появилась интересная утилита - Host Profiles CLI. Она позволяет администраторам VMware vSphere из командной строки выполнять те операции, которые недоступны в графическом интерфейсе механизма настройки хостов ESXi Host Profiles или доступны ограниченно (без средств автоматизации). Особо стоит отметить возможность совместного использования механизмов Auto Deploy и Host Profiles CLI.

Напомним, что профили хостов (Host Profiles) - это средство конфигурации серверов ESXi таким образом, что единый "золотой" профиль применялся к всем хостам, настраивая их единообразно, что уменьшает риски ошибок конфигурации, а также улучшает управляемость/обслуживание инфраструктуры и ее безопасность.

С помощью Host Profiles CLI из командной строки можно делать следующее:

  • Кастомизация stateless-хостов Auto Deploy до их загрузки и присоединения к vCenter Server.
  • Импорт/экспорт профилей хостов из локальных файлов.
  • Привязка профиля к существующему кластеру.
  • Установка единого рутового пароля в профиле или настройка профиля таким образом, чтобы использовать уникальные пароли root для каждого из хостов.
  • Настройка системного кэша (stateless, cached или stateful install).
  • Просмотр всех профилей хостов, доступных на vCenter Server.

Напомним, что начиная с vSphere 6.5, для механизма Host Profiles можно указывать параметры кастомизации отдельных хостов (IP-адреса, пароли и прочее) в CSV-файле. Но это можно делать только для хостов, которые были уже добавлены в Inventory сервера vCenter. С помощью Host Profiles CLI можно сделать прекастомизацию хостов через файлы CSV, которые будут развернуты через Auto Deploy (то есть, самих хостов пока еще нет в vCenter).

Ну и вот так можно делать импорт и экспорт профилей хостов (не пытайтесь делать импорт профиля для окружения с другим оборудованием хост-серверов):

# hostprofilescli hostprofile --profile esxi65-nfs-gen8 export --file esxi65-nfs-gen8.vpf
# hostprofilescli hostprofile --profile esxi65-nfs-gen8 import --file esxi65-nfs-gen8.vpf

А вот так можно установить пароль root для всех хостов один или свой для каждого:

hostprofilescli hostprofile --profile esxi65-nfs-gen8 useraccount-password set --type allhosts
hostprofilescli hostprofile --profile esxi65-nfs-gen8 useraccount-password set --type perhost

Таким вот образом можно привязать профиль к кластеру:

hostprofilescli hostprofile --profile esxi65-nfs-gen8 attach --entity dbcluster

Также посредством Host Profiles CLI можно установить тип развертывания хостов через Auto Deploy - Stateless caching (когда хост в случае массового сбоя и недоступности PXE-сервисов грузится из локальной кэшированной копии) или Stateful install (когда хост грузится с диска и уже больше не зависит от Auto Deploy). Вот как это делается:

hostprofilescli hostprofile --profile esxi65-nfs-gen8 system-image host set \
--type stateful-install --firstdisk_arguments localesx,local --ignore_ssd --overwrite_vmfs

Более подробная информация об использовании Host Profiles CLI приведена в документации. Загрузить этот интерфейс можно по этой ссылке.


Таги: VMware, Host Profiles, CLI, vSphere, Labs

Сетевой траблшутинг хостов VMware ESXi.


В инфраструктуре VMware vSphere для диагностики сетевых неполадок иногда приходится в сервисной консоли серверов VMware ESXi тестировать различные соединения. В этой заметке мы вкратце опишем, как это делается.

Прежде всего, обычный пинг через стандартный Management-интерфейс:

# ping <IP хоста>

Пинг через порт VMkernel (в ESXi это тот же самый интерфейс, а в ESX - другой):

# vmkping 192.168.48.133

PING 192.168.48.133 (192.168.48.133): 56 data bytes
64 bytes from 192.168.48.133: icmp_seq=0 ttl=64 time=0.978 ms
64 bytes from 192.168.48.133: icmp_seq=1 ttl=64 time=1.009 ms

Для проверки соединения сервера VMware ESXi с хостом по какому-нибудь порту используется утилита netcat (nc). Telnet есть только на ESX. Формат использования netcat:

# nc -z <IP хоста> <порт хоста>

Например:

# nc -z 192.168.48.133 80
Connection to 192.168.48.133 80 port [tcp/http] succeeded!

С помощью netcat можно проверять только TCP-соединения, для UDP (флаг -uz) всегда будет статус succeeded (даже если порт заблокирован или закрыт), так как соединения по UDP не устанавливается. Для того, чтобы тестировать UDP-соединения можно воспользоваться утилитой tcpdump-uw.

Команда nc может быть использована для сканирования диапазона портов (будьте осторожны со сканированием, чтобы не навлечь гнев безопасников):

# nc -w 1 -z 192.168.48.133 20-81
Connection to 192.168.48.133 22 port [tcp/ssh] succeeded!
...
Connection to 192.168.48.133 80 port [tcp/http] succeeded!

Опция -w определяет таймаут между соединениями.

Для траблшутинга SSL-соединений может быть использована следующая команда:

# openssl s_client -connect <IP хоста>:<ssl-порт>

В результате, вы увидите нечно подобное:

# openssl s_client -connect 192.168.48.133:443
CONNECTED(00000003)

Вывод может содержать полезную информацию об SSL-сертификатах, что может помочь в дальнейшем при поиске источника проблемы.

Для того, чтобы вывести список TCP/UDP-соединений на хосте, можно воспользоваться командами:

  • На ESX 3.5/4.x – # netstat -tnp
  • На ESXi 4.1 – # esxcli network connection list
  • На ESXi 5.0 – # esxcli network ip connection list

Выводом будет что-то вроде:

# esxcli network connection list
Proto  Recv-Q  Send-Q    Local Address       Foreign Address     State        World ID
  tcp    0       52      192.168.48.136:22   192.168.48.1:55169  ESTABLISHED  0
  tcp    0       0       127.0.0.1:62024     127.0.0.1:5988      TIME_WAIT    0
  tcp    0       0       127.0.0.1:57867     127.0.0.1:5988      TIME_WAIT    0
  tcp    0       0       127.0.0.1:62196     127.0.0.1:5988      TIME_WAIT    0
  tcp    0       0       127.0.0.1:8307      127.0.0.1:52943     ESTABLISHED  5790
  tcp    0       0       127.0.0.1:52943     127.0.0.1:8307      ESTABLISHED  5790
  tcp    0       0       127.0.0.1:80        127.0.0.1:55629     ESTABLISHED  5785
  tcp    0       0       127.0.0.1:55629     127.0.0.1:80        ESTABLISHED  6613
  tcp    0       0       127.0.0.1:8307      127.0.0.1:56319     ESTABLISHED  5785
  tcp    0       0       127.0.0.1:56319     127.0.0.1:8307      ESTABLISHED  5785


Таги: VMware, ESXi, vNetwork, ESX, vSphere, Обучение, CLI

Управление типами трафика VMkernel с помощью тэгов ESXCLI в VMware vSphere 5.1.


Как многие из вас знают, в VMware vSphere 5.1 есть несколько типов трафика, которые могут быть переданы посредством интерфейса VMkernel (vmkX):

  • Управляющий трафик клиентов (Management)
  • Горячая миграция ВМ (vMotion)
  • Трафик кластера непрерывной доступности (Fault Tolerance)
  • Трафик репликации ВМ (Replication)

В vSphere Web Client эти типы трафика можно просто назначить интерфейсу vmk (VMkernel):

Но можно ли управлять этими настройками с помощью интерфейса ESXCLI? Оказывается, что, начиная с версии vSphere 5.1, это делается очень просто. Интерфейс vmk можно "тэгировать" различными типами трафика, что означает, что он будет их пропускать. В командной строки ESXCLI администратору доступно множество команд tag в следующем пространстве имен:

esxcli network ip interface

Как и с многими другими объектами, с тэгами можно совершать операции getadd и remove:

----------------------------------------------------------------------------------------------

vi-admin@vMA51:~> esxcli –server vcenter51 –vihost pod23-esx-01a.pml.local –username root network ip interface tag
Usage: esxcli network ip interface tag {cmd} [cmd options]

Available Commands:
add                  Adds a tag on a given VMkernel network interface.
get                   Gets the tags set on the given VMkernel network interface.
remove           Removes a tag on a given VMkernel network interface.

----------------------------------------------------------------------------------------------

Например, получить действующие тэги интерфейса vmk0 можно следующей командой:

vi-admin@vMA51:~> esxcli –server vcenter51 –vihost pod23-esx-01a.pml.local –username root network ip interface tag get -i vmk0
Tags: Management

Аналогично можно использовать действия add и remove. Таблица соответствия типов трафика VMkernel и их названий в виде тэгов:

Тип трафика Имя тэга в ESXCLI
Management Management
vMotion VMotion
Fault Tolerance faultToleranceLogging
vSphere Replication vSphereReplication

За одну команду интерфейсу vmk можно поставить или снять только один тэг.


Таги: VMware, vSphere, ESXi, CLI, Networking

Управление хост-сервером VMware ESXi 5.1 через интерфейс vsish и полный список параметров.


В некоторых наших статьях мы уже затрагивали приемы работы с утилитой vsish (VMkernel Sys Info Shell), которая есть в консоли хостов VMware ESXi, и которая предназначена для управления огромным числом обычных и скрытых настроек сервера и ядра VMkernel (то, что раньше управлялось с помощью команды esxcfg-advcfg). Например, мы уже писали про то, как с помощью vsish можно:

Однако, как вы уже догадались, эти три примера не являются исчерпывающими вариантами использования утилиты vsish. Напомним, что работать с ней нужно в следующем формате:

Запускаем утилиту:

~ # vsish

Далее узнаем значение параметра или настройки:

/> get <параметр, путь к файлу>

Устанавливаем новое значение:

/> set <параметр, путь к файлу> <значение>

Можно выполнить команду сразу, с опцией -e. Например:

~ # vsish -e get /power/hardwareSupport 

Большинство параметров утилиты vsish, содержащие путь /config - это расширенные настройки хоста ESXi, которые вы можете редактировать в Advanced Settings через vSphere Client или vSphere Web Client. Вот, например, мы недавно писали о том, как административные привилегии на ESXi назначить пользователю из Active Directory:

Для этой настройки есть соответствующий путь для vsish. Выглядит он так:

/config/HostAgent/plugins/hostsvc/esxAdminsGroup

Однако vsish позволяет редактировать и скрытые настройки ESXi, которые недоступны для изменения через GUI. Полный список настроек vsish для хостов VMware ESXi 4.1 и выше приведен у Вильяма Лама:

Complete vSphere ESXi 4.1 vsish configurations including hidden options - 771 Total

Только скрытые настройки ESXi 4.1 и выше:

Hidden vSphere ESXi 4.1 vsish configurations only - 250 Total

Новые скрытые и обычные настройки в ESXi 5.1:

Complete list of new vsish configurations in ESXi 5.1


Таги: VMware, ESXi, CLI, Blogs

Как вывести список Advanced и Kernel Settings на хосте VMware ESXi 5.1 и другие штуки по esxcli.


В новой версии VMware vSphere 5.1 для хостов ESXi 5.1 в консольном интерфейсе управления esxcli появилось множество нововведений. Во-первых, появилось 82 новых команды esxcli:

  • 7 в категории hardware
  • 2 в категории sched
  • 47 в категории network
  • 15 в категории storage
  • 11 в категории system

Во-вторых, компания VMware выпустила вот такой замечательный постер, из которого можно узнать, как управлять хостом ESXi 5.1 через esxcli:

Теперь через esxcli можно делать операции shutdown, reboot и перевод хоста в maintenance mode.

Например, чтобы узнать, находится ли хост уже в режиме обслуживания нужно выполнить команду:

# esxcli system maintenanceMode get   
Disabled   
#

А чтобы перевести хост в maintenance mode нужно выполнить:

# esxcli system maintenanceMode set -e true -t 0   
#   
# esxcli system maintenanceMode get   
Enabled   
#

Выключить хост ESXi можно так (-d 10 это то же, что и --delay="10", а -r это --reason):

# esxcli system shutdown poweroff -d 10 --reason="Hardware maintenance"

delay здесь задается в секундах.

Перезагрузить можно так:

# esxcli system shutdown reboot -d 10 –r "Patches applied"

Но самое интересное, что теперь появились команды, которые позволяют посмотреть отличия Advanced Settings от дефолтных настроек на хосте ESXi 5.1, что очень полезно при поиске и решении проблем с хост-сервером и его виртуальными машинами. Делается это с помощью команды (-d это то же, что и --delta):

# esxcli system settings advanced list -d

Вывод, например, может быть таким:

Path: /UserVars/SuppressShellWarning
Type: integer
Int Value: 1
Default Int Value: 0
Min Value: 0
Max Value: 1
String Value:
Default String Value:
Valid Characters:
Description: Don’t show warning for enabled local and remote shell access

Здесь мы видим, какое текущее значение расширенной настройки и какое дефолтное (о настройке /UserVars/SuppressShellWarning написано тут). То же самое можно проделать и настройками VMkernel:

# esxcli system settings kernel list -d

Вывод, например, такой:

Name             Type  Description                Configured  Runtime  Default
—————        —    ————————  ———     ——      ——
smallFontForTTY  Bool  Use 50-line font for tty.  true           FALSE     FALSE

Это значит, что была изменена настройка smallFontForTTY.

Ну и, напоследок, интересный документ с примерами использования esxcli - "vSphere Command-Line Interface Concepts and Examples" (для ESXi 5.1).


Таги: VMware, ESXi, CLI, Обучение, Troubleshooting, vSphere

Несколько новых полезных команд для VMware ESXi 5.0.


С выходом новой версии гипервизора VMware ESXi 5 некоторые старые команды и приемы работы с хост-сервером ушли в прошлое, однако появилось несколько новых трюков, которые мы приведем в этой заметке.

1. Простой способ собрать информацию для обращения в техподдержку VMware.

Теперь можно забрать дамп конфигурации ESXi 5.0 (diagnostic information) для техподдержки прямо из веб-браузера. Для этого в адресной строке просто наберите:

https://<username>:<password>@<ESXiHostnameOrIP>/cgi-bin/vm-support.cgi

2. Просмотр информации о настройках хоста ESXi 5.0.

Помните раньше была такая утилита esxcfg-info? Теперь ее больше нет, но можно, опять-таки, из веб-браузера ее загрузить:

https://<username>:<password>@<ESXiHostnameOrIP>/cgi-bin/esxcfg-info.cgi

3. Выключить все виртуальные машины хоста ESXi 5.0 одним махом можно командой:

/sbin/poweroffVms

4. Теперь, чтоб не мучиться, есть утилита traceroute (в ESX 4.1 не было). Также есть следующие утилиты: unzip, Sync, pkill, strace, dmesg, ntp-keygen, ntpdc, ntpq.

5. Вместо команды esxcfg-firewall теперь esxcli network firewal. Как пользоваться - написано тут.

Ну и, наконец, полный список команд консоли ESXi 5.0 и отличий от предыдущей версии ESX/ESXi 4.x вы найдете в документе "Command-Line Management in vSphere 5.0 for Service Console Users".


Таги: VMware, ESXi, CLI, ESX, vSphere

VMware HA CLI - операции с кластером отказоустойчивости vSphere.


Интересную возможность управления кластером высокой доступности VMware HA демонстрирует Duncan Epping. Если в сервисной консоли VMware ESX ввести команду:

/opt/vmware/aam/bin/Cli

а потом набрать команду:

ln

то мы увидим вот такую картинку:

В колонке Type мы видим значение Primary - это тип узла кластера VMware HA (всего может быть 5 Primary узлов, соответственно виртуальная инфраструктура гарантированно выдерживает до 4-х отказов включительно). Далее можно превратить Primary-ноду в Secondary:

Ну и превратить ее опять в Primary:


Таги: VMware, HA, CLI, vSphere, ESX

Как использовать возможности VMware vSphere Management Assistant (vMA).


Компания VMware предоставляет пользователям бесплатное средство VMware vSphere Management Assistant (vMA), которое позволяет централизованно управлять хост-серверами VMware ESX за счет автоматизации операций системных администраторов. По-сути, vSphere Management Assistant представляет собой "вынесенную" за пределы серверов ESX сервисную консоль (консольную ОС), которая для виртуальной инфраструктуры присутствует в единственном экземпляре, но централизованно исполняет сценарии на хостах...


Таги: VMware, vSphere, Management Assistant, vMA, ESX, Обучение, VIMA, SDK, CLI

Команды удаленной командной строки (RCLI) и их аналоги в Service Console (CLI) в VMware vSphere / ESX 4.


Как известно, вместе с сервером виртуализации VMware ESX в составе пакета VMware vSphere идет консольная операционная система (Service Console), с помощью которой из интерфейса командной строки (Command Line Interface, CLI) можно управлять сервером виртуализации. Для бесплатного продукта VMware ESXi такой ОС не предусмотрено, поэтому им можно управлять удаленно, через, соответственно, удаленный интерфейс командной строки. Этот интерфейс называется RCLI (Remote Command Line Interface) и доступен как в виде пакета для Windows и Linux, так и в виде готовой виртуальной машины vSphere Management Assistant (vMA).

В приведенной ниже таблице указан список команд CLI для сервера VMware ESX, а также соответствующий им список команд RCLI для управления сервером VMware ESXi. Для ESX обычно импользуются команды вида esxcfg-***, для ESXi эти команды выглядят как vicfg-***. В колонке "Команда RCLI" приведены команды, которые можно выполнять из vMA для vSphere или RCLI, в колонках "Доступность в ESXi 4" и "Доступность в ESX 4" сказано, может ли команда выполняться на сервере локально. В колонке "Доступность через VC 4" сказано, может ли команда выполняться через GUI на vCenter посредством vSphere Client. Столбец "Аналог в CLI" говорит о том, какая команда используется в Service Console для выполнения данной операции.

Итак, команды CLI и RCLI для управления VMware vSphere в части сервера ESX:

Номер Команда RCLI (ESXi) Доступность в ESXi 4 Доступность в ESX 4 Доступность через VC 4 Аналог в CLI (ESX) Описание (для чего используется)
1
esxcli
да
да
нет
esxcli
Управление модулями pluggable storage architecture (PSA) & native multipathing (NMP) - доступ по нескольким путям.
2
resxtop  
да
да
да
esxtop
Производит мониторинг системных ресурсов в реальном времени в интерактивном или пакетном режимах. Поддерживается только для Linux.
3
svmotion  
нет
нет
да
Динамически переносит работающую виртуальную машину на другое хранилище за счет технологии Storage VMotion. С ключом --interactive работает в интерактивном режиме.
4
vicfg-advcfg  
да
да
да
esxcfg-advcfg  
Дополнительное управление CIM-провайдерами (ESXi) или расширенными настройками ESX / ESXi. Использовать нужно с осторожностью.
5
vicfg-cfgbackup  
да
нет
нет
esxcfg-cfgbackup  
Создает резервную копию ESXi и восстанавливает ее.
6
vicfg-dns  
да
да
да
esxcfg-dns  
Управляет конфигурацией DNS на сервере ESX / ESXi.
7
vicfg-dumppart  
да
да
да
esxcfg-dumppart  
Управляет диагностическими разделами.
8
vicfg-iscsi  
да
да
да
esxcfg-hwiscsi и esxcfg-swiscsi
Управляет хранилищем iSCSI (software и hardware).
9
vicfg-module  
да
да
да
esxcfg-module  
Управляет модулями ядра VMkernel.
10
vicfg-mpath 
да
да
да
esxcfg-mpath 
Используется для взаимодействия с дисковыми массивами и вывода информации о путях.
11
vicfg-mpath35 
нет
нет
нет
Используется для взаимодействия с дисковыми массивами хостов ESX 3.5.
12
vicfg-nas  
да
да
да
esxcfg-nas  
Управляет доступом к NFS / NAS хранилищам.
13
vicfg-nics  
да
да
да
esxcfg-nics  
Управляет физическими интерфейсами хоста ESX / ESXi.
14
vicfg-ntp  
да
да
да
esxcfg-ntp  
Настройки сервера времени по протоколу NTP.
15
vicfg-rescan  
да
да
да
esxcfg-rescan  
Сканирование массива и обнаружение новых LUN или томов VMFS.
16
vicfg-route  
да
да
да
esxcfg-route  
Управляет маршрутизацией на хосте ESX / ESXi.
17
vicfg-scsidevs  
да
да
да
esxcfg-scsidevs  
Выводит информацию о доступных устройствах и LUN. Замена команды esxcfg-vmhbadevs в ESX 3.5.
18
vicfg-snmp  
да
да
нет
esxcfg-snmp  
Управляет агентом SNMP на хосте ESX / ESXi.
19
vicfg-syslog  
да
нет
да
esxcfg-syslog  
Для хостов ESXi можно настроить удаленный Syslog-сервер и порт для соединения.
20
vicfg-user  
да
да
нет
Управляет списком локальных пользователей ESXi.
21
vicfg-vmknic  
да
да
да
esxcfg-vmknic  
Управляет виртуальными адаптерами хоста ESX / ESXi (VMkernel NICs).
22
vicfg-volume  
да
да
да
esxcfg-volume
Переподписка (resignaturing) томов VMFS, монтирование томов VMFS опознающихся как снапшоты (snapshots).
23
vicfg-vswitch  
да
да
да
esxcfg-vswitch  
Добавление, удаление и изменение настроек виртуальных коммутаторов (vSwitch)
24
vifs  
да
да
нет
Операции с файлами (получение и Upload)
25
vihostupdate 
да
да
нет
Управляет обновлениями на хосте ESXi.
26
vihostupdate35 
нет
нет
нет
Управляет обновлениями на хосте ESXi 3.5.
27
vmkfstools  
да
да
нет
vmkfstools
Управляет виртуальными дисками, файловыми системами, томами и устройствами.
28
vmware-cmd  
да
да
да
vmware-cmd
Управление состоянием ВМ удаленно (включение, выключение, снапшоты)


Таги: VMware, vSphere, CLI, RCLI, vMA, ESX, vCenter, ESXi

 
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Microsoft Veeam Cloud StarWind VMachines Offtopic NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Enterprise Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V Private AI vSAN Explore Workstation vDefend Backup Data Protection ONE Tanzu VCF AI Intel VCP V2V HCX Aria NSX DPU Update EUC Avi Broadcom Community Skyline Host Client Chargeback Horizon Labs SASE Workspace ONE Networking Ransomware Tools Performance Lifecycle Network AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile VMUG SRM ARM HCI Converter Photon OS Operations VEBA App Volumes Certification VMConAWS Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey Kubernetes vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics NVMe HCIBench SureBackup Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V KB VirtualCenter NFS ThinPrint SIOC Memory Troubleshooting Stretched Bugs Director ESA Android Python Upgrade ML Hub Guardrails CLI VCPP Driver Foundation HPC Orchestrator Optimization SVMotion Diagram Ports Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2024, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge