Компания VMware объявила о выпуске технологического превью продукта Application Transformer for VMware Tanzu, который позволяет еще больше сократить разрыв между виртуализацией на уровне контейнеров и инфраструктурой серверной виртуализации.
Теперь с помощью этого решения можно упростить имплементацию стратегии 5R для модернизации корпоративных приложений: rehost, replatform, refactor, retain, retire. Начать можно с концепции replatform, которая предполагает миграцию приложений в корпоративную среду контейнеров, которая делает прозрачным и более гибким процесс развертывания и эксплуатации различных сервисов.
Application Transformer for Tanzu предназначен для решения следующих задач, касающихся legacy-приложений:
Discovery – утилита сканирует виртуальные машины, собирая структуру директорий, пулов ресурсов, имена приложений и процессов. Далее на основе этого выстраивается топология приложений датацентра.
Analysis – на базе собранной детальной информации, с учетом имеющихся бизнес-требований, администраторы и менеджеры датацентра решают, каким приложениям надо мигрировать в контейнеры и в каком порядке.
Transform – Application Transformer for Tanzu создает OCI-compliant образы контейнеров для Linux-based приложений посредством простого мастера, также в процессе поддерживаются такие сервисы, как Oracle WebLogic Server и Apache Tomcat. Выходные артефакты Kubernetes, такие как YAML-файлы, позволяют пользователям быстро развертывать образы контейнеров в кластерах VMware Tanzu Kubernetes.
Application Transformer for Tanzu работает без агентов поддерживает множество типов приложений (в базе есть более 200 сигнатур) и глубокий анализ содержимого ВМ. В список входят не только большие корпоративные приложения, такие как WebLogic и Tomcat, но и разнообразные generic Java-приложения. Утилита может получить имя приложения, состав его процессов, размещение на диске и другое.
Сам продукт использует VMware vCenter API для получения доступа к ВМ на платформе vSphere или VMware Cloud on AWS. За счет интеграции с решением VMware vRealize Network Insight, Application Transformer for Tanzu может использовать диаграмму потоков vRealize Network Insight для автоматического создания end-to-end топологий, что важно для визуализации взаимосвязей приложений.
Далее, если администратор принял решение о переводе приложения в кластер Kubernetes, Application Transformer for Tanzu предоставляет процесс на базе мастера, который автоматизирует задачи контейнеризации, такие как создание docker-файлов, генерацию образов контейнеров, сохранение их в нужный репозиторий, а также создание YAML-манифестов Kubernetes для приложений на базе Linux. Затем, если нужно развернуть приложение, можно использовать команду Kubectl для пуша OCI-образа на платформу VMware Tanzu Kubernetes.
Вот какие основные премущества дает Application Transformer for Tanzu:
Holistic view – создание визуальных топологий через CLI/API, используя метаданные компонентов приложений и проанализированные связи между ними.
Efficiency through automation – уменьшение ручных операций за счет глубокой интроспекции в ВМ, создания инвентаря объектов и маппинга ВМ в рамках топологий.
Flexibility – Application Transformer for Tanzu позволяет пользователям выбрать действия в рамках R-фреймворка на базе скоринга приложений.
Increased agility and speed to market – Application Transformer for Tanzu уменьшает время и уменьшает затраченные ресурсы на модернизацию старых приложений, которых в больших компаниях довольно много. Также утилита уменьшает и время на ввод в эксплуатацию старых и новых приложений в унифицированную среду контейнеров.
Более подробно о VMware Application Transformer for Tanzu можно почитать на странице продукта. Application Transformer for VMware Tanzu доступен как для облачной инфраструктуры VMware Cloud on AWS, так и для онпремизной VMware vSphere. Для системных интеграторов будет доступен бесплатный NFR-ключ.
Летом прошлого года мы писали о продукте VMware Project Antrea версии 0.9, который позволяет пользователям кластеров Kubernetes на платформе VMware управлять сетевым взаимодействием контейнеров на базе политик.
На базе этой платформы построен коммерческий продукт VMware Container Networking with Antrea - решение для публичных и частных облаков, использующих Open vSwitch, которое позволяет управлять сетевым взаимодействием на нескольких уровнях с предоставлением поддержки со стороны VMware.
Финальный релиз Antrea первой версии добавляет возможности по улучшению управляемости сетевым окружением Kubernetes-native networking, а также улучшает функциональность политик за счет еще большей гранулярности, консистентности и контроля со стороны пользователя. Последний релиз включает в себя политики для исходящего трафика, политики безопасности на уровне кластера и расширенную поддержку экосистемы, в частности, решений Prometheus, ELK и Octant:
Сервер Prometheus может предоставлять информацию в Antrea Controller и Agent.
Плагин Octant может мониторить компоненты и выполнять трассировку пакетов в графическом интерфейсе.
Стек ELK может предоставлять визуализацию карт потоков (flow maps) для сети кластера.
Давайте посмотрим, что именно нового появилось в Antrea 1.0:
1. Политики безопасности на уровне кластера и ярусы политик (Policy Tiering)
Antrea позволяет назначать политики безопасности на уровне кластеров как ИТ-операторам и администраторам, так и разработчикам для контроля сетевого взаимодействия инфраструктуры контейнеров. Помимо Kubernetes Network Policies доступны также политики Antrea Cluster Network Policy (ACNP) и Antrea Network Policy (ANP) CRDs, которые включены по умолчанию. Политики ACNP определяются на уровне кластера, а ANP - на уровне неймспейсов, чтобы дополнить стандартные политики Kubernetes.
Политики можно группировать в ярусы (Tiers) с разным приоритетом, указывая разные эндпоинты для применения правил. Разные политики можно применять к разным группам кластеров, а логгирование трафика и статистики можно отслеживать на уровне политик. Также есть действие Reject для срабатывания политики и диагностика исполнения политики.
Ярусы политик Antrea могут быть представлены так:
2. Политики для исходящего трафика
Средствами Project Antrea вы можете контролировать трафик исходящих узлов (Egress Nodes) и SNAT IP для Pod Egress Traffic (от Pod ко внешней сети).
3. Функции мониторинга и диагностики
Antrea мониторит потоки в модуле Linux conntrack, который предоставляет множество данных на уровнях Pod-to-Pod, Pod-to-Service и Pod-to-External, где можно найти ассоциированные статистики, такие как data throughput, packet throughput и packet counts.
Также есть и вспомогательная информация, такая как имена узлов, имена Pod, неймспейсы и прочее, что добавляется в записи о характеристиках потоков. С помощью Flow Aggregator потоки можно визуализовать на базе анализа данных об источнике и назначении.
Flow Aggregator и Flow Exporter используют IPFix, позволяя потокам приходить в любое решение с поддержкой IPFix. Вот так выглядит визуализация потоков, собранных через Antrea:
Antrea поддерживает использование утилиты Traceflow для диагностики сети. Она формирует запросы на трассировку трафика через OVS-потоки, которые генерируются агентом Antrea. Также в реальном времени можно трассировать трафик между Pods. Также Antrea можно интегрировать с плагином Octant, чтобы увидеть результаты Traceflow на графе:
4. Интеграция со сторонними решениями
Antrea поддерживает работу воркер-узлов на базе Windows путем настройки оверлей-сети для пересылки пакетов между узлами. За счет использования режима transparent mode в Host Networking Service (HNS) контейнеры напрямую соединяются с физической сетью через внешний коммутатор Hyper-V. Также в Antrea 1.0 добавлена поддержка Traceflow для Windows.
Демо использования Traceflow для политик узлов Linux и Windows можно посмотреть ниже:
Также Antrea можно запускать в кластере AWS EKS, кластере Azure AKS и кластере Google GKE. Помимо этого, Docker-образы Antrea теперь доступны и для архитектур arm/v7 и arm64.
5. Режимы Overlay Encap и шифрование
Antrea поддерживает разные режимы Режимы Overlay Encapsulation: GRE, GENEVE, VXLAN и STT. Режим Encap Mode включен по умолчанию - трафик Pod'ов между узлами инкапсулируется и посылается через туннель выбранного типа. Если этого не требуется, то есть режим noEncap mode. Есть также и режим Hybrid mode, в котором трафик Pod не инкапсулируется, если узлы источника и назначения находятся в одной подсети.
На сайте проекта VMware Labs появилась новая штука - утилита Desktop Container Tools. Она позволяет использовать графический интерфейс управления для vctl (работает как сниппет для VMware Fusion) для контейнерного движка на macOS, где работают кластеры Kubernetes.
Возможности Desktop Container Tools:
Простое управление движком контейнеров vctl через графический интерфейс и тач-бар. Можно настроить виртуальные машины для использования контейнеров без интерфейса командной строки.
Поддержка нескольких языков (пока только английский и китайский).
Полностью бесплатная утилита и, к тому же, легковесная (36 килобайт).
Скачать Desktop Container Tools можно по этой ссылке. Работает на Intel-маках с macOS Catalina или Big Sur. Рекомендуется использовать VMware Fusion 12.1.0 с поддержкой Kubernetes.
На днях состоялся релиз интересного продукта Project Antrea 0.9.1, который позволяет пользователям кластеров Kubernetes на платформе VMware управлять сетевым взаимодействием контейнеров на базе политик.
Ну а VMware Container Networking with Antrea - это новый коммерческий продукт на базе Project Antrea, представляющий собой решение для публичных и частных облаков, использующих Open vSwitch, которое позволяет управлять сетевым взаимодействием на нескольких уровнях с предоставлением поддержки со стороны VMware. Он реализует следующие функции в рамках среды Kubernetes:
1. Исполнение политик для Managed Kubernetes Services
Antrea добавляет официальную поддержку служб AWS EKS. Кроме того, Antrea улучшает поддержку сервисов Azure AKS с использованием CNI chaining и режимом трафика "networkPolicyOnly" с соблюдением политик при использовании нативного соединения.
Также решение Antrea имеет поддержку Google GKE и может быть использовано как primary CNI в Amazon и Azure для решения проблемы исчерпания IP-адресов в окружении с большим количеством небольших нагрузок в контейнерах.
2. Политики ClusterNetworkPolicy
В отличие от политик Kubernetes network policies, которые привязаны к пространствам имен, политики ClusterNetworkPolicy позволяют администраторам определять их в рамках нескольких неймспейсов. Эти политики можно упорядочивать и добавлять к ним различные действия, что упрощает применение политик как к кластеру в целом, так и к его частям.
3. Разделение политик на уровни
В Antrea есть глобальные политики (а в будущем будут нативные политики уровня неймспейсов), которые можно сгруппировать в ярус политик (policy tier). Сейчас есть 5 таких статических ярусов: Emergency, SecurityOps, NetworkOps, Platform и Application.
В будущих релизах пользователи смогут создавать кастомные ярусы и задавать порядок их подчинения. Ролевая модель Kubernetes RBAC обеспечивает контроль создания политик пользователями. Администраторы информационной безопасности могут делегировать права по созданию политик разработчикам, при этом глобальные политики остаются на контроле администраторов ИБ.
4. Улучшения мониторинга и диагностики
Antrea предоставляет набор диагностических и операционных метрик за счет средств мониторинга Prometheus и предоставляет нативные определения CustomResourceDefinitions (CRDs), чтобы наблюдать и диагностировать состояния компонентов инфраструктуры Antrea и потоков данных.
Например, Traceflow позволяет операторам проводить инъекции пакетов в данные контейнеров, чтобы убеждаться в исполнении сетевых политик, маршрутизации и эффектов инкапсуляции для трафика между сайтами. Также утилита antctl может генерировать саппорт-бандлы для диагностики проблем.
5. Интеграция NSX-T и VMware Container Networking
Решение VMware NSX-T - это полноценная платформа для сетевой защиты приложений в контейнерах, виртуальных машин и невиртуализованных нагрузок. VMware Container Networking with Antrea работает в тандеме с NSX-T, чтобы обеспечить бесшовную сетевую связность и контроль исполнения сетевых политик в кластерах Kubernetes в виртуальном датацентре.
Более подробно о решении VMware Container Networking with Antrea рассказано на этой странице.
На сайте проекта VMware Labs появилась очередная полезность - контейнер Docker, который называется VMware Container For Folding@Home. Надо сказать, что VMware официально не поддерживает приложение Folding@Home, поэтому утилита работает как на ваш волонтерский страх и риск.
Folding@Home — это проект распределённых вычислений для проведения компьютерного моделирования свёртывания молекул белка. В частности, вступив в этот проект, вы вносите вклад и в поиск эффективных лекарств для борьбы с пандемией COVID-19.
С помощью данного средства можно запустить клиент решения folding at home как в рамках отдельного контейнера Docker, так и в кластере Kubernetes. Также опционально можно включить или отключить поддержку GPU для клиента.
Контейнер сконфигурирован на автоматическое подключение к публичной команде Team VMware ID 52737. По ссылке http://vmwa.re/fah можно получить коллективную и индивидуальную статистику по использованию контейнера.
Скачать клиент VMware Container For Folding@Home можно по этой ссылке.
Недавно мы писали о том, что компания VMware выпустила новую превью-версию настольной платформы виртуализации VMware Workstation Tech Preview 20H1. Одновременно с этим было выпущено превью платформы и для Mac OS VMware Fusion Tech Preview 20H1, которое получило новую функциональность работы с контейнерами с кодовым названием Project Nautilus.
Подход к бета-версиям со стороны команд разработки Fusion и Workstation теперь несколько изменится - они будут выпускать обновления к Tech Preview в течение года, пока в итоге не получится финальный релиз. Обычно на это уходит несколько месяцев. Для Fusion сейчас это релиз TP20H1.
Также бинарники, документация и ассеты переезжают на GitHub, где теперь есть удобный портал для скачивания продукта и получения дополнительной информации.
Давайте взглянем на основные новые возможности Fusion 2020 года:
Наконец-то была реализована функциональность Project Nautilus, которая позволяет запускать любые OCI-compliant контейнеры на маке. Сейчас работа с контейнерами Docker в Mac OS часто идет через боль, поэтому такое решение очень пригодится пользователям. Эта функциональность будет доступна бесплатно для пользователей VMware Fusion. Для управления контейнерами будет использоваться новая утилита vctl, которая использует наработки проектов runC, containerD, Cri-O и Kubernetes (более подробно описано здесь).
Для реализации среды управления контейнерами используется подход, аналогичный тому, что применен в Project Pacific - для запуска контейнеров в качестве гостевой ОС используется ультралегковесная Linux-система (PodVM, он же Native Pod), которая почти не дает накладных расходов на виртуализацию. Каждая PodVM с одним контейнером внутри получает свой IP-адрес от кастомной сети VMnet. При это для такой машины можно использовать bridged networking, абсолютно прозрачно работая с контейнером. Можно отдельно настроить и port forwarding, если это вам необходимо.
Вторая возможность Fusion - это человеческая реализация работы с USB-устройствами хоста. Раньше была проблема с тем, что при установке продукта запрос разрешений для USB-устройств происходил позже завершения установки, что приводило к их неработоспособности (надо было переустанавливать продукт). Также подключение и отключение USB-девайсов часто глючило. Теперь же Fusion интегрирован в нативный USB-стек Apple на уровне ядра, что должно привести к тому, что работа Fusion с хостовыми устройствами USB будет стабильнее и быстрее. Скоро в специальном репозитории должны появиться материалы на эту тему.
Скачать VMware Fusion Tech Preview 20H1 по прямой ссылке можно отсюда. Портал со всеми материалами находится тут.
Project Pacific был одним из главных анонсов конференции VMworld в этом году, и VMware обращала на него особенное внимание. Это неудивительно - ведь VMware делает поддержку Kubernetes не для галочки. Тут дело в том, что многие пользователи планируют развертывание инфраструктуры контейнеризованных приложений на физической инфраструктуре - в этом случае не надо нести издержки на гипервизор и лицензии, а сами приложения в контейнерах работают быстро и имеют встроенные средства обеспечения доступности.
Расскажем еще немного о новостях с VMworld 2019, хотя наша серия получается несколько длинновата. Но обо всем образовательном и бесплатном грех не рассказать. Компания VMware объявила о доступности ресурса Kubernetes Academy, где ИТ-профессионалы, занимающиеся развертыванием и администрированием контейнеризованных приложений, могут узнать о том, как это делать в рамках интегрированной виртуальной инфраструктуры VMware vSphere и дополнительных средств управления единой средой виртуальных машин и контейнеров.
Напомним, что VMware делает очень много всего для интеграции с инфраструктурой контейнеров, например, недавно было рассказано о VMware Tanzu, единой операционной среде для кластеров Kubernetes, которая позволит контролировать все аспекты жизненного цикла приложений.
Бесплатные курсы Kubernetes Academy состоят из серии видеоуроков, которые длятся 5-7 минут и дают возможность усвоить какой-то законченный блок материала. Это позволяет администраторам лучше планировать свое время для прохождения курсов. Курсы разделены по уровням сложности от beginner до intermediate, скоро появится и уровень advanced.
Сейчас доступны следующие курсы:
Containers 101 - дает базовые знания о контейнерах приложений.
Kubernetes 101 - этот курс рассказывает об оркестрации контейнеров с помощью инструментов Kubernetes.
Kubernetes in Depth - здесь уже раскрываются дополнительные моменты, например, архитектура платформы, типы объектов и т.п.
Interacting with Kubernetes - здесь уже раскрываются практические аспекты работы с кластерами Kubernetes в рамках использования средств kubectl и ingress.
How to Prepare for the CKA Exam - тут обсуждают практические моменты для подготовки к сдаче экзаменов на сертификаты CKA и CKAD. Здесь также полезно будет узнать об основных ресурсах и документах для подготовки, а также как формируются баллы при прохождении экзамена. Кроме того, в этом курсе вы научитесь работать с различными сложными операциями с Kubernetes в командной строке.
Как вы знаете, недавно обновленная платформа виртуализации VMware vSphere 6.7 Update 3 стала доступной для загрузки. Одновременно с этим компания VMware сделала доступной для скачивания и развертывания систему отказоустойчивых кластеров хранилищ VMware vSAN 6.7 Update 3. В обоих этих решениях появилась встроенная поддержка технологии Cloud Native Storage (CNS), о которой мы сегодня расскажем.
Итак, Cloud Native Storage (CNS) - это функциональность VMware vSphere и платформы оркестрации Kubernetes (K8s), которая позволяет по запросу развертывать и обслуживать хранилища для виртуальных машин, содержащих внутри себя контейнеры. По-сути, это платформа для управления жизненным циклом хранения для контейнеризованных приложений.
При этом для такого управления сделано специальное представление в интерфейсе vCenter, которое вы видите на картинке выше.
Основная задача CNS - это обеспечивать развертывание, мониторинг и управление хранилищами для Cloud Native Applications (CNA), то есть современных приложений, исполняемых в контейнерах Docker под управлением Kubernetes (но, кстати, в будущем возможна поддержка и таких платформ, как Mesos и Docker Swarm).
Архитектура CNS реализована двумя компонентами:
Интерфейс Container Storage Interface (CSI), представляющий собой плагин для K8s.
Консоль управления CNS Control Plane на сервере vCenter, доступная через vSphere Client.
Через консоль управления CNS администратор может получить представление об имеющихся хранилищах в среде K8s (и видеть маппинги хранилищ на виртуальные диски VMDK), а также управлять ими в большом масштабе, что очень сложно при оперировании на уровне отдельных контейнеров, так как их могут быть сотни на одном хосте ESXi.
Кстати, про оперирование CNS есть интересное видео от VMware:
Надо понимать, что технология CNS появилась не впервые. Ранее подобные функции реализовывал механизм vSphere Storage for Kubernetes (он же vSphere Cloud Provider, VCP). Проект VCP появился как результат внутреннего хакатона VMware, когда требовалось быстро сделать драйвер для кластеров Kubernetes.
До этого приходилось вручную монтировать хранилища контейнеров на виртуальные диски VMDK, что было крайне неудобно, а при большом количестве контейнеров - практически нереально.
Сейчас архитектура VCP реализуется такими решениями Kubernetes as a Service (KaaS), как VMware PKS, RedHat OpenShift, Google Cloud Anthos и Rancher. Для этой архитектуры было возможно 2 режима развертывания - "in-tree" и "out-of-tree". В первом случае VCP был интегрирован в дистрибутив Kubernetes и развертывался одновременно с ним, а во втором - подразумевал последующую интеграцию после развертывания K8s.
Ввиду того, что обновлять VCP при первом варианте развертывания можно было только одновременно с K8s, вариант "in-tree" был исключен из конфигурации развертывания Kubernetes. VMware использовала эту ситуацию для того, чтобы полностью переписать код VCP (который, скорее всего, был не самым оптимальным еще с хакатона) и получить новую архитектуру - CNS.
Также кстати оказалась и покупка компании Heptio (об этом мы упоминали вот тут) - в итоге VMware интегрировала решение CNS прямо в платформу vSphere, без необходимости что-либо развертывать дополнительно. Мало того, архитектура CNS поддерживает любой оркестратор контейнеров, построенный на базе спецификации CSI.
Таким образом, CNS Control Plane на сервере vCenter брокеризует соединение с плагином (на данный момент только для K8s), который уже взаимодействует на уровне Kubernetes.
Частью решения CNS являются First Class Disks (FCDs), о которых мы рассказывали вот тут. Они были придуманы для того, чтобы управлять сервисами, заключенными в VMDK-диски, но не требующими виртуальных машин для своего постоянного существования. Это очень удобно для контейнеров, так как их можно динамически привязывать и отвязывать, не оставляя после себя "осиротевших" VMDK.
Кроме всего этого, CNS полностью подчиняется политикам Storage Policy-Based Management (SPBM), а это значит, что инфраструктура таких хранилищ отлично согласуется с пространством ярусного хранения VMware vSAN и концепцией K8s StorageClass. Также CNS, конечно же, работает и с классическими хранилищами VMFS и NFS, что позволяет использовать политики SPBM на базе тэгов.
Надо отметить, что технология CNS доступна для всех пользователей VMware vSphere, начиная с издания Standard, поэтому платить отдельно за нее не придется. Ну и в заключение обзорное видео о том, что такое и как работает Cloud Native Storage:
Скачать VMware vSphere 6.7 Update 3 с интегрированной технологией CNS можно по этой ссылке.
Недавно мы писали о выпуске новой версии продукта VMware Enterprise PKS 1.5 (Pivotal Container Service), который предназначен для управления инфраструктурой контейнеров приложений в кластерах Kubernetes. Наш читатель справедливо заметил, что у VMware есть еще один продукт, который позволяет работать с кластерами Kubernetes на платформе vSphere и получать больше информации об этой инфраструктуре - это VMware Octant.
Данное средство, доступное как Open Source проект, позволяет визуализовать кластер Kubernetes на дэшборде с точки зрения пространств имен и объектов, которые они содержат. Также там отображаются связи объектов и ресурсов. В отличие от дэшборда Kubernetes, Octant запускается локально на вашей рабочей станции, что позволяет избежать проблем, связанных с требованиями к безопасности.
Сам дэшборд выглядит следующим образом:
Проект Octant, в первую очередь, имел целью визуализовать ваши рабочие нагрузки в контейнерах кластеров Kubernetes. Это непростая задача, так как приложение может быть связано с сервисом или другим внутренним или внешним объектом - для этого Octant и визуализует взаимосвязи.
В рамках одного Deployment есть как минимум один объект ReplicaSet, который обслуживает как минимум один узел (pod). Octant умеет находить и показывать эти объекты. Узлы (pods) имеют ServiceAccount и могут быть ассоциированы с одним или несколькими сервисными объектами, которые могут принадлежать к одному или нескольким входным (Ingress) объектам. Octant также все это визуализует на дэшборде.
Все это позволяет администраторам корректно понимать устройство архитектуры контейнеризованных приложений, проводить отладку и решать проблемы, понимая в какой точке возможно их возникновение.
Для управления инфраструктурой Kubernetes существует множество различных утилит и средств (например, kubectl и kustomize), выполняющих схожие задачи - создание и управление объектами, предоставление информации о компонентах, работа с инструментами непрерывной интеграции (continuous integration) и утилитами для доставки приложений пользователям.
Octant предоставляет единую точку входа в дэшборд через бразуер, а архитектура плагинов позволяет расширять его функционал. Таким образом вы сможете интегрировать графики использования у структуру узлов (pods), добавить информацию по точкам входа и подсветить объекты, которые недавно были добавлены через механизм continuous delivery.
Octant - это не просто средство визуализации. Имея с помощью плагинов доступ к объектам кластера, он может управлять ими, даже если они не отображены на дэшбордах.
Одно из преимуществ Kubernetes - это кастомные определения ресурсов (custom resource definitions), которые расширяют стандартный API. Octant умеет визуализовывать эти определения в реальном времени и отображать кастомные колонки в свойствах. Octant использует встроенные схемы (embedded schemas), чтобы определить, правильно ли настроены кастомные ресурсы. Возможность видеть кастомные ресурсы дает администратору более полную картину того, что именно работает в кластерах.
Используя Octant plugin API, пользователи могут создавать представления для кастомных ресурсов точно так же, как и для встроенных объектов. Также можно и создавать визуальные редакторы для таких ресурсов.
Сам проект Octant доступен для скачивания с репозитория на GitHub. Также для разработчиков есть несколько полезных ресурсов:
На этой неделе, перед предстоящей конференцией VMworld 2019, компания VMware сделала пару интересных анонсов, а именно: было объявлено о новой версии платформы VMware vSphere 6.7 Update 3 и обновлении платформы создания отказоустойчивых кластеров хранилищ VMware vSAN 6.7 Update 3.
Одновременно с этим было рассказано еще об одном обновлении решения для управления инфраструктурой контейнеров приложений VMware Enterprise PKS 1.5 (Pivotal Container Service). Новый релиз построен на базе ПО Kubernetes 1.14, предназначенного для развертывания и обслуживания контейнерных сред. Напомним, что ранее мы писали о возможностях PKS версии 1.3 для облака Microsoft Azure.
Давайте посмотрим, что нового появилось в PKS 1.5:
1. Поддержка Windows-сред для контейнеров.
Пока данная возможность доступна в бета-режиме. Таким образом, теперь на платформе PKS можно одновременно управлять работой контейнеров на базе Linux и Windows. Это позволит разработчикам использовать единый стек средств разработки и фреймворки, а администраторам единые утилиты для управления контейнерами.
Более подробно о бета-программе по работе с Windows-контейнерами на платформе Kubernetes под управлением PKS можно почитать вот тут.
2. Увеличение гибкости, безопасности и прозрачности для операций с кластерами.
Тут появилось 3 значимых нововведения:
Появились новые функции по управлению кластерами Kubernetes - поддержка апгрейда отдельных кластеров, дополнительные параметры конфигурации балансировщика, а также поддержка аутентификации и авторизации на базе SAML.
Поддержка приоритизации правил фаервола с помощью секций на уровне VMware NSX-T Distributed Firewall.
Улучшилась обзорность кластеров - появились новые метрики, было добавлено больше информации о статусе и здоровье кластеров, разработчикам была предоставлена большая видимость в рамках пространств имен.
Теперь у решения есть обновленная консоль (пока в бета-режиме), которая предоставляет интуитивно понятный интерфейс при управлении кластерами Kubernetes и их компонентами:
Предыдущая версия решения позволяла выполнять функции развертывания новых кластеров, теперь также доступны и функции апгрейда и накатывания патчей. Кроме того, был упрощен онбординг пользователей - теперь можно добавить их в специальном разделе, и они сразу же получают доступ в соответствии с ролью:
4. Прочие возможности.
Новый PKS 1.5 даст администраторам и некоторые другие новые возможности, такие как постоянный IP балансировщика (это позволит использовать человекопонятные URL), а также поддержку нового релиза Harbor 1.8, где есть новые функции автоматизации интеграций, безопасности, мониторинга и поддержки репликации между реестрами.
Компания VMware на днях объявила о скором выпуске новой версии решения для создания отказоустойчивых кластеров хранилищ - VMware vSAN 6.7 Update 3. Основная тема нововведений - поддержка облачных сред размещения виртуальных машин и работа с контейнеризованными приложениями.
Давайте посмотрим, что именно нового появилось в vSAN 6.7 Update 3:
1. Поддержка контейнеров приложений в облачных средах.
Контейнеры стали одной из главных моделей распространения приложений в облачной среде. Сама технология контейнеризации упрощает развертывание и обслуживание приложений, выделяя их в микросервисы, но все процессы вокруг них становятся сложнее (оркестрация, организация персистентных хранилищ, сетевая коммуникация).
vSAN 6.7 Update 3 имеет встроенные инструменты по организации постоянных хранилищ для контейнеров приложений, в том числе в облачных средах. Технология vSAN cloud native storage поддерживает все ключевые API-вызовы к хранилищам внутри кластеров Kubernetes через драйвер Container Storage Interface (CSI). Теперь разработчики смогут применять политики хранилищ SPBM при развертывании новых pods и монтировании томов с постоянными хранилищами, точно так же, как они делают это с виртуальными дисками машин.
Если же вы используете тома Virtual Volumes на платформе vSAN, то получите еще больше преимуществ:
Развертывание хранилищ контейнеров через API параллельно с самими контейнерами.
Возможность портирования приложений между частным и публичным облаком в рамках гибридной среды с поддержкой одного набора операций и инструментов.
2. Нативная гибридная среда инфраструктуры vSAN.
Сейчас гибридные среды становятся очень распространенной моделью доставки ИТ-сервисов, так как именно сочетание частного и публичного облаков дает самый большой эффект с точки зрения масштабирования и обеспечения показателей качества предоставления услуг. При этом администраторы хотят, чтобы приложения Docker также имели возможность бесшовно перемещаться между публичным и частным облаками со всеми их хранилищами.
Теперь vSAN предоставит интеграцию с сотнями облачных провайдеров, включая "большую четверку" Amazon, Microsoft, Google и IBM, которая позволит использовать тот же набор средств и утилит vSAN для хранилищ контейнеров в облаке, что и в частной инфраструктуре.
3. Унифицированные средства управления vSAN для контейнеров и виртуальных машин.
В одной виртуальной машине может быть много контейнеров приложений, вплоть до нескольких сотен. При возникновении проблем с хранилищем для одного из контейнеров становится очень и очень сложно понять ее причину. Теперь же vSAN предоставляет администраторам гранулярную видимость внутри ВМ до уровня контейнеров, что позволяет мониторить состояние отдельных хранилищ контейнеров на уровне томов для каждого из них.
В рамках единого пространства хранения можно анализировать использование емкости виртуальными машинами и контейнерами:
Все это позволит командам DevOps быстрее решать проблемы с хранилищами контейнеризованных приложений через стандартную консоль vSphere Client.
4. Интеллектуальные средства управления вводом-выводом.
Теперь vSAN еще более эффективно работает при обмене данными между буффером на чтение (write buffer) и пространством хранения (capacity tier). Особенно заметна эта оптимизация для последовательных операций записи (что очень актуально для процессов ресинхронизации и восстановления данных).
Адаптивная ресинхронизация теперь идет в рамках множества параллельных потоков, что увеличивает ее эффективность:
Также в vSAN 6.7 U3 появились дополнительные метрики, касающиеся использования CPU хост-серверов ESXi (особенно актуально для дедупликации, шифрования и компрессии). Кроме того, появилась новая команда vsantop, которая показывает эти и многие другие полезные метрики:
5. Прочие улучшения.
Тут собраны различные улучшения vSAN 6.7 Update 3:
Механизмы управления емкостью были улучшены таким образом, чтобы запускать операцию ресинхронизации на базе доступной емкости. Если какая-то дисковая группа заполнена, то операции ресинхронизации ставятся на паузу, чтобы предотвратить повреждения хранилищ.
Администратор может выбрать опцию автоматической или ручной ребалансировки данных в кластере. Така как каждая инфраструктура индивидуальна, доступна тонкая настройка механизма ребалансировки, в зависимости от потребностей администратора.
Теперь применения политик SPBM идут пачками, что существенно ускоряет производительность при изменении структуры политик.
Выполнение обслуживания или изменении конфигурации во время операций ресинхронизации может привести к неправильному завершению этого процесса, поэтому в SAN 6.7 U3 клиент vSphere Client лучше понимает, когда выполняется этот процесс, и не дает мешать ему.
Механизм pre-check симуляции, который позволяет администратору понять, что произойдет в случае изменения конфигурации кластера или его обслуживания.
При изменении конфигурации шифрования, компрессии или дедупликации требуется изменения формата дисков (Disk format changes, DFC). Если для этого процесса недостаточно ресурсов, то специальная проверка даст знать об этом еще до выполнения операции.
vSAN теперь сам предлагает обновиться на новый мажорный релиз или накатить обновления.
Ранее vSAN требовал, чтобы vCenter был той же версии или более новый, теперь же поддержка прошлых версий vCenter стала более гибкой.
Теперь в vSAN 6.7 U3 проще включить vSAN Support Insight и взаимодействовать с поддержкой VMware.
iSCSI LUN, презентованные из vSAN, теперь можно ресайзить без необходимости переводить том в оффлайн.
SCSI-3 persistent reservations (SCSI-3 PR) теперь дают возможность нативной поддержки кластеров Windows Server Failover Clusters (WSFC), требующих общего диска.
Издание vSAN Enterprise Plus
Да, теперь VMware, как и для многих других продуктов, вводит издание Enterprise Plus для платформы vSAN. Эта лицензия будет включать в себя комбинацию продукта vSAN Enterprise и средства управления облачной средой vRealize Operations Advanced.
Все это даст следующую функциональность в связке двух решений:
Географически растянутые кластеры с возможностями локальной защиты и синхронной репликацией.
Средства нативного шифрования vSAN Encryption с поддержкой дедупликации и компрессии. В качестве провайдеров KMIP можно использовать такие решения, как CloudLink, Hytrust, SafeNet, Thales и Vormetric.
Постоянная оптимизация производительности с возможностями предиктивной аналитики и проактивного планирования.
Возможность интеллектуального решения проблем и продвинутый траблшутинг на базе аналитики метрик и логов с использованием средств обзора приложений на уровне всей инфраструктуры.
Более подробно о VMware vSAN 6.7 Update 3 мы узнаем на предстоящей конференции VMworld 2019, которая пройдет в конце августа в Сан-Франциско.
Больше пяти лет назад мы писали про проект vCenter Server Simulator 2.0 (VCSIM), который позволял протестировать основные интерфейсы VMware vCenter без необходимости его реального развертывания (а значит и без лицензии). Проблема в том, что он был выпущен для VMware vSphere и vCenter версий 5.5 и с тех пор не обновлялся.
Зато есть аналог старому VCSIM - новый проект govcsim, написанный на языке Go (Golang). Он точно так же умеет предоставлять API-ответы на вызовы к vCenter Server и ESXi.
Несмотря на то, что этот симулятор написан на Go, он позволяет вам работать с vCenter посредством любого языка и интерфейса, умеющего общаться через API (в том числе, PowerShell). То есть, вы можете соединиться через PowerCLI к VCSIM Docker Container и работать с ним как с сервером vCenter.
Сам контейнер nimmis/vcsim можно скачать отсюда. Pull-команда для него:
If ($PSVersionTable.PSVersion.Major -ge 6) {
Test-Connection $Server -TCPPort 443
}
Connect-VIServer -Server $Server -Port 443 -User u -Password p
# Did it work?
Get-VM
# Or Get-VMHost, or Get-Datastore, etc.
Этот код делает следующее:
Запускает docker-контейнер VCSIM локально (если у вас его нет, то он будет загружен).
На Windows-системе получает IP-адрес адаптера DockerNAT.
После запуска контейнера тестирует, что порт 443 отвечает.
Использует модуль VMware.PowerCLI интерфейса PowerShell для соединения с vCenter Simulator.
Симулятор на данный момент поддерживает не все множество API-методов (смотрите документацию). Вот так, например, можно вывести список всех поддерживаемых методов и типов:
$About = Invoke-RestMethod -Uri "https://$($Server):443/about" -Method Get
$About.Methods
$About.Types
Например, вы можете использовать PowerOffVM_Task, PowerOnMultiVM_Task и PowerOnVM_Task. Из PowerCLI попробуйте также протестировать командлеты Stop-VM и Start-VM. Ну а дальше изучайте документацию к библиотеке govmomi.
Недавно компания VMware объявила о выпуске обновленной версии решения VMware PKS 1.3 (Pivotal Container Service), предназначенного для управления гибридными средами Kubernetes в онпремизных и публичных облаках. Напомним, что об анонсах на VMworld Europe 2018, касающихся этого продукта, мы писали вот тут.
Тогда было объявлено о покупке компании Heptio, которую основали создатели Kubernetes. Она предоставляет набор продуктов и профессиональных сервисов для управления контейнерами Kubernetes в онпремизных, публичных и гибридных облачных средах. Помимо управления контейнерами, решения Heptio предоставляют такие сервисы, как оркестрация приложений, поддержка жизненного цикла (развертывание, хэлсчек) и обеспечение доступности (снапшоты, резервное копирование).
Теперь кое-что из этого было добавлено в VMware PKS, который стал поддерживать облачную среду Microsoft Azure. Кроме того, в продукте были улучшены функции контроля сетевого взаимодействия, безопасности и управления.
Давайте посмотрим, что нового появилось в PKS 1.3:
1. Поддержка публичного облака Microsoft Azure.
Ранее PKS поддерживал облачные среды VMware vSphere, Google Cloud Platform и Amazon EC2. Теперь он работает и в Azure:
PKS позволяет самостоятельно развернуть кластеры Kubernetes в облаке (или сразу нескольких облаках) и получить все инструменты для ежедневной эксплуатации решения.
2. Улучшения гибкости и средств настройки сетевой среды и инфраструктуры безопасности.
Теперь сетевые профили кластеров, которые появились еще в версии 1.2, получили еще больше параметров настройки.
Поддержка нескольких Tier 0 маршрутизаторов для лучшей изоляции контейнерных сред. Один экземпляр VMware NSX-T может обслуживать несколько Tier 0 маршрутизаторов, что дает не только функции безопасности, но и возможности настройки отдельных диапазонов IP для каждого роутера и его клиентов.
Маршрутизируемые IP-адреса, назначаемые группам узлов (Pods), что позволяет обеспечить их прозрачную коммуникацию с внешним миром (а также достучаться к ним из внешнего мира). Если необходимо, можно использовать и NAT-схему. Более подробно об этом написано здесь.
Для групп Pods можно перекрыть глобальные настройки диапазона IP-адресов и размера подсети, задав их для отдельных групп. Это дает больше гибкости в плане использования глобального диапазона адресов.
Поддержка больших (large) балансировщиков в дополнение к small и medium. Это увеличивает число предоставляемых сервисов, число групп на бэкенде в расчете на сервис, а также количество транзакций в секунду на сервис.
Лучшая изоляция окружений за счет размещения нескольких VMware PKS Control Planes в рамках одного экземпляра NSX-T. Каждый управляющий объект VMware PKS control plane можно разместить на выделенном маршрутизаторе NSX-T Tier 0. Это позволяет лучше разделить окружения и, например, обновлять тестовую среду независимо от производственной, работая с двумя экземплярами PKS.
3. Улучшенные операции управления.
Здесь произошли следующие улучшения:
Средства резервного копирования и восстановления кластеров Kubernetes. Теперь, помимо бэкапа средств управления Control Planes, появилась возможность бэкапа и stateless-нагрузок в контейнерах средствами тулсета BOSH Backup and Restore (BBR).
Возможность проведения смоук-тестов. С помощью PKS 1.3 возможно создание специализированной тестовой среды, которую можно использовать для проверки апгрейда кластера, чтобы убедиться, что на производственной среде апгрейд пройдет нормально. После окончания теста тестовый кластер удаляется, после чего можно спокойно апгрейдить продакшен.
4. Поддержка Kubernetes 1.12 и другие возможности.
VMware PKS 1.3 поддерживает все стабильные физи релиза Kubernetes 1.12. Со стороны VMware они прошли тесты Cloud Native Computing Foundation (CNCF) Kubernetes conformance tests.
Также в рамках одной группы контейнеры могут иметь общие тома. Это может пригодиться, например, для общей базы данных нескольких приложений в разных контейнерах.
Кроме того, компоненты NSX-T и другие управляющие элементы, такие как VMware vCenter, можно разместить за HTTP proxy, требующим аутентификации. Ну и VMware PKS 1.3 включает решение Harbor 1.7 с новыми возможностями, такими как управление диаграммами Helm, улучшенная поддержка LDAP, репликация образов и миграции базы данных.
Более подробно о VMware PKS 1.3 написано по этой ссылке. Также больше подробностей об обновлении можно узнать тут, а вот тут можно пройти практическую лабораторную работу по решению PKS.
Квоты хранилищ позволяют администратору vSphere задавать лимиты хранения, которые доступны объектам Docker Endpoint, с помощью опции --storage-quota для команды vic-machine create. Квоты можно задавать для каждого из объектов Virtual Container Host (VCH), они срабатывают при создании контейнера или загрузке образа. В примере ниже видно, что квота задана на уровне 15 ГБ и при попытке завести еще один контейнер busybox возникает ошибка о превышении квоты по хранилищу.
2. Возможность загрузки альтернативного ядра Linux Kernel.
Photon OS дает массу возможностей для загрузки контейнеров, однако некоторым пользователям требуется собственная конфигурация ядра или вообще другой Linux-дистрибутив. Для них сделана возможность загружать собственное ядро, например, ниже приведена команда для запуска ядра CentOS 6.9, в среде которого будут работать контейнеры:
Помимо поддержки решения VMware NSX-V, которая была введена в прошлых версиях, теперь VIC 1.5 поддерживает и решение NSX-T для обеспечения прозрачной коммуникации между контейнерами, с управлением на основе политик и микросегментацией трафика. Делается это с помощью команды vic-machine create –container-network.
Виртуальные машины с контейнерами могут быть подключены к распределенной портгруппе логического коммутатора NSX, что позволяет использовать выделенное соединение этих ВМ к сети:
4. Поддержка Photon OS.
vSphere Integrated Containers 1.5 поставляется со всеми необходимыми компонентами для работы с Photon OS версии 2.0. Этот релиз предоставляет расширенные возможности обеспечения безопасности, а также поддерживает все новые функции второй версии Photon OS.
Получить больше информации о VIC 1.5 можно на этой странице.
Некоторое время назад мы рассказывали об анонсах конференции VMworld Europe 2018, одним из которых была покупка компании Heptio, предоставляющая решения для управления контейнерами платформы Kubernetes в облаке. Ну а на днях на сайте проекта VMware Labs появился плагин к vSphere Client, который позволяет видеть кластеры и узлы Kubernetes, которые находятся под управлением Pivotal Container Service - vSphere PKS Plugin.
Возможности плагина PKS:
Визуализация, настройка и управление кластерами Kubernetes, развернутыми и управлеяемыми с помощью PKS.
Средства просмотра нижележащей инфраструктуры для контейнеров, включая виртуальные машины, сетевые ресурсы и объекты хранилищ, которые созданы в кластере Kubernetes, развернутом в окружении VMware vSphere.
Единая точка просмотра компонентов кластера Kubernetes, включая узлы и сетевые объекты, такие как роутеры, логические коммутаторы и балансировщики.
Простой интерфейс для доступа к кластеру через kubectl и дэшборд.
Для работы плагина вам понадобятся следующие компоненты:
PKS v1.2.x
NSX-T v2.3
vSphere v6.7.x, v6.5 U1, U2
Загрузить vSphere PKS Plugin можно по этой ссылке (там же вы найдете и документацию).
На днях компания VMware объявила о выпуске обновлений для нескольких своих продуктов. Самое интересное - это выпуск обновленной версии решения vSphere Integrated Containers 1.4, которое позволяет создавать инфраструктуру виртуальных приложений Docker в виртуальных машинах vSphere.
Давайте посмотрим, что нового в VMware VIC 1.4:
Появилась возможность добавлять объекты VCH в группы DRS VM affinity. Подробнее.
Теперь нет обязательного требования по включению DRS в кластере, в котором вы хотите использовать VCH. Подробнее.
Добавлена концепция пространств имен. Теперь администраторы могут разрешать или запрещать некоторые пространства имен при добавлении новых реестров в порталу управления. Подробнее.
Добавлены реестры уровня проекта в VIC Management Portal, который управляется администраторами отдела DevOps. Подробнее.
Режим whitelist для реестров, который позволяет искать и развертывать ресурсы из реестров, добавленных как глобальные или уровня проекта в VIC Management Portal. Подробнее.
Добавлено опциональное представление в виде карточек для страницы внутренних репозиториев, которое позволяет упростить развертывание образов, сохраненных в реестре vSphere Integrated Containers Registry.
Оказывается, у VMware есть интересная утилита с открытым исходным кодом - Weathervane. Это бенчмаркинг-тул, предназначенный для запуска тестов производительности в виртуальных средах VMware vSphere (как онпремизных, так и облачных), с учетом симуляции реальной нагрузки различных приложений. Утилита доступна в открытом репозитории на GitHub.
Weathervane позволяет, например, снять метрики с двух различных окружений или его конфигураций, что позволит выбрать наиболее производительную конфигурацию виртуального окружения и выставить самые эффективные настройки виртуальной среды. Также с помощью Weathervane компания VMware сама делает различные тесты, к примеру, вот документ о производительности контейнеров Docker в виртуальной среде VMware vSphere - "Performance of enterprise web applications in Docker containers on VMware vSphere 6.5".
Weathervane имеет возможности по развертыванию нескольких независимых экземпляров приложения и его отдельных сервисов в контейнерах Docker, запуску различных нагрузок и конфигурации параметров их исполнения для измерения необходимых метрик производительности. То есть, это утилита для бенчмаркинга производительности именно на уровне приложений.
Weathervane состоит из трех основных компонентов:
Приложение (Auction application), которое развертывается в среде тестирования.
Драйвер рабочей нагрузки (Workload driver), который выдает реалистичную нагрузку для приложения с учетом заданных параметров тестирования.
Компонент исполнения (Run harness), который автоматизирует процесс исполнения тестовых запусков приложения и собирает результаты, логи и, собственно, данные о производительности.
Также в составе Weathervane есть Supporting tools, которые включают в себя скрипты для настройки экземпляра операционной системы со всем необходимым для запуска утилиты, создания образов Docker и подготовки приложения для запуска в среде тестирования.
При проведении тестирования вы можете изменять следующие параметры:
Число экземпляров на уровне каждого сервиса. Например, может быть любое число балансировщиков нагрузки, серверов приложений или узлов веб-серверов. Это позволяет создавать конфигурации любого масштаба.
Число ярусов целевой архитектуры. Например, вы можете не использовать некоторые компоненты, такие как балансировщики и веб-сервера, если вам нужно протестировать небольшую по объему среду.
Вариант развертывания среды. Например, Weathervane сейчас поддерживает PostgreSQL и MySQL в качестве транзакционной БД, а также Apache Httpd и Nginx в качестве веб-серверов. Ну и надо помнить, что это open source проект, а значит вы сами можете расширять его.
Конфигурацию сервисов. В настроечном файле можно изменять параметры для каждого из ярусов, которые будут применяться компонентом run harness перед началом каждого прогона бенчмарка.
Для больших инфраструктур и тестовых сред Enterprise-приложений Weathervane предоставляет следующие средства:
Вы можете запускать экземпляры приложения напрямую в ОС, неважно в физической или виртуальной машине, а также в контейнерах Docker (это позволит сравнить эти варианты развертывания между собой по производительности). Как мы писали выше, Weathervane содержит скрипты для создания образов Docker для всех сервисов приложений.
Вы можете задать пользовательскую нагрузку для экземпляров приложения, которая позволит оценить поведение приложения при критических нагрузках, циклических паттернах нагрузки и поведение сервиса в плане эластичности.
Поддерживается изменение числа экземпляров приложения прямо во время исполнения теста, что позволит снять метрики, относящиеся к эластичности сервиса (то есть его способности динамически выделять и освобождать ресурсы при изменении нагрузки). В будущем будет также добавлен мониторинг поведения среды в реальном времени, чтобы оперативно оценивать эластичность и инертность сервиса по отношению к нагрузке.
На проходящей сейчас конференции VMworld Europe 2017 компания VMware представила обновленую версию решения vSphere Integrated Containers 1.2. Напомним, что эта технология позволяет создавать инфраструктуру виртуальных приложений Docker в виртуальных машинах vSphere. О версии vSphere Integrated Containers 1.1 мы писали вот тут, а о том, что это вообще такое - вот тут.
1. Нативные хосты Docker Containers.
vSphere Integrated Containers имеет возможность развернуть нативные хосты контейнеров Docker. Эта фича позволит администраторам развертывать контейнеры на хостах, сохраняя полный контроль над ресурсами датацентра.
2. Улучшения безопасности.
Белые списки (Registry Whitelists) - эот релиз позволяет создавать белые списки реестра образов для хостов Virtual Container Hosts, что позволит разработчикам загружать только правильные образы.
Возможности Image Scanning - теперь можно сканировать реестры на предмет известных уязвимостей. Администраторы также могут запретить образы, которые потенциально уязвимы. Как только образ загружается в реестр, он сразу сканируется.
Функции Content Trust - разработчики и администраторы теперь могут включить эти функции, которые позволяют запускать только корректно подписанные и валидированные образы. Также можно выставить эту возможность для отдельных проектов.
3. Идентификация и управление доступом.
В этом релизе улучшены возможности реестра и портала управления, включая:
Projects – администраторы могут объединить множество пользователей и ресурсов в логическую группу, для которой можно назначить правила авторизации и аутентификации.
Role-Based Access Control (RBAC) – пользователи и репозитории Docker организуются в проекты. Пользователи получают соответствующие разрешения для образов в рамках данного пространства имен.
Active Directory/Lightweight Directory Access Protocol (AD/LDAP) – можно интегрировать существующую инфраструктуру AD/LDAP для управления пользователями.
SSO – интеграция Single Sign On для компонента vSphere Platform Services Controller.
4. Улучшения UX.
Интегрированные портал и средства работы с реестрами - в новом релизе представлен полностью переработанный пользовательский интерфейс, реализующий новые средства интеграции портала и реестра. Теперь они разделяют общие правила авторизации и такие конструкты, как проекты и пользователи.
Новый vSphere Client на базе технологии HTML5 теперь поддерживается, а раздел vSphere Integrated Containers теперь выводит список всех хостов Virtual Container Hosts и контейнерных ВМ в данной инсталляции vSphere.
Улучшения установки и апгрейда - теперь установка стала значительно проще, а после развертывания есть специальный интерфейс для создания демо-хоста, который позволяет администратору исследовать возможности vSphere Integrated Containers.
Конфигурация Virtual Container Host - для поддержки быстрорастущих команд vSphere Integrated Containers 1.2 позволяет переконфигурировать хост VCH после развертывания.
VMware vSphere Integrated Containers 1.2 доступны для загрузки уже сейчас с сайта VMware.
Недавно мы писали об анонсированных новых возможностях продукта для организации кластеров хранилищ VMware vSAN 6.6, а вчера он стал официально доступен для скачивания. Так как VMware vSAN работает в рамках инфраструктуры серверной виртуализации VMware vSphere, были также выпущены обновления ESXi 6.5d и vCenter 6.5d, поддерживающие vSAN 6.6.
Напомним также, что совсем недавно выходил апдейт VMware vCenter 6.5c, в котором была исправлена уязвимость компонента Apache BlazeDS. Что касается обновления ESXi 6.5d, то оно включает в себя поддержку vSAN 6.6, исправления некоторых ошибок а также отображения статусов VMware vSAN health checks в интерфейсе клиента ESXi Host Client (он же Embedded Host Client).
Загрузить VMware vSAN 6.6 в составе платформы VMware vSphere 6.5 и ее компонентов можно по этой ссылке.
Недавно мы писали о новых возможностях VMware vSphere 6.5, где одним из нововведений стала релизная версия технологии vSphere Integrated Containers, позволяющая создавать инфраструктуру виртуальных приложений Docker в виртуальных машинах vSphere.
Недавно мы уже писали о vSphere Integrated Containers, а сегодня мы расскажем об этой технологии поподробнее. Начнем с обзорного видео:
Технологию можно представить следующей диаграммой:
Ниже будет рассказано о трех основных компонентах технологии vSphere Integrated Containers, каждый из которых построен как Open Source программное обеспечение, поэтому каждая компания может использовать различные компоненты экосистемы VIC, дорабатывать их и делать вклад в развитие этих проектов. Между тем, функциональность vSphere Integrated Containers доступна только для пользователей с лицензией vSphere Enterprise Plus (видимо, считается, что технология VIC нужна только крупным компаниям).
vSphere Integrated Container Engine (VIC Engine)
Это специальный движок контейнеров, который работает не в той же виртуальной машине, что и сам контейнер, а вынесен в специальный компонент Virtual Containter Host (VCH), который представляет собой специальный объект vApp, создаваемый при развертывании. Также VCH обслуживает компонент Docker Endpoint (это маленькая ВМ), который предоставляет внешние интерфейсы для управления контейнерами через API администраторам приложений (развертывание новых контейнеров и обслуживание существующих).
IP-адрес машины Docker Endpoint передается администратором vSphere пользователям, которые развертывают и обслуживают приложения Docker. Когда пользователь VIC Engine выполняет команду:
docker run –H <IP> busybox
то небольшой образ на базе busybox вытаскивается с хранилища Docker Hub и превращается в виртуальную машину со всеми необходимыми интерфейсами внутри объекта vApp, которым является Virtual Container Host.
Этот компонент позволяет хранить образы контейнеров. Если вам необходимо поместить приложение в контейнер и распространять его в своей инфраструктуре, нужно воспользоваться таким реестром. Для движка Docker - это компонент Docker Hub.
Проблема в том, что репозиторий Docker Hub открыт абсолютно всем, поэтому VMware сделала свой репозиторий Project Harbor (это форк проекта Docker Hub), который также является Open Source-компонентом, но предоставляет отдельное корпоративное хранилище образов в рамках инфраструктуры компании. Поставляется он в виде виртуального модуля в формате OVA.
Инженеры VMware взяли исходный код Docker Registry, добавили Enteprise-возможности, такие как поддержку LDAP/AD, ролевую модель доступа, а также пользовательский интерфейс - и выделили его в отдельный проект Harbor.
Вот тут на GitHub можно найти публичный репозиторий проекта Harbor.
Container Management Portal (Project Admiral)
Это специализированный портал управления, который при операциях с контейнерами предоставляет следующие возможности:
Создание нового хоста для контейнеров ( Virtual Containter Host, VCH).
Управление квотами ресурсов.
Определение новых шаблонов контейнеров для развертывания.
Управление состоянием контейнеров.
Admiral - это расширение набора средств автоматизации vRealize Automation 7.2, которое добавляет туда возможности управления контейнерами. Информация об этом доступна здесь.
Но поскольку Admiral может быть развернут отдельно от vRA, VMware включила его в состав VIC как отдельный продукт. Кстати, не все возможности Admiral используются для виртуальных машин с контейнерами внутри, так как типа они могут конфликтовать со средствами виртуализации, но все основные функции там есть.
Посмотрите, как работает Admiral:
Публичный репозиторий Project Admiral находится здесь. Помните, что он все еще находится в состоянии беты!
Таги: VMware, vSphere, VIC, Update, Open Source, Docker
На уже почти прошедшей главной конференции о виртуализации VMworld 2016 компания VMware сделала немало интересных анонсов. О некоторых из них мы уже писали тут и тут. А сегодня расскажем об обновлениях технологии VMware vSphere Integrated Containers (VIC), которая направлена на управление виртуальными контейнерами Docker на базе инфраструктуры vSphere. Напомним, что мы уже писали о vSphere Integrated Containers вот тут.
В рамках технологии VIC каждый контейнер Docker размещается в отдельной виртуальной машине. Сделано это с целью лучшей управляемости и надежной изоляции приложений для безопасной и стабильной их работы. Но это было бы слишком расточительно с точки зрения потребления ресурсов, поэтому VMware использует подход VMFork - создание мгновенных клонов работающей виртуальной машины. Например, вот тут мы как раз писали о таком подходе.
Photon Controller использует механизм VMFork (сейчас эта технология называется VMware Instant Clone и доступна в vSphere 6) для создания мгновенных экземпляров виртуальных машин на базе Photon OS (менее, чем за 1 секунду) с нужным приложением по запросу от пользователя.
То есть, на базе Photon OS развертывается новая машина через VMFork, а в ней уже тянется контейнер из нужного репозитория.
Теперь были анонсированы еще два важных компонента инфраструктуры VIC - Container Management Portal (он же Project Admiral) и Container Registry (он же Project Harbor):
vSphere Integrated Container Engine (VIC Engine)
Движок контейнеров не запущен в той же виртуальной машине, что и сам контейнер, а вынесен в специальный компонент Virtual Containter Host (VCH), который представляет собой специальный объект vApp, создаваемый при развертывании. Также VCH обслуживает компонент Docker Endpoint, который предоставляет внешние интерфейсы для управления контейнерами через API администраторам приложений (развертывание новых контейнеров и обслуживание существующих).
Таким образом, администраторы приложений Docker работают с ними как с обычными контейнерами в физической инфраструктуре, а администраторы vSphere относятся к ним как к виртуальным машинам, которые используются все те же самые технологии - HA, DRS, NSX, VSAN и прочие.
Container Management Portal (Project Admiral)
Теперь администраторы vSphere смогут использовать vSphere Web Client для управления объектом vApp, виртуальными машинами с контейнерами на борту и компонентами VCH, обслуживаемыми VIC engine. При операциях с контейнерами портал предоставляет следующие возможности:
Создание нового хоста для контейнеров ( Virtual Containter Host, VCH).
Управление квотами ресурсов.
Определение новых шаблонов контейнеров для развертывания.
Управление состоянием контейнеров.
Основная философия такого подхода - администраторы приложений Docker сами смогут управлять своими контейнерами через веб-клиент, а не через CLI.
Container Registry (Project Harbor)
Этот компонент позволяет хранить образы контейнеров. Если вам необходимо поместить приложение в контейнер и распространять его в своей инфраструктуре, нужно воспользоваться таким реестром. Для движка Docker - это компонентDocker Hub.
Проблема в том, что репозиторий Docker Hub открыт абсолютно всем, поэтому VMware сделала свой репозиторий Project Harbor (это форк проекта Docker Hub), который также является Open Source-компонентом, но предоставляет отдельное корпоративное хранилище образов в рамках инфраструктуры компании.
Также Project Harbor он предоставляет следующие Enterprise-возможности, в отличие от базового репозитория:
Ролевая модель доступа (Role Based Access Control, RBAC)
Репликация образов
Графический портал для пользователей
Поддержка интеграции с AD/LDAP
Средства аудита
Программный интерфейс RESTful API
Интернационализация на различные языки, в том числе русский
Кстати, анонсированная в рамках первого дня VMworld 2016 технология Cross-Cloud Architecture также будет полностью совместима с VMware vSphere Integrated Containers.
Таги: VMware, Docker, Update, VIC, Open Source, VMachines
На днях мы писали о том, что компания VMware выпустила релизную версию своей минимальной операционной системы Photon OS 1.0, которая предназначена для исполнения виртуальных контейнеров Docker. Многие сразу задумались о том, как дело обстоит с работой контейнеров с хранилищами своих данных.
Как раз в этой связи компания VMware выпустила технологическое превью драйвера vSphere Docker Volume Driver, позволяющего напрямую работать с виртуальными хранилищами прямо из контейнеров Docker (версии 1.9 или выше).
Архитектура решения выглядит так:
Как видно из картинки, нам потребуется установить Volume Driver на серверы VMware ESXi, а также плагины vSphere Docker Volume Plugin на виртуальные машины Docker Host, где будут исполняться наши контейнеры. Также мы видим, что в качестве хранилищ поддерживаются практически все, что поддерживает платформа vSphere: тома VMFS (локальные и общие), NFS-хранилища, а также тома Virtual SAN (и соответственно их политики по обеспечению избыточности данных в целях отказоустойчивости).
Рассмотрим развертывание решения vSphere Docker Volume Driver по шагам.
1. На серверы VMware ESXi 6.0 или выше устанавливается компонент vSphere Data Volume Driver в виде обычного VIB-пакета.
4. Устанавливаем VMDK Plugin (Docker Volume Plugin) на хост ESXi.
Проверяем версию Docker:
root@photon-machine [ ~ ]# docker version
Client:
Version: 1.11.0
API version: 1.23
Go version: go1.5.4
Git commit: 4dc5990
Built: Wed Apr 13 19:36:04 2016
OS/Arch: linux/amd64
Server:
Version: 1.11.0
API version: 1.23
Go version: go1.5.4
Git commit: 4dc5990
Built: Wed Apr 13 19:36:04 2016
OS/Arch: linux/amd64
root@photon-machine [ ~ ]#
Install the RPM (I’ve used “-U” out of habit, but “-i” can also be used):
Устанавливаем RPM-пакет с плагином в гостевую ОС:
root@photon-machine [ ~ ]# ls
docker-volume-vsphere-0.1.0.tp-1.x86_64.rpm
root@photon-machine [ ~ ]# rpm -Uvh docker-volume-vsphere-0.1.0.tp-1.x86_64.rpm
Preparing... ################################# [100%]
Updating / installing...
1:docker-volume-vsphere-0:0.1.0.tp-################################# [100%]
File: '/proc/1/exe' -> '/usr/lib/systemd/systemd'
Created symlink from /etc/systemd/system/multi-user.target.wants/\
docker-volume-vsphere.service to /usr/lib/systemd/system/docker-volume-vsphere.service.
5. Проверяем статус плагина:
root@photon-machine [ ~ ]# systemctl status docker-volume-vsphere
* docker-volume-vsphere.service - "Docker Volume Driver for vSphere"
Loaded: loaded (/usr/lib/systemd/system/docker-volume-vsphere.service;\
enabled; vendor preset: enabled)
Active: active (running) since Mon 2016-05-30 09:04:21 UTC; 28s ago
Main PID: 256 (docker-volume-v)
CGroup: /system.slice/docker-volume-vsphere.service
`-256 /usr/local/bin/docker-volume-vsphere
May 30 09:04:21 photon-machine systemd[1]: Started "Docker Volume Driver\
for....
Hint: Some lines were ellipsized, use -l to show in full.
root@photon-machine [ ~ ]#
Мы как-то писали о технологии vSphere Integrated Containers (VIC), которая подразумевает запуск виртуализованных контейнеров Docker (и прочих) в маленьких виртуальных машинах с легковесной ОС на базе дистрибутива Linux.
Этой ОС и является VMware Photon OS 1.0, которая окончательно вышла на днях. Это первая релизная версия этой операционной системы от VMware.
При использовании Photon OS каждый контейнер исполняется в своей виртуальной машине, но не в обычной, а в созданной "на лету" с помощью технологии Instant Clone.
VMware Photon OS обеспечивает следующие возможности для контейнеров приложений (в частности, Docker):
Средства быстрого обновления (tdnf), которые позволяют сканировать и своевременно обновлять устаревшие пакеты приложений.
Большой набор библиотек в репозиториях, которые требуются для работы различных приложений на платформе Photon OS.
Построенная на ядре 4.2 система Photon OS поддерживает файловую систему btrfs со всеми ее возможностями в дополнение к overlayfs.
До 26% улучшения производительности по сравнению с бета-версиями (на базе микробенчмарков). Теперь время загрузки ядра составляет примерно 200 миллисекунд. Сама ОС занимает в оперативной памяти 384 МБ, а на диске 396 МБ.
Очень много было сделано в плане безопасности - проведено тщательное ревью всего исходного кода Photon OS, код был проверен различными тулзами, а также привлекались сторонние компании для поиска потенциальных уязвимостей.
На сайте проекта VMware Labs появилось интересное средство - VMware GOLD vApp STIG Assessment and Remediation Tool (START), которое представлет собой Docker-контейнер, способный обследовать любую удаленную Linux-систему по протоколу Security Content Automation Protocol (SCAP) в реализации OpenSCAP и исправить найденные уязвимости согласно стандарту STIG (Security Technical Implementation Guide).
На базе преконфигуренных шаблонов утилита START может обнаруживать уязвимости в других системах, после чего к ним можно применять различные действия средствами Ansible. Вы также можете видеть результаты обследования и исправления систем (assessment reports, remediation reports и hardening reports). Отчеты имеют метку времени и детали о каждой машине для быстрой идентификации системы. Кроме того, можно проверить последние полученные отчеты на различия в соответствии, а также можно указать произвольные xml-файлы отчетов для сравнения.
При проверке соответствия системы возможны два действия с найденными проблемами: remediation и hardening. Различие между ними в том, что при remediation фиксы накладываются только для тех пунктов, где найдено несоответствие системы определенной в шаблоне конфигурации, а при hardening накладываются все фиксы, независимо от текущего состояния системы.
VMware выпустила большую серию обучающих видеороликов, разъясняющих подробности работы утилиты START:
Представляем вам гостевой пост от облачного сервиса 1cloud, регулярно рассказывающего на страницах нашего сайта о перспективных технологиях. Одной из наиболее активно обсуждаемых тем уходящего года стала «революция контейнеров» — многие компании внедряют их в свою инфраструктуру, а вендоры создают новые технологии для работы с ними. Недавно мы рассказывали о новых разработках VMware в этой области, а теперь представляем вашему вниманию адаптированный перевод заметки инженера компании о сложностях и мифах, связанных с контейнерами.
Вы стали свидетелями одного из самых крупных сдвигов, произошедших в IT-индустрии. Пятнадцать лет тому назад вы могли себе представить, что буквально одним нажатием кнопки сможете перенести приложение из одной части функционирующего дата-центра в другую, не создав при этом неудобств пользователям?
VMware сделала возможным переход от аппаратного обеспечения к программному, от ручного управления к автоматизации. Используя контейнеры, старую технологию, которую упростили такие компании, как Docker и CoreOS, мы можем мгновенно запустить множество приложений на общем ядре. В ноябре 2015 года в Барселоне прошла конференция Dockercon Europe 2015, посвященная безопасности, пользовательскому интерфейсу, RBAC-авторизации и эксплуатации программного обеспечения в целом. Стоит только упомянуть эти термины, как все внимание крупных организаций тут же обратится на вас.
На конференции искали способы заполнения пропасти между разработчиками (которые любят Docker) и IT-специалистами (у которых есть и другие проблемы, которые нужно решать). Объединить задачи этих групп спеиалистов и пытается VMware, компания тратит много усилий на популяризацию технологии контейнеров. Работа ведется по нескольким фронтам: создаются инструменты и внедряются технологии, способные облегчить этот переход.
Технология контейнеров быстро стала популярной среди разработчиков, поскольку с её помощью можно легко управлять сложными распределенными и переносимыми архитектурами приложений. Именно гибкость, переносимость и простота сделали контейнеры отличным решением для создания новых приложений. Однако с большими возможностями приходит большая ответственность – необходимо решить проблемы управления и эксплуатации, полностью понять новую парадигму разработки. Давайте рассмотрим наиболее частые заблуждения о контейнерной технологии, прежде чем вы продолжите с ней знакомство. Читать статью далее->>
Это гостевой пост сервис-провайдера 1cloud, предоставляющего услуги облачной аренды виртуальных машин. Ранее они рассказывали о развитии данной технологии в статье о «революции контейнеров» в своем блоге на Хабре.
Шумиха вокруг контейнеров последнего времени поставила один важный вопрос: как эта технология сможет ужиться с традиционными вариантами управления инфраструктурой, и какие угрозы она таит для рынка виртуализации? И даже более конкретный: заменят ли контейнеры виртуальные машины?
На ежегодной конференции в Сан-Франциско, прошедшей на в сентябре 2015 года, VMware дала однозначно понять, что этого не произойдет. Новая платформа управления вводит новый тип виртуализации — для самих контейнеров.
Виртуализация для контейнеров
Полтора десятка лет назад VMware взорвала технологическую индустрию, выпустив свой корпоративный гипервизор, открывший эпоху серверной виртуализации. На прошлой неделе компания представила обновленную версию своей классической программы для виртуализации под названием Project Photon. По сути, это облегченная реплика популярного гипервизора ESX компании, разработанная специально для работы с приложениями в контейнерной реализации.
«В ее основе, по-прежнему, лежит принцип виртуализации», — объясняет вице-президент VMware и технический директор Cloud Native Applications Кит Колберт. Он предпочитает называть Photon «микровизором» с достаточным набором функций для успешной виртуализации, упакованный в удобный для контейнеров формат.
Project Photon состоит из двух ключевых элементов. Photon Machine – оболочка для гипервизора, дублирующая ESX и устанавливаемая напрямую на физические серверы. Она создает виртуальную машину в миниатюре, куда помещаются контейнеры. Пользователь может самостоятельно выбрать гостевую ОС. По умолчанию устанавливается Photon ОС под Linux, которую компания также сделала совместимой с технологией контейнеров.
Второй элемент – это Photon Controller, мультитенантный маршрутизатор, позволяющий управлять одновременно дюжинами, если не тысячами, объектов на Photon Machine. Он следит за тем, чтобы все блоки (кластеры) Photon Machine имели доступ к сети и базам данных, когда это необходимо.
Комбинация этих двух элементов задает шаблон для масштабируемой среды и имеет надстройку для написания API. В теории, IT-операторы могу усовершенствовать Project Photon, и сами разработчики создавать на его базе приложения.
Project Photon способен интегрироваться с открытыми программами. Например, с Docker’ом для поддержки исполнения программы, или с Google Kubernetes и Pivotil’s Cloud Foundry для более качественного управления приложениями. Photon в данном случае выполняет подготовку инфраструктуры, а Kubernetes и CF занимаются развертыванием приложений.
В прошлом году для индивидуальных пользователей платформа стала доступна в качестве бета-версии.
Долгая дорога к контейнерам
Не все пользователи готовы полностью переключиться на контейнерную реализацию. Поэтому VMware для сомневающихся интегрирует поддержку контейнеров с традиционными инструментами управления.
vSphere Integrated Containers – еще один продукт, анонсированный на конференции. Как пояснил Кит Колберт, это идеальный вариант для тех, кто только хочет начать экспериментировать с контейнерами. Для желающих же использовать возможности контейнеров по максимуму он рекомендует переход к Project Photon.
vSphere Integrated Containers представляет собой плагин для vSphere, установленной на достопочтенном ESX компании. «Он делает контейнеры самыми желанными гостями платформы», — уточняет Колберт. При помощи плагина пользователи могут устанавливать контейнеры внутрь виртуальной машины, позволяя управлять ею так же, как и любой другой в пространстве платформы виртуализации.
В текущих условиях, если пользователь решил загрузить контейнеры в vSphere, ему приходится все скопом помещать их в одну единственную виртуальную машину. Таким образом, если что-то случится с одним из контейнеров, повреждения могут получить и все остальные, находящиеся в ВМ. Распределение контейнеров по разным ВМ обеспечивает их сохранность и аккуратное управление платформой.
Аналитик Marko Insights Курт Марко говорит, что новый подход к контейнерной реализации VMware должен облегчить жизнь и самим администраторам платформы. «Работа с контейнерами Photon в формате микро-ВМ схожа с тем, как работают с классом стеков и операторов, — сообщает Марко в своем письме. – Конечно, здесь могут быть потери в производительности, поскольку даже микро-ВМ будут больше перегружены, чем контейнеры, пользующиеся одними ядрами и библиотеками. В самой VMware утверждает, что это проблемой можно пренебречь, но Марко настаивает на независимом анализе издержек работы с контейнерами внутри виртуальных машин.
Не все так быстро
В VMware полны энтузиазма и рассматривают себя в качестве флагмана контейнерной реализации. Но есть несколько моментов, способных этот порыв охладить. Во-первых, вероятно, рынок контейнеров еще к этому не готов.
«Реклама продукта пока обгоняет реальность», — говорит аналитик IDC Эл Гиллен. По его подсчетам, менее десятой доли процента корпоративных приложений сейчас делаются через контейнеры. Может пройти десятилетие, пока рынок переварит эти технологии, и цифра приблизится к 40%.
Во-вторых, VMware никогда не обладала репутацией компании, готовой быть в авангарде разработок открытого программного обеспечения и проектов. Скорее, наоборот. Соучредитель и исполнительный директор Rancher Labs (стартапа, внедрившего свою ОС для контейнеров на VMworld) Шен Льян говорит, что до этого момента контейнерную реализацию продвигали сами разработчики или открытые платформы, наподобие Mesos, Docker и Kubernetes. Он добавил, что не встречал еще ни одного человека, использующего в работе контейнеры, который бы делал это с помощью инструментария VMware.
Аналитик Forrester Дейв Бартолти не удивлен данному обстоятельству. В VMware налажены прочные связи с проектными ИТ-менеджерами, но не с разработчиками, активно использующими контейнеры. Новинки, которые компания представила на VMworld, должны как раз вдохновить первых активно использовать контейнеры в рамках работы с платформой VMware. Остальные вендоры, среди которых Red Hat, Microsoft и IBM, также с удовольствием пользуются этой процедурой. VMware настаивает, что нашла способ примерить виртуальные машины и контейнеры.
Напомним, что о подходе VMware к контейнеризованным приложениям Docker мы писали вот тут. Вкратце: VMware предлагает на базе Photon OS запускать контейнеры в виртуальных машинах (одна ВМ - одно приложение), а с помощью средств VMFork мгновенно создавать экземпляры таких виртуальных машин по требованию.
Выпущенный на днях Docker Management Pack for vRealize Operations Manager собирает данные о производительности этих контейнеров в вашем окружении Docker, а также предоставляет анализ о возможных трудностях с производительностью. Кроме того, в данном средстве в реальном времени доступна информация об имеющихся проблемах в инфраструктуре Docker (они обозначаются красными квадратиками).
Данный management pack представляет собой плагин к vRealize Operations Manager 6.x. Он отображает взаимосвязи между различными компонентами инфраструктуры Docker (например соотношение между образом и контейнером), а также собирает данные о производительности и свойствах с каждой системы Docker.
Для установки плагина нужно зайти в раздел Administration > Solutions в vRealize Operations Manager и загрузить pak-файл, нажав плюсик:
Скачать VMware vRealize Operations Docker 1.0 Adapter можно по этой ссылке.
На днях компания Microsoft выпустила очередное обновление технологического превью следующего поколения своей серверной платформы - Windows Sever 2016 Technical Preview 4 (а также и System Center 2016).
В новой версии появилось несколько важных нововведений, многие из которых непосредственно касаются технологий виртуализации:
1. Поддержка контейнеров приложений Windows Server Containers и Hyper-V Containers.
Эта поддержка появилась еще в Technical Preview 3, но в этом обновлении была существенно расширена. Напомним, что мы уже писали об этом вот тут. В новой версии Windows Server будут поддерживаться как контейнеры Docker на базе механизма Windows Server Containers в среде физических серверов:
так и Hyper-V Containers на базе виртуальных машин (подробнее об этом - тут):
В прошлом превью поддерживалась только технология Windows Server Containers, теперь же Microsoft сделала публичной технологию Hyper-V Containers. Она позволяет развертывать виртуальные сервисы в контейнерах в средах с повышенной изоляцией на базе виртуальных машин на платформе Hyper-V. Аналогичный подход компания VMware предлагает и в своей платформе vSphere с технологией vSphere Integrated Containers.
Ниже можно посмотреть живую демонстрацию технологии Hyper-V Containers от легендарного Марка Руссиновича:
Документация о контейнерах на платформе Windows Server доступна вот тут.
2. Улучшения Nano Server.
Напомним, что об этом решении мы также писали вот тут. Nano Server как раз подходит как среда исполнения для контейнеров Docker (но не только). По сравнению с прошлым превью Windows Server в данной версии Nano Server появились следующие улучшения:
Поддержка роли DNS server
Поддержка роли IIS
Поддержка технологии MPIO
Средства Virtual Machine Manager (VMM)
Поддержка интерфейса мониторинга SCOM
Работа с режимом PowerShell DSC (Desire State Configuration) для развертывания и настройки новых систем
Поддержка технологии DCB (Data Center Bridging)
Улучшенный установщик Windows Server Installer
Инструментарий WMI для механизма Windows Update
Поддержка пакетов AppX
3. Поддержка вложенной виртуализации Hyper-V.
Об этом мы весьма подробно писали вот тут. Ранее эти средства были доступны в сборках Windows 10, теперь же возможность была добавлена и в Windows Server.
4. Поддержка Direct Device Assignment (проброс устройств на шине PCIe).
Теперь в Windows Server появился полноценный прямой проброс PCI-устройств в виртуальные машины. Если ранее поддерживалась только технология SR-IOV для сетевых адаптеров, то теперь Direct Device Assignment можно применять для любых устройств на шине PCI Express, например, для устройств хранения на базе Flash-накопителей (см. раскрытое устройство Dell):
Это позволит превратить вашу виртуальную машину в сервер хранения как Virtual Storage Appliance (например, для тех же виртуальных машин) с прямым доступом к хранилищу.
5. Улучшения технологии Storage Spaces Direct (S2D).
Теперь в рамках данной технологии появилась поддержка виртуальных дисков Multi-Resilient Virtual Disks, которые представляют собой так называемый "3D-RAID", то есть каждый виртуальный диск содержит в себе зеркальные копии данных других дисков, кодированные по алгоритму с контролем четности (это позволяет создавать избыточность любой глубины на уровне виртуальных дисков):
Все данные записываются в Mirror tier (это часть виртуального диска с наибольше производительностью underlying storage), а в Parity tier уходят избыточные данные для коррекции ошибок в случае сбоев. Операционная система ReFS всегда записывает данные сначала в mirror tier, а если требуется апдейт parity tier, то он идет следом. Таким образом достигается полная надежность рабочего процесса изменения данных:
Нечто подобное (на простейшем уровне) используется в решении VMware Virtual SAN (а в следующей версии будет еще круче). Более подробнее о технологии S2D можно почитать вот тут.
6. Прочие улучшения.
Среди прочего, появилась поддержка технологии Virtual Machine Multi-Queue для виртуальных машин, позволяющей максимально эффективно использовать сети 10G+. Также были расширены возможности технологии Just Enough Administration (JEA), предоставляющей только самые необходимые инструменты для таких серверных ролей, как, например, контроллер домена, которые требуют максимального уменьшения поверхности возможной атаки.
Также интересно, что теперь в разделе документации по платформе Hyper-V в Windows 10 была добавлена возможность самому внести вклад в разделы о продуктах и технологиях (нужно нажать "Contribute to this topic"):
Скачать Windows Sever 2016 Technical Preview 4 можно по этой ссылке. Подробно обо всех нововведениях обновленного превью можно прочитать вот здесь.
На проходящей сейчас в Барселоне конференции VMworld Europe 2015 компания VMware раскрыла окончательные подробности технологии vSphere Integrated Containers (VIC), которая позволяет работать с инфраструктурой виртуализованных приложений Docker на базе существующей виртуальной инфраструктуры VMware vSphere.
Начнем обзор технологии VIC вот с этого видео, в котором показано, как поднять nginx на Photon OS:
Ключевым понятием инфраструктуры контейнеров является VCH - Virtual Container Host. На самом деле это не хост, а виртуальный объект, состоящий из ресурсов ресурсного пула (Resource Pool) VMware vSphere или кластера хостов ESXi целиком. Это позволяет создавать контейнеры в нескольких доменах в рамках одного или нескольких VCH (например, Production, Staging и Test).
Каждый VCH обслуживает собственный кэш образов, которые загружаются из публичного хаба Docker или из частных репозиториев. Файловые системы ВМ в контейнерах размещаются в виртуальных дисках VMDK, которые уже лежат на обычных VMFS-хранилищах.
Само управление инфраструктурой VIC происходит через плагин к vSphere Web Client. Также есть интерфейс командной строки и PowerCLI. Вот, например, процесс создания VCH:
Напомним, что каждый контейнер Docker размещается в отдельной виртуальной машине. Сделано это с целью лучшей управляемости и надежной изоляции приложений для безопасной и стабильной их работы. Но это было бы слишком расточительно с точки зрения потребления ресурсов, поэтому VMware использует подход VMFork - создание мгновенных клонов работающей виртуальной машины. Например, вот тут мы как раз писали о VIC-подходе.
Photon Controller использует механизм VMFork (сейчас эта технология называется VMware Instant Clone и доступна в vSphere 6) для создания мгновенных экземпляров виртуальных машин на базе Photon OS (за менее, чем 1 секунду) с нужным приложением по запросу от пользователя.
То есть, на базе Photon OS развертывается новая машина через VMFork, а в ней уже тянется контейнер из нужного репозитория.
Linux-контейнеры требуют Linx Kernel и работают как приложения в виртуальных машинах, которые могут выполнять только обозначенную контейнером задачу и не имеют никаких лишних обвесов и интерфейсов.
Также для контейнеров мапятся стандартные команды, которые доступны для виртуальных машин (Power Off / Power On). Например, если мы выключим виртуальный контейнер, это будет означать, что виртуальную машину с контейнером на борту мы удалили.
vSphere Integrated Containers на данный момент находятся в статусе Technology Preview, об их доступности будет сообщено дополнительно.