Новости Статьи VMware Veeam StarWind Microsoft ИТ-ГРАД Citrix Symantec 5nine События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Виртуализация vSphere, Hyper-V, XenServer и Red Hat

Более 4770 заметок о виртуализации и виртуальных машинах VMware, Microsoft, Citrix, Red Hat

VM Guru | Ссылка дня: Как одной командой поставить всем серверам ESXi настройки NTP-сервера

Виртуализация VMware vSphere / ESX / ESXi, VMware View, VMware Workstation и др.

VMware
vSphere
vGPU

Некоторые аспекты использования VMware vSphere для задач машинного обучения и технология FlexDirect от компании BitFusion.

(0 Comment)

Вы все, конечно же, в курсе, что графические карты уже давно используются не только для просчета графики в играх и требовательных к графике приложениях, но и для вычислительных задач. Сегодня процессоры GPGPU (General Purpose GPU) используются в ИТ-инфраструктурах High Performance Computing (HPC) для решения сложных задач, в том числе машинного обучения (Machine Learning, ML), глубокого обучения (Deep Learning, DL) и искусственного интеллекта (Artificial Intelligence, AI).

Эти задачи, зачастую, хорошо параллелятся, а архитектура GPU (по сравнению с CPU) лучше приспособлена именно для такого рода задач, так как в графических платах сейчас значительно больше вычислительных ядер:

Кроме того, архитектура CPU больше заточена на решение последовательных задач, где параметры рассчитываются друг за другом, а архитектура GPU позволяет независимо просчитывать компоненты задачи на разных процессорных кластерах, после чего сводить итоговый результат.

Вот так, если обобщить, выглядит архитектура CPU - два уровня кэша на базе каждого из ядер и общий L3-кэш для шаринга данных между ядрами:

Число ядер на CPU может достигать 32, каждое из которых работает на частоте до 3.8 ГГц в турбо-режиме.

Графическая карта имеет, как правило, только один уровень кэша на уровне вычислительных модулей, объединенных в мультипроцессоры (Streaming Multiprocessors, SM), которые, в свою очередь, объединяются в процессорные кластеры:

Также в видеокарте есть L2-кэш, который является общим для всех процессорных кластеров. Набор процессорных кластеров, имеющих собственный контроллер памяти и общую память GDDR-5 называется устройство GPU (GPU Device). Как видно, архитектура GPU имеет меньше уровней кэша (вместо транзисторов кэша на плату помещаются вычислительные блоки) и более толерантна к задержкам получения данных из памяти, что делает ее более пригодной к параллельным вычислениям, где задача локализуется на уровне отдельного вычислительного модуля.

Например, если говорить об устройствах NVIDIA, то модель Tesla V100 содержит 80 мультипроцессоров (SM), каждый из которых содержит 64 ядра, что дает в сумме 5120 ядер! Очевидно, что именно такие штуки надо использовать для задач ML/DL/AI.

Платформа VMware vSphere поддерживает технологию vGPU для реализации такого рода задач и возможности использования виртуальными машинами выделенных ВМ модулей GPU. В первую очередь, это все работает для карточек NVIDIA GRID, но и для AMD VMware также сделала поддержку, начиная с Horizon 7 (хотя и далеко не в полном объеме).

Если говорить о задачах машинного обучения, то мы уже писали о результатах тестирования Machine Learning/Deep Learning задач на платформе VMware vSphere. Все это уже сейчас используется в здравоохранении, страховании, финансах и других отраслях.

Еще одна интересная архитектура для решения подобных задач - это технология FlexDirect от компании BitFusion. Она позволяет организовать вычисления таким образом, что хосты ESXi с модулями GPU выполняют виртуальные машины, а их ВМ-компаньоны на обычных серверах ESXi исполняют непосредственно приложения. При CUDA-инструкции от клиентских ВМ передаются серверным по сети:

Обмен данными может быть организован как по TCP/IP, так и через интерфейс RDMA, который может быть организован как подключение Infiniband или RoCE (RDMA over Converged Ethernet). О результатах тестирования такого сетевого взаимодействия вы можете почитать тут.

При этом FlexDirect позволяет использовать ресурсы GPU как только одной машине, так и разделять его между несколькими. При этом администратор может выбрать, какой объем Shares выделить каждой из машин, то есть можно приоритизировать использование ресурсов GPU.

Такая архитектура позволяет разделить виртуальную инфраструктуру VMware vSphere на ярусы: кластер GPU, обсчитывающий данные, и кластер исполнения приложений пользователей, которые вводят данные в них и запускают расчеты. Это дает гибкость в обслуживании, управлении и масштабировании.

Более подробно о настройке FlexDirect написано здесь, а документация по продукту доступна тут.

VMware
Labs
Horizon

Как превратить компьютер в тонкий клиент VMware Horizon View? Утилита Physical Desktop as a Thin Client на VMware Labs.

(0 Comment)

Многие организации хотели бы иметь парк аппаратных "тонких клиентов", которые предоставляют доступ к корпоративной инфраструктуре виртуальных ПК VMware Horizon. Тонкие клиенты позволяют сразу же показать пользователю терминальную сессию к его виртуальному ПК, защищенному корпоративными политиками, без возможности физически иметь доступ к десктопу, его жесткому диску и системным настройкам.

Для тех, у кого нет возможности предоставить пользователям подобные устройства, но есть необходимость в их использовании (в основном, в целях безопасности), компания VMware выпустила утилиту Physical Desktop as a Thin Client на сайте проекта VMware Labs.

Она позволяет превратить обычный компьютер на базе Windows в подобие тонкого клиента - убрать такие элементы, как таскбар, системные опции и прочее, а также запретить запуск сторонних приложений.

После настройки данной утилитой обычного компьютера, пользователь после логина будет видеть окно ввода учетных данных в Horizon View Client, не сможет изменить локальные настройки компьютера и будет работать с ним как с обычным терминалом доступа к удаленному десктопу (при этом нельзя будет переключаться между приложениями). После завершения сессии пользователя в View Client физический десктоп также будет потушен.

Для работы этого продукта потребуется действующая инфраструктура Active Directory с установленным компонентом Group policy management console (GPMC), а также все доменные машины должны иметь доступ к папке \\<domain>\\SYSVOL. Сами эти десктопы управляются через GPO с именем "Thin Client Group Policy".

Детальную информацию о настройке Physical Desktop as a Thin Client можно найти вот в этом документе. Скачать данную утилиту можно по этой ссылке.

VMware
Photon OS
Update

Что нового в VMware VMware Photon OS 3.0?

(0 Comment)

Осенью 2017 года мы писали о релизе операционной системы VMware Photon OS 2.0, предназначенной для контейнеров Docker, cloud-native приложений, публичных облачных платформ и инфраструктуры VMware (виртуальные модули).

Оказывается, как справедливо отметили в комментариях, в конце февраля этого года было выпущено обновление VMware Photon OS 3.0. Давайте посмотрим, что там нового:

1. Поддержка архитектуры ARM64.

Теперь Photon OS 3.0 можно запускать на Raspberry Pi 3. Для этого есть предсобранный образ, а также возможность собирать новые образы с помощью image builder.

2. Улучшения установки.

  • Теперь инсталлятор можно запускать с различных носителей, таких как USB, CDROM и средств kickstart с любого из поддерживаемых устройств хранения.
  • Driver Development Kit - возможность интегрировать свои кастомные драйверы.

3. Прочие улучшения.

  • Предсобранные образы для развертывания на облачных платформах Microsoft Azure, Google Compute Engine (GCE), Amazon Elastic Compute Cloud (EC2) и VMware (vSphere, Fusion и Workstation).
  • Новые версии следующих базовых пакетов ОС:
    • Linux kernel 4.19
    • Glibc 2.28
    • systemd 239
    • Python3 3.7
    • Openjdk : 1.8.0.192
  • Обновление большинства пакетов, доступных из репозитория (около 440 пакетов были обновлены).
  • Возможность одновременной поддержки пакетов разных версий (например, go-1.9 и go-1.10).
  • Новые пакеты: EdgeX, Liota, linux-firmware, wpa_supplicant for WLAN, consul, meson и другие.

Также в Photon OS 3.0 теперь доступно 3 размера установки ОС:

  • Minimal - для IoT-устройств с самыми минимальными базовыми требованиями.
  • Developer - пакеты для создания, тестирования и развертывания контейнеризованных приложений.
  • Edge - включает пакеты для создания устройства edge gateway.

Скачать VMware Photon OS 3.0 можно по этой ссылке. Там же доступна и документация.

VMware
Horizon
Update

Вышло обновление инфраструктуры виртуальных ПК предприятия VMware Horizon 7.8 - что нового? Часть 1.

(0 Comment)

На днях компания VMware объявила об очередном релизе платформы для создания инфраструктуры виртуальных ПК предприятия - VMware Horizon 7.8.

Давайте посмотрим, что нового в Horizon 7.8 и его компонентах:

1. Новые функции Connection Server.

  • Консоль Horizon (веб-интерфейс на базе HTML5)
    • Можно использовать Horizon Console для инициализации архитектуры Cloud Pod, присоединять узлы в рамках функционала федерации, создавать и управлять глобальными правами доступа, сайтами и домашними сайтами.
    • Можно пересоздавать и восстанавливать связанные клоны с постоянными (persistent) дисками.
    • Для операций со связанными клонами доступна отмена начавшейся задачи (Cancel task).
    • Можно создавать автоматические фермы связанных клонов (automated linked-clone farms).
    • Можно настраивать Horizon Connection Server и аутентификацию пользователей. Также доступна настройка ролевой модели доступа, политик и клиентских сессий.
    • Можно настраивать ярлыки для опубликованных пулов десктопов и приложений.
  • Архитектура Cloud Pod
    • Лимиты топологии архитектуры Horizon 7.8 теперь следующие:
      • 250 000 сессий всего
      • 50 объектов pods
      • 10 000 сессий на pod
      • 15 сайтов
      • 7 экземпляров Connection Server на один pod
      • Всего 350 экземпляров Connection Server
  • Опубликованные десктопы и приложения
    • Для опубликованных десктопов и приложений на хостах RDS теперь поддерживаются объекты Organizational Units (OU).
    • На RDS-хостах теперь можно использовать статистики CPU, памяти, диска и числа сессий для определения политики балансировки нагрузки для опубликованных десктопов и приложений.
  • Виртуальные десктопы
    • Для мгновенных клонов (Instant clones) поддерживаются возможности TRIM и UNMAP для хранилищ vSAN.
    • Можно повторно использовать существующие учетные записи компьютеров для развертывания новых пулов мгновенных клонов в домене.
  • Функции доступа True SSO
    • После того, как пользователи используют True SSO для логина в десктопы, они могут разлочить десктоп путем повторной аутентификации на портале Workspace ONE с теми же кредами True SSO.
  • Изменения механизма безопасного доступа к домену
    • Несколько поменялась механика логина через Horizon Client (подробнее - тут). Сначала пользователь вводит свой полный логин с доменом в текстовое поле (domain\username или username@domain.com), после чего ему показывают селект с выбором домена, либо его может вообще не быть, либо там будет значение *DefaultDomain*. Подробнее об этом написано в настройках Send domain list и Hide domain list в документе VMware Horizon 7.8 Security.
    • Можно заставить пользователя ввести учетные данные, даже если у него стоит настройка Logon as current user. Более подробно об этом рассказано в документе Horizon 7.8 Administration, где описана настройка Accept logon as current user.
    • Для более детальной информации о доменных настройках для клиентов Horizon Clients можно обратиться к KB 67424.
    • Улучшения безопасности аутентификации пользователей, где исправлена проблема CVE-2019-5513, описанная в руководстве VMSA-2019-0003.

2. Новый Horizon Agent.

  • Теперь можно использовать регулярные выражения при задании правил URL Content Redirection. Смотрите раздел "Regular Expression Rules That URL Content Redirection Supports" в документе Configuring Remote Desktop Features in Horizon 7.
  • Аутентификация с помощью смарт-карт теперь поддерживается с приложениями UWP, такими как Microsoft Edge, в удаленных десктопах.
  • Плагин Helpdesk теперь есть в составе установщика Horizon Agent.
  • Функция VMware Integrated Printing содержит опцию finishing (параметры staple и booklet) для специализированных перенаправляемых принтеров.
  • Когда администратор включает режим read-only для подключения других пользователей к сессии, основной пользователь может подключить несколько пользователей в режиме просмотра сессии. При этом только основной пользователь может взаимодействовать с элементами управления, а остальные просто смотрят.

3. Новый Horizon Agent for Linux.

  • Улучшенная поддержка дистрибутивов Linux - теперь добавлены RHEL 7.6 и CentOS 7.6.
  • Начиная с Horizon HTML Access версии 5.0, функции нескольких мониторов поддерживаются для десктопов Linux.
  • Horizon 7.8 поддерживает перенаправление смарт-карт для Linux-десктопов с версией RHEL 7.1 и позднее. Эта возможность позволяет авторизоваться пользователю через смарт-карту, подключенную к клиентской системе.
  • Расширенная поддержка True SSO для Ubuntu 16.04 или 18.04, SLED 12.x SP3, а также SLES 12.x SP3.
  • Когда администратор включает режим read-only для подключения других пользователей к сессии, основной пользователь может подключить несколько пользователей в режиме просмотра сессии. При этом только основной пользователь может взаимодействовать с элементами управления, а остальные просто смотрят.
  • Расширенная поддержка NVIDIA vGPU для десктопов на базе SLED 12.x.

4. Пакет Horizon GPO Bundle.

  • Групповая политика URL Content Redirection содержит теперь настройку Url Redirection IP Rules Enabled, которая позволяет настроить IP-адреса и их фильтрацию.
  • Новый файл шаблона групповой политики VMware Horizon Client Drive Redirection ADMX (vdm_agent_cdr.admx) содержит настройки перенаправления клиентских дисков. Он позволяет настроить букву подключаемого устройства и таймаут для инициализации в Windows Explorer.
  • Настройка групповой политики Session Collaboration позволяет передать контроль ввода участникам совместной сессии.
  • Настройки групповой политики VMware Integrated Printing позволяют задать фильтр при перенаправлении клиентского принтера и настроить параметры предварительного просмотра.

5. Horizon 7 Cloud Connector.

Для виртуального модуля Horizon Cloud Connector можно настроить политику устаревания пароля пользователя root.

6. Поддержка VMware Cloud on AWS.

  • Пул мгновенных клонов поддерживает сетевые сегменты NSX-T.
  • Полный список возможностей Horizon 7, поддерживаемых в VMware Cloud on AWS, приведен в KB 58539.

7. Обновленная версия User Environment Manager 7.9.0.

  • Возможности Application blocking и privilege elevation поддерживаются на рабочих станциях, коьторые используют утилиту User Environment Manager SyncTool.
  • Полный список новых возможностей VMware User Environment Manager 7.9 приведен вот тут.

Также еще обновились компоненты VMware Unified Access Gateway 3.5, VMware App Volumes 2.16, VMware Horizon Clients - о них мы расскажем в ближайшее время.

Скачать компоненты инфраструктуры VMware Horizon 7.8 можно по этой ссылке. Release notes доступны тут.

VMware
View
Helpdesk

Обновилась VMware Horizon Helpdesk Utility до версии 1.3

(0 Comment)

Летом прошлого года мы писали об обновлении утилиты для сотрудников технической поддержки, работающих с пользователями инфраструктуры VMware Horizon - Horizon Helpdesk Utility версии 1.2. Это решение реализует всю функциональность Helpdesk в HTML5 интерфейсе управления VMware Horizon, но поставляется теперь как отдельное решение с расширенными возможностями.

На днях на сайте проекта VMware Labs вышло существенное обновление этого средства - Horizon Helpdesk Utility 1.3. Давайте посмотрим, что там появилось нового:

  • Убран вывод списка виртуальных машин из представления сессий.
  • Улучшенное представление Environment view, которое включает метрики для всей подключенной инфраструктуры:
    • vSphere 
    • Hosts 
    • Datastores 
    • Удаленные объекты Pods 
    • Events 
    • Проблемные машины
  • Добавлены повторяющиеся запросы для процедуры logon breakdown, если они были пропущены при первой попытке.
  • Добавлена поддержка запросов к событиям при logon breakdown.
  • Добавлен просмотр событий для фермы и пулов десктопов.
  • Добавлен встроенный поиск пользователей и машин в представлении пулов.
  • Добавлена функция множественного выбора в представлении пулов и фермы.
  • Добавлены графики для машин и сессий, а также проблемные машины в разделе Environment overview.
  • Добавлен pod switcher в Environment overview.
  • Расширены функции Pod Jumping:
    • возможность по требованию перейти к нужному pod
    • возможность перейти к pod, к которому относится выбранная сессия
  • Добавлена поддержка представления Architecture view для пулов десктопов и фермы.
  • Добавлена пакетная поддержка пользовательских задач для пулов десктопов и фермы:
    • Отправление сообщений
    • Log off
    • Disconnect
    • Reset
    • Restart
  • Поддержка представления local pod view (он же Environment view).
  • Добавлена документация (можно выбрать в комбо-боксе загрузки утилиты).
  • Добавлена поддержка MSI-инсталлятора.
  • Добавлена колонка start time в представлении пользовательских сессий.

Скачать VMware Horizon Helpdesk Utility 1.3.3.1 можно по этой ссылке.

VMware
vRNI
Networking

Обнаружение девиантов по трафику в группе виртуальных машин с помощью VMware vRealize Network Insight.

(0 Comment)

Мы часто писали о решении VMware vRealize Network Insight (vRNI), которое позволяет системным и сетевым администраторам, а также администраторам информационной безопасности, смотреть за сетевым взаимодействием в рамках виртуальной инфраструктуры и предпринимать действия по ее защите.

Также с помощью vRNI можно найти 3 типа отклонений для виртуальных машин, работающих непрерывно в виртуальной инфраструктуре:

  • Outliers - девианты по трафику в рамках группы ВМ по сравнению с остальными членами группы.
  • Thresholds - машины, которые превысили пороговые значения по трафику или сбросу пакетов.
  • Top Talkers - самые потребляющие сетевые ресурсы машины в каком-то аспекте мониторинга.

Сегодня мы рассмотрим ситуацию, когда с помощью vRNI можно обнаружить девиантов по трафику (Outliers) в группе виртуальных машин, выполняющих одинаковую функцию. К таким машинам можно отнести, например, веб-серверы, размещенные за балансировщиком и принимающие на себя в среднем одинаковую нагрузку.

Если один из серверов начинает существенно отклоняться (например, отдавать трафика намного больше чем остальные), то это может говорить либо об ошибке в конфигурации балансировщика, либо о каких-то проблемах на этом веб-сервере. Также к таким сервисам можно отнести серверы DNS, Active Directory, кластеры серверов SQL и другие масштабируемые сервисы.

Помимо получения нотификаций о девиантах по SNMP или email, их поведение можно визуализовать на графиках. Это позволит вам сразу понять, какой из серверов ведет себя не как остальные, чтобы сразу приступить в выяснению источника проблемы:

Здесь мы видим, что виртуальная машина cmbu-sc2dc-01 на порту 53 имеет большой поток трафика, гораздо больше, чем остальные, поэтому и попала в категорию "Outliers" на панели справа.

Для мониторинга такого поведения вы можете выбрать один или несколько портов, а также направление трафика (входящий/исходящий), так как есть сервисы, которые в основном принимают данные (например, обработчики), а есть, которые преимущественно отдают (веб-серверы, DNS и т.п.).

Чтобы создать группу Outliers для мониторинга, нужно в консоли vRNI пойти в меню Analytics и там открыть раздел Outliers:

Далее вы увидите список всех настроенных групп Outliers. Там вы увидите, сколько девиантов в каждой группе было обнаружено, какие связанные с ними события произошли, а также информацию о группе (сколько ВМ, их IP и т.п.), также вы увидите, когда были обнаружены эти отклонения.

Для создания новой группы, в правом верхнем углу надо нажать ADD и установить все необходимые настройки:

Здесь они означают следующее:

  1. Имя группы.
  2. Масштаб наблюдения (application tier, NSX Security tag и т.п.).
  3. Для уровня приложения (application tier) нужно выбрать само приложение и его ярус (tier).
  4. Метрика - total traffic (MB, GB и т.п.), число пакетов или сессий, либо объем трафика в секунду.
  5. Направление обнаруживаемого трафика (incoming, outgoing, both).
  6. Направление трафика в датацентре: north-south (интернет-трафик), east-west (внутренний трафик датацентра), либо оба направления.
  7. Порты назначения - можно мониторить все используемые порты, либо выбранные. Но пока есть лимит 20 портов, если он будет превышен, то их надо будет вводить вручную.
  8. Чувствительность алгоритма обнаружения (low, medium, high).
  9. Когда все установлено, vRNI сгенерирует превьюшку результатов на графике, включающем в себя настроенные сетевые потоки.

Если превью вас устроило, то просто нажимаете Submit и добавляете новую группу в систему мониторинга.

Как только обнаруживается Outlier, для него создается открытое событие (Event), оно продолжает висеть в открытых, пока отклонение продолжает существовать. Как только все возвращается в норму, событие закрывается, однако остается в архиве, чтобы администратор знал о происходящем.

В общем, vRNI, хотя бы только с этой стороны - полезная штука!

Источник.

VMware
ESXi
ISO

Как обновить кастомные образы VMware ESXi Custom ISO image до их установки.

(0 Comment)

Многие администраторы VMware vSphere сталкиваются с необходимостью развертывания кастомных образов VMware ESXi, например, от HP или Dell, так как они содержат все необходимые драйверы серверного оборудования.

Но процедура, как правило, такова - сначала администратор развертывает последний доступный образ ESXi Custom ISO, а уже после установки накатывает на него обновления через ESXCLI или Update Manager. Это несколько неудобно, так как зачастую требует перезагрузки уже после окончания основной установки.

Если у вас, например, 1500 хостов ESXi, то дополнительное время которое вы потратите за год на процедуры обновления после основной установки может составить до 42 часов в месяц (при условии, что вы накатываете по каким-то причинам образ ESXi на сервер где-то раз в год). Это, конечно же, очень много, поэтому в таких случаях стоит задуматься об интеграции обновлений в кастомизированный образ ESXi.

На самом деле, делается это достаточно просто с помощью PowerCLI в несколько команд (подробно процесс описан в документе Image Builder Patching):

1. Загружаете патчи в формате zip-бандлов и складываете их в одну папку.

2. Добавляете файл образа в software depot:

Add-EsxSoftwareDepot .\update-from-esxi6.5-6.5_update02.zip

3. Получаем имя стандартного профиля образа командой:

Get-EsxImageProfile | fl *

4. Клонируем этот профиль, используя его имя, полученное на предыдущем шаге:

New-EsxImageProfile -CloneProfile “ESX-6.5.0-20180502001-standard” -Name MyCustomImage
-Vendor “Friendly Neighborhood TAM”

Также можно использовать команду выборки профиля по его номеру:

New-EsxImageProfile -CloneProfile (Get-EsxImageProfile |Select -Last 1).Name -Name
MyCustomImage -Vendor “Friendly Neighborhood TAM”

5. Добавляем файл обновления в software depot командой:

Add-EsxSoftwareDepot .\ESXi650-201810001.zip

6. Выводим список профилей ESXi и убеждаемся, что появились оба наших обновленных профиля (см. профили с датой обновления 9/27):

Get-EsxImageProfile

7. С помощью команд Get-EsxSoftwarePackage и (Get-EsxImageProfile MyCustomImage).viblist просматриваем состав пакета и vib-пакетов:

Get-EsxSoftwarePackage

(Get-EsxImageProfile MyCustomImage).viblist

Эта команда покажет только те vib-пакеты, которые были присоединены к кастомному образу:

8. Устанавливаем для текущего профиля самые новые компоненты, которые есть в нашем хранилище:

Set-EsxImageProfile MyCustomImage -SoftwarePackage (Get-EsxSoftwarePackage -Newest)

9. Экспортируем наш текущий обновленный образ в форматы ISO и zip:

Export-EsxImageProfile MyCustomImage -ExportToIso .\ESXi.6.5U2-Patched.iso

Export-EsxImageProfile MyCustomImage -ExportToBundle .\ESXi.6.5U2-Patched.zip

После этого данные файлы можно использовать для развертывания / обновления хостов ESXi.

Если процедура осталась неясна - читайте документ Image Builder Patching.

VMware
Labs
Workspace ONE

Новое на VMware Labs - Workspace One UEM Workload Migration Tool.

(0 Comment)

На сайте проекта VMware Labs появилась полезная многим Enterprise-администраторам утилита Workspace One UEM Workload Migration Tool. Она позволяет провести бесшовную миграцию конфигураций приложений и устройств между различными окружениями Workspace One UEM.

Нажатием одной кнопки можно переместить конфигурации среды приемочного тестирования UEM в производственную среду предприятия, без необходимости вводить информацию об исходном и целевом окружении и загрузки файлов. Все это существенно уменьшает время на исполнение цикла ввода обновлений пользовательских окружений в эксплуатацию.

Для успешного выполнения миграции вам потребуется:

  • Сетевое соединение между двумя площадками.
  • Компьютер с Windows 10.
  • 2 рабочих окружения Workspace One UEM.
  • Учетные данные администратора (API credentials) и разрешения (API permissions) для обоих окружений.

Скачать Workspace One UEM Workload Migration Tool можно по этой ссылке.

VMware
vSphere
Troubleshooting

Как создать алармы (Alarms) для любых событий (Events) в VMware vSphere.

(0 Comment)

Очень дельную статью написал Вильям Лам, касающуюся настройки алармов для различных событий в инфраструктуре VMware vSphere. Иногда системному администратору требуется настроить мониторинг каких-либо действий пользователей, которые вызывают генерацию событий в консоли vSphere Client.

Например, вы хотите получать аларм, когда пользователь создает папку (Folder) для виртуального окружения через vSphere Client. Для начала нам понадобится информация, которую мы будем использовать в описании аларма. Для этого мы делаем действие, генерирующее событие, вручную (в данном случае, создаем папку), а после этого идем в раздел Monitor->Tasks, где смотрим описание задачи и связанного с ней события:

Главное здесь для нас - это лейбл "Task: Create folder", по которому мы найдем этот тип событий через PowerCLI, а точнее его Description Id. Открываем консоль PowerCLI и выполняем там вот такую команду, указав лейбл нашего события, найденный в консоли vSphere Client:

$createFolderEvents = Get-VIEvent | where {$_.GetType().Name -eq "TaskEvent" -and $_.FullFormattedMessage -eq "Task: Create folder" }
$createFolderEvents[0].Info.DescriptionId

Результатом будет Description Id нашего события - это Folder.createFolder:

Далее можно создавать аларм, зная Description Id события. Выбираем тип условия Task event, а также описание в виде Description Id, тип условия end with и сам этот ID - Folder.createFolder:

После создания такого аларма, при каждом создании папки он будет срабатывать, что можно увидеть в разделе Triggered Alarms:

Таким же образом вы можете настроить алармы и для любых других событий, происходящих в инфраструктуре VMware vSphere.



VMware NSX-T 2.4 Demo: Simplified Network Operations & Management

(0 Comment)
VMware
vSAN
Performance

Лимитирование по IOPS виртуальных машин в кластере VMware vSAN - как это влияет на машину и ее соседей.

(0 Comment)

Политика ограничения виртуальных машин по операциям ввода-вывода (IOPS limits storage policy rule) позволяет ограничить виртуальную машину в кластере VMware vSAN в плане потребления ресурсов хранилища. Она применяется для VMDK дисков машин и, как правило, используется в ситуациях, когда нужно изолировать "прожорливого соседа" - то есть виртуальную машину, которая может начать потреблять несоразмерно много ресурсов хранилища по вводу-выводу на хосте ESXi, вызывая большие задержки (latency) у других машин этого хоста. При этом такая машина на данном хосте может быть далеко не самой важной.

Ограничение машины по IOPS имеет некоторые особенности. Размер операции ввода-вывода может варьироваться в диапазоне от 4 КБ до 1 МБ. Это означает, что самая большая операция может быть в 256 больше по объему самой маленькой. Поэтому при применении ограничения по IOPS решение vSAN использует так называемые "взвешенные IOPS", определяемые квантами по 32 КБ (об этом мы писали вот тут). При размере операции до 32 КБ планировщик vSAN считает ее как одну операцию, 32-64 КБ - как две, и так далее.

Это позволяет при визуализации метрик производительности нормализовать поток данных к хранилищу и управлять им при импорте настроек из механизма SIOC, который применяется к виртуальным машинам не в кластере vSAN. Надо отметить, что vSAN имеет собственную механику регуляции I/O и собственный планировщик, поэтому механизм SIOC не применяется к таким хранилищам.

Соответственно, давайте взглянем на графики операций ввода-вывода на вкладке Monitor->vSAN->Performance:

На нижнем графике (Virtual SCSI IOPS) мы видим число реальных операций ввода-вывода, независимо от их размера, а на верхнем - уже нормализованные IOPS и лимиты, применяемые к ВМ.

IOPS limit применяется только ко всему потоку ввода-вывода гостевой ОС машины (то есть ярус хранения, ярус кэширования), но не затрагивает операции с самим диском VMDK и его swap-файлами, например, репликация машины, SVmotion (миграция хранилища), XVmotion (миграция машин без общего хранилища) и клонирование ВМ.

Если машина достигает лимита по IOPS, планировщик vSAN для нее начинает откладывать операции ввода-вывода до завершения транзакции таким образом, чтобы они не превышали заданного лимита по нормализованному числу операций в секунду. Это все приводит к тому, что задержки исполнения данных операций (latency) существенно возрастают, что видно на графике Virtual SCSI Latency:

Здесь мы видим, что при достижении лимита 200 IOPS latency возросла до 580 мс, а при достижении 400 мс - где-то до 230-290 мс. Эти задержки, возникающие на уровне виртуальной машины, проявляют себя также и на уровне всего хоста, кластера и даже приложений, таких как vRealize Operations.

Этот важный фактор надо учитывать, когда вы ищете причину высокой latency, потому что механизм vSAN Performance Service не делает различий, возникли ли задержки из-за проблем с производительностью, или они являются результатом применения IOPS limits.

Интересно также, что применение IOPS limits storage policy rule к одной виртуальной машине может повлиять и на другую ВМ, к которой не применяется этого правила. Например, вы копируете файлы одной ВМ на вторую (и обратно), у которой есть IOPS limit. При достижении этого лимита, очевидно, происходит уменьшение числа IOPS не только у целевой ВМ, но и у источника, так как происходит уменьшение совокупного числа операций ввода-вывода на передачу файлов.

При этом у исходной ВМ в этом случае не будет существенного изменения latency, так как ее операции откладываться не будут (посмотрите на левый и правый графики этой ВМ):

К сожалению, описанные эффекты влияния на производительность ВМ не всегда просто идентифицировать, поэтому нужно всегда осторожно выставлять IOPS limit и всегда четко его документировать в описании конфигурации виртуальной инфраструктуры.

VMware
vSphere
Client

Вышло обновление VMware vSphere Client 4.1 - новые возможности.

(0 Comment)

В середине января мы писали о первом в этом году обновлении VMware vSphere Client 4.0 - официальном клиенте vSphere на базе технологии HTML5. На днях компания VMware на сайте проекта Labs выпустила новую версию vSphere Client 4.1, которая уже доступна для загрузки.

Давайте посмотрим, что нового появилось в тонком клиенте vSphere версии 4.1:

  • Обратно была добавлена поддержка VMware vCenter 6.0, которая пропала в прошлой версии. Теперь в качестве серверов vCenter поддерживаются версии 4.1 - 6.0, 6.5 и 6.7.
  • Возможность спрятать виртуальные машины в представлении Hosts and Clusters. Эта фича пришла с десктопных клиентов (Workstation и Fusion), она позволяет убрать ВМ, чтобы они визуально не засоряли консоль (делается это через My preferences -> Inventory).
  • Настройки My preferences теперь содержат дополнительные опции, такие как язык, временная зона, параметры консоли и инвентори.
  • В Developer Center теперь есть вкладка API Explorer, на которой есть список всех REST API, предоставляемых vSphere SDK.
  • Новая компоновка элементов feedback tool. Кроме того, теперь можно можно делать скриншот клиента, даже когда открыты модальные диалоговые окна. Также feedback tool теперь имеет возможности по добавлению скриншотов, что позволяет сравнить фичи между различными версиями клиентов.
  • Нотификация об устаревании лицензии теперь показывает 90 дней вместо 60.
  • Лицензия Evaluation License теперь отображается в списке лицензий. Сам же список теперь сортируется по дате устаревания лицензий.

Скачать VMware vSphere Client 4.1 можно по этой ссылке.

VMware
NSX
Update

Вышло обновление решения для сетевой виртуализации, агрегации и управления сетями гибридных датацентров - VMware NSX-T 2.4.

(0 Comment)

Недавно VMware объявила о большом обновлении своего решения для сетевой виртуализации и агрегации виртуальных сетей датацентров, работающих на базе гибридной среды гипервизоров и контейнеров приложений Kubernetes/Docker - VMware NSX-T 2.4 (кстати, вот видео об отличии этого решения от NSX-V для vSphere).

Это уже пятое обновление данной платформы, при этом для компании это большой анонс, так как продукт существенно расширяет возможности по обеспечению сетевой управляемости гибридных (облачных и онпремизных) инфраструктур и обеспечивает полную поддержку протокола IPv6.

Напомним, что прошлая версия NSX-T 2.3 вышла в сентябре прошлого года. С тех пор многое изменилось, поэтому давайте посмотрим, что нового (из основного) появилось в NSX-T 2.4:

1. Упрощение установки, конфигурации и ежедневного оперирования.

В этой области появилось 3 основных улучшения:

  • Новый виртуальный модуль NSX manager appliance, который поддерживает кластерную конфигурацию до 3 узлов, каждый из которых выполняет функции обеспечения политик и контроля сетевой инфраструктуры. Это дает высокий уровень отказоустойчивости. Также установщик имеет модули Ansible для упрощения процедуры автоматизированной установки и настройки рабочих процессов.
  • Радикально упрощенный пользовательский интерфейс, где еще более продуманы значения по умолчанию и уменьшено число экранов и кликов для ежедневных операций.
  • Контекстный поиск с мощными функциями по автозаполнению, что упрощает решение проблем из консоли NSX-T.

Вот в качестве примера окно обзора конфигураций - видно, насколько все стало более наглядным и удобным для восприятия:

2. Декларативная модель политик.

Эта новая модель распространения конфигураций и настроек безопасности позволяет пользователю определить, что необходимо для обеспечения связности и безопасности, вместо того, чтобы задавать, как нужно пройти по шагам процесс настройки.

Вместо детализированных вызовов API, которые должны быть выполнены в строго определенной последовательности, NSX Manager теперь принимает на вход декларативное описание политики в виде одной API команды с данными в формате JSON, которое несложно понять (а значит, увеличивается прозрачность операций).

Также такой подход уменьшает число вероятных ошибок, связанных с последовательностью или полнотой команд API. К тому же, он позволяет легко переносить описание политики для приложения между платформами. В видео ниже показан реальный пример использования таких декларативных политик (с семнадцатой минуты):

3. Расширенные возможности безопасности.

Новый релиз NSX продолжает развивать концепцию микросегментации приложений. В этом направлении появились следующие новые возможности:

  • Фаервол на базе сетевой идентичности приложения.
  • Белые списки адресов FQDN/URL на распределенном фаерволе (DFW) для разрешения определенного типа трафика ВМ к определенным адресам или хостам в датацентре:

  • Возможность анализа трафика на уровне гостевой ОС (guest introspection).
  • Возможности E-W service insertion (контроль трафика в пределах датацентра средствами сторонних IDS/IPS-систем).

Также в NSX-T 2.4 существенно был улучшен механизм аналитики и визуализации данных, а также появилась поддержка Splunk и VMware vRealize Log Insight.

Ну а о новых возможностях обеспечения сетевой безопасности можно узнать из этого видео:

4. Высокий уровень масштабируемости, надежности и производительности.

Прежде всего, в рамках новых возможностей в этой категории, у NXS-T появилась полноценная поддержка протокола IPv6. Кластер NSX-T теперь состоит из 3 полноценных и равноправных узлов, что дает расширенные возможности по масштабированию решения и обеспечению надежности.

В одном NSX-домене теперь может быть более 1000 хостов с полной поддержкой разделения сетевой инфраструктуры между различными клиентами уровня виртуального датацентра.

5. Партнерства и новые возможности для пользователей.

Со стороны NSX-T поддержка продуктовой линейки VMware и партнерских решений была существенно расширена. Теперь такие решения, как Kubernetes, VMware PKS, Pivotal Application Service (PAS) и Red Hat OpenShift в различной мере поддерживаются NSX-T, и их поддержка будет только расширяться.

Конечно же, обеспечивается поддержка облачных решений, особенно VMware Cloud on AWS и нативных облачных нагрузок через VMware NSX Cloud. Также продукт NSX-T включен в состав таких платформ, как VMware Cloud Foundation, VMware vCloud NFV, а в будущем и в AWS Outposts и VMware Cloud Foundation for EC2.

Более подробно о новых возможностях VMware NSX-T 2.4 рассказано в Release Notes. Скачать продукт можно по этой ссылке. Вот еще несколько полезных ресурсов:

VMware
PowerCLI
Update

Вышло обновление фреймворка VMware PowerCLI 11.2.0 - что нового?

(0 Comment)

На днях компания VMware выпустила первое в этом году обновление своего фреймворка для управления виртуальной инфраструктурой PowerCLI 11.2.0. Напомним, что о прошлом обновлении - PowerCLI 11.1 - мы писали вот тут.

Давайте посмотрим, что нового появилось в обновлении PowerCLI 11.2:

Новый модуль для VMware HCX.

Решение VMware HCX - это набор утилит для управления гибридной средой, состоящей из ресурсов облака и онпремизной инфраструктуры. С помощью нового модуля для HCX вы можете выполнять миграции vMotion (в том числе, в пакетном режиме), включая очень большие ВМ, поддерживать жизненный цикл ВМ, а также защищать данные в целях катастрофоустойчивости, дублирование которых происходит на уровне площадок.

Всего здесь было добавлено 20 командлетов, решающих подобные проблемы. Более подробно о них можно почитать вот тут.

Добавлена поддержка служб NSX-T Policy services.

Решение NSX-T позволяет абстрагировать управление сетями и безопасностью сетевой инфраструктуры датацентра с помощью политик. Также NSX-T применяется для обеспечения доступности сервисов.

За счет нового командлета Get-NsxtPolicyService теперь можно автоматизировать большинство операций по управлению политиками, используя стандартный API. Командлет совместим с недавно анонсированной новой версией решения NSX-T 2.4.

Добавлена поддержка служб OAuth для соединения с vCenter.

В плане поддержки инфраструктуры безопасности VMware Cloud on AWS, в новой версии PowerCLI был существенно доработан механизм аутентификации. Теперь появилось 2 новых командлета для аутентификации и обновился существующий командлет для поддержки механизма OAuth2.

Для облачного модуля VMC появился специальный командлет New-VcsOAuthSecurityContext, который позволяет использовать контекст безопасности сессии работы пользователя на базе токена VMware Cloud on AWS

Для модуля Core появился командлет New-VISamlSecurityContext, который позволяет получить и использовать контекст безопасности OAuth и транслировать его в контекст SAML2, который уже используется для соединения с vCenter (Connect-VIServer) и прочего.

Передача контекста выглядит следующим образом:

$oauthCtx = New-VcsOAuthSecurityContext -ApiToken "xxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx"
$samlCtx = New-VISamlSecurityContext -VCenterServer "vcsa.fqdn" -OAuthSecurityContext $oauthCtx
Connect-VIServer -SamlSecurityContext $samlCtx

На данный момент эта функциональность работает только в GovCloud для правительственного облака.

Поддержка Opaque Networks (сетей виртуальной инфраструктуры, которые управляются извне решения vSphere, например, OpenStack).

С помощью командлетов Set-NetworkAdapter и Import-VApp можно организовать поддержку сетей Opaque Networks. Более подробно об этом можно почитать в статье Configuring VMs For Opaque Networks.

Обновленные командлеты модуля Storage.

Командлет Get-VsanSpaceUsage теперь имеет новый параметр, который позволяет возвращать результаты по определенной политике хранилищ.

Также в командлет добавили несколько параметров от командлета Set-VsanClusterConfiguration (CustomizedSwapObjectEnabled, GuestTrimUnmap, LargeClusterSupported, ObjectRepairTimerMinutes и SiteReadLocalityEnabled). Обновился и командлет Test-VsanNetworkPerformance, который теперь имеет параметр DurationInSecond (с помощью него можно регулировать время тестирования производительности хранилища).

Посмотреть историю изменений VMware PowerCLI 11.2.0 можно по этой ссылке. Документация доступна тут. Если вы что-то забыли, то всегда можно воспользоваться справочником по PowerCLI - VMware PowerCLI 11.2.0 Cmdlet Reference.

Напомним, что обновить актуальную версию PowerCLI на обновление версии 11.2, можно использовать команду:

Update-Module VMware.PowerCLI

VMware
vSAN
Cloud

Что такое VMware Elastic vSAN на базе сервиса Amazon Elastic Block Store (EBS).

(0 Comment)

Еще на конференции VMworld 2018 компания VMware анонсировала инициативу по использованию в качестве инфраструктуры блочных хранилищ сервисов Amazon Elastic Block Store (называлось это EBS backed vSAN). Несколько позднее это оформилось в виде технологии VMware Elastic vSAN, которая будет доступна в ближайшем будущем.

Изначально сервис VMware vCloud on AWS, предоставляющий виртуальную инфраструктуру виртуальных машин в аренду из облака Amazon, использовал инстансы I3.Metal в облаке EC2. Но для некоторых пользователей, имеющих существенные объемы данных, масштабирование за счет только увеличения числа инстансов в кластере не подходило - столько вычислительных ресурсов не требовалось, а требования к объему дискового пространства упирались в физические возможности хостов (10 ТБ на инстанс I3.Metal).

Поэтому VMware предложила другое решение - сделать хранилище инфраструктуры vSphere в облаке внешним, взяв за основу инстанс R5.Metal и подключив к нему масштабируемое облачное хранилище Elastic Block Store (EBS):

При создании бездисковых хостов Elastic vSAN пользователь указывает объем хранилища на хост (от 15 до 35 ТБ с шагом 5 ТБ), который требуется для кластера виртуальной инфраструктуры хранилищ, и она достраивается из компонентов блочного пространства EBS.

Когда технология Elastic vSAN включена, каждый хост имеет 3 дисковых группы, а каждая группа имеет от 3 до 7 дисков полезной емкости (помимо кэш-дисков):

Для такой конфигурации, чтобы обеспечить политику Failures to Tolerate = 1, рекомендуется включать RAID-5 (для этого нужно минимально 4 узла) и настройку "Compression only mode" для экономии дискового пространства. В этом случае не потребуется включать дедупликацию (она и недоступна в целях обеспечения высокой производительности), компрессии будет достаточно.

Все это дает возможность использовать меньшее число хостов, чем в случае с I3.Metal, что особенно полезно для нагрузок, которым не требуется много вычислительных ресурсов, но требуется много хранилища (например, файловые помойки). Это дает 140 ТБ сырой емкости на 4-узловой кластер и 560 ТБ на 16 узлов. Этого должно хватить практически всем.

Также при использовании I3.Metal или онпремизного кластера vSAN, в ситуации с эвакуацией виртуальных машин хоста для целей обслуживания, приходилось переносить все его содержимое на другой инстанс, что занимало значительное время. Для бездисковых инстансов R5.Metal получается так, что в случае выведения хоста из эксплуатации его хранилища на стороне EBS можно за небольшое время просто переподключить к новому инстансу - это и будет миграцией хоста без физического переноса данных.

Помимо упрощения обслуживания, такая архитектура дает еще несколько возможностей по построению гибких решений, в которых можно внедрять новые фичи Elastic vSAN быстрее, чем в онпремизных решениях. Заявлено, что новая архитектура будет выдавать до 10K IOPS на устройство/том (вне зависимости от его размера, минимальный размер 3 ТБ) и пропускную способность до 160 Мбит/с.

Обо всех будущих новых возможностях VMware vCloud on AWS вы можете узнавать на специальной странице. Ну и рекомендуем посмотреть запись сессии об Elastic vSAN с VMworld 2018 (там есть еще и интересная презентация в PDF).

VMware
vSphere
Health

Что представляет собой механизм VMware vSphere Health?

(0 Comment)

Одна из новых возможностей, анонсированных в платформе виртуализации VMware vSphere 6.7 - это vSphere Health. О ней мы уже вкратце упоминали вот тут.

Сегодня мы дополним эту информацию. Механизм vSphere Health опирается на глобальную базу знаний VMware, которая позволяет ежедневно выдавать предупреждения о 100 тысячах потенциальных проблем в инфраструктурах заказчиков и решать около 1000 актуальных проблем каждый день.

На данных момент vSphere Health включает в себя около 30 проверок (Heath Checks), которые запускаются для окружения vSphere. Вот примеры проблем, которые могут подсвечивать данные проверки:

Для фиксирования, аналитики и поиска решений подобных проблем компания VMware использует облако VMware Analytics Cloud (VAC), которое принимает данные телеметрии виртуальных инфраструктур (онпремизных и SaaS-приложений) и формирует рекомендации по решению проблем. Сами данные в обезличенном виде передаются с помощью движка Customer Experience Improvement Program (CEIP).

Облако VAC постоянно анализирует пользовательские виртуальные среды, при этом оно постоянно пополняется новыми знаниями о проблемах, которые в асинхронном режиме отображаются в интерфейсе пользователей в vSphere Client (для vSphere 6.7 и более поздних версий).

Данные инфраструктур заказчиков, которые попадают в облако VAC через механизм CEIP, надежно защищаются. Их использование людьми доступно только для выполнения определенных задач. Сами правила регулируются комитетом Product Analytics Data Governance Board, куда входят инженеры, юристы, специалисты по безопасности и прочие сотрудники с различными ролями. Эта команда регулярно проверяет рабочий процесс использования этих данных. Естественно, эти данные не передаются третьим сторонам.

О том, какие именно данные собираются с помощью CEIP, и как они используются, можно почитать в специальном документе (он небольшой, 10 страниц). Включить CEIP можно через интерфейс vSphere Client следующим образом:

Также этот механизм можно включить при апгрейде платформы vSphere или через интерфейс командной строки (CLI). В рамках CEIP собирается следующая информация о виртуальной среде:

  • Configuration Data – как и что у вас настроено в плане продуктов и сервисов VMware.
  • Feature Usage Data - как именно вы используете возможности продуктов и сервисов.
  • Performance Data - производительность различных объектов виртуальной инфраструктуры в виде метрик и чсиленных значений (отклик интерфейса, детали об API-вызовах и прочее).

Если в рамках вашего плана поддержки вы используете Enhanced Support для CEIP (например, Skyline), то на серверы VMware для анализа отправляются еще и продуктовые логи (Product Logs). Документация по CIEP доступна здесь.

Чтобы посмотреть текущие проверки Health Checks, нужно перейти на вкладку Monitor сервера vCenter Server, после чего перейти в раздел Health:

Там видны проблемы и объекты, к которым они относятся (в данном случае, к хостам ESXi):

Завтра мы расскажем подробнее о том, как работают эти проверки, какие решения они предлагают, и как помогают администратору держать виртуальную инфраструктуру в порядке.

VMware
vCenter
Troubleshooting

Проверки виртуальной инфраструктуры VMware vCenter Health Сhecks в vSphere 6.7 Update 1.

(0 Comment)

В конце прошлого года мы писали о новых возможностях VMware vCenter в составе обновленной платформы виртуализации VMware vSphere 6.7 Update 1. Среди прочих интересных фичей, vCenter 6.7 U1 получил функцию Health Сhecks, которая позволяет обрабатывать данные телеметрии виртуальной инфраструктуры и на основе экспертных алгоритмов вырабатывать рекомендации по ее улучшению. Например, если у вас одна сеть Management network, вам могут порекомендовать ее задублировать.

Вчера мы писали об общем устройстве механизма vSphere Health. Давайте теперь детально посмотрим, как именно это работает. Сделано это чем-то похоже на службы vSAN Health Services, но здесь больше проактивной составляющей (то есть рекомендации генерируются постепенно и еще до возникновения реальных проблем).

Для просмотра основных хэлсчеков сервера vCenter, нужно в vSphere Client пойти на вкладку Monitor и выбрать там раздел Health:

Чтобы эти фичи функционировали корректно, нужно чтобы у вас была включена настройка Customer experience improvement program (CEIP). Если вы не включили ее во время установки vCenter, то вы всегда можете сделать это в разделе Administration клиента vSphere Client:

Надо отметить, что vCenter Health Сhecks не только оповещает о проблемах виртуальной инфраструктуры, но и в некоторых случаях предоставляет ссылки на статьи базы знаний VMware KB, которые могут помочь найти решения.

Если вы нажмете на какой-нибудь из ворнингов, например, "Disk space check for VMware vCenter Server Appliance", то увидите две группы параметров на вкладках "Details" и "Info":

На вкладке Details отображены численные значения и/или объекты виртуальной инфраструктуры, имеющие отношение к предупреждению, а вот вкладка Info разъясняет его суть и дает рекомендации по его устранению. Если же в правом верхнем углу появился значок "Ask VMware", значит для данного предупреждения есть ссылка на статью базы знаний VMware KB, которая может помочь:

Например, здесь на двух из трех хостов ESXi установлена не последняя версия драйвера bnx2x (адаптер Broadcom NetXtreme II 10Gb):

На вкладке Info объясняется, что хосты с такой версией драйвера этого устройства могут вывалиться в "розовый экран":

Если нажмем "Ask VMware", то в новой вкладке откроется статья KB, описывающая проблемы данной версии драйвера и пути их решения:

Если вы сделали изменения конфигурации согласно рекомендациям, вы можете нажать кнопку RETEST в правом верхнем углу, чтобы увидеть только актуальные предупреждения:

VMware
vSAN
Book

Новая книга Operationalizing VMware vSAN - как управлять инфраструктурой хранилищ после внедрения.

(0 Comment)

Совсем недавно мы писали о книге по управлению инфраструктурой отказоустойчивых хранилищ с помощью сценариев - VMware PowerCLI Cookbook for vSAN, но оказалось, что есть еще одна книга, которая посвящена управлению средой vSAN. В документе-книге Operationalizing VMware vSAN, которая также занимает 88 страниц и вышла под эгидой VMware Press, рассказывается обо всех аспектах процесса интеграции vSAN в структуру организации после его внедрения - начиная от структурирования так называемых "day 2 operations" (ежедневная эксплуатация) и заканчивая процессами управления командой и разграничением ролей.

Предисловие к книге написал главный технолог VMware - Дункан Эппинг. Книга покрывает следующие аспекты эксплуатации vSAN:

  • Почему важно наладить процессы ежедневных операций и формализовать их.
  • Как измерять результат от интеграции vSAN в бизнес компании.
  • Какие роли выделить под эксплуатацию инфраструктуры, как разграничить ответственность, какие сертификации кому нужно получить, и как люди должны между собой взаимодействовать.
  • Рекомендации по выполнению ежедневных действий.
  • Эффективное использование ресурсов, отслеживание производительности и текущего состояния компонентов инфраструктуры.
  • Утилиты для мониторинга среды и решения проблем.

Если вы уже внедрили vSAN и не уверены, что все делаете правильно (а особенно если уверены), то обязательно хотя бы пролистайте эту книжку.

VMware
Update Manager
Update

Использование VMware Update Manager Download Service (UMDS) для организации централизованных обновлений vSphere.

(0 Comment)

Некоторые администраторы инфраструктуры VMware vSphere знают, что существует средство Update Manager Download Service (UMDS), с помощью которого можно скачивать обновления ESXi для последующего их наката со стороны vSphere Update Manager (VUM), интерфейс которого сейчас реализован в vSphere Client на базе HTML5:

UMDS вам может оказаться полезным в двух случаях:

  • Вы не можете выставить в интернет сервер vCenter, частью которого является VUM, для загрузки обновлений (например, в соответствии с корпоративными политиками). Поэтому нужно развернуть UMDS на компьютере в DMZ, с которого VUM будет забирать обновления (либо вы будете их перекидывать на VUM вручную).
  • У вас есть несколько серверов Update Manager, и вы используете UMDS в качестве централизованной точки распространения обновлений серверов ESXi, чтобы каждый vCenter не скачивал обновления из интернета самостоятельно.

Начиная с Update Manager версии 6.7, сервис UMDS доступен для развертывания на платформах Windows и Linux. Для Windows поддерживаются те же серверные ОС, что и для сервера vCenter, а для Linux список систем можно найти в документации. Вот они:

  • Ubuntu 14.0.4
  • Ubuntu 18.04
  • Red Hat Enterprise Linux 7.4
  • Red Hat Enterprise Linux 7.5

Кстати, начиная с vSphere 6.7 Update 1, VMware отменила требование к созданию базы данных для UMDS, поэтому использование сервиса стало еще проще и удобнее.

Если вы используете UMDS на Windows, то вам понадобится Microsoft .NET framework 4.7 и та же версия UMDS, что и сам Update Manager.

На Linux UMDS автоматически не создает переменной PATH для сервиса vmware-umds. Чтобы запустить команду vmware-umds нативно, нужно добавить переменную окружения с путем к сервису следующей командой:

PATH=”$PATH”:/usr/local/vmware-umds/bin

Чтобы на Linux посмотреть текущую конфигурацию UMDS, нужно выполнить команду:

/usr/local/vmware-umds/bin/vmware-umds -G

Здесь мы видим сконфигурированные урлы для хранилищ обновлений (depots), локальный путь к хранению патчей и путь экспорта хранилища, по которому серверы VUM будут забирать обновления. Также здесь мы видим, контент каких версий ESXi нужно скачивать.

Если у вас все хост-серверы одной версии, например, ESXi 6.7, то вы можете отключить скачивание всех остальных образов командой:

sudo ./usr/local/vmware-umds/bin/vmware-umds -S -d embeddedEsx-6.0.0 embeddedEsx-6.5.0 embeddedEsx-6.6.1 embeddedEsx-6.6.2 embeddedEsx-6.6.3

Еще одна важная опция - это задание собственного пути к репозиторию обновлений. Например, если вы используете кастомизированные образы ESXi для серверов Dell, то вы можете добавить адрес репозитория следующей командой:

sudo ./usr/local/vmware-umds/bin/vmware-umds -S --add-url http://vmwaredepot.dell.com/index.xml --url-type HOST

После того, как URL репозитория добавлен, мы можем принудительно скачать все образы обновлений командой:

sudo /usr/local/vmware-umds/bin/vmware-umds -D

Полный список опций UMDS можно получить с помощью вот этой команды:

/usr/local/vmware-umds/bin/vmware-umds --help

Далее вам нужно уже пойти на сервер VMware Update Manager и настроить его на использование с репозиторием UMDS. Если у вас очень высокие требования к безопасности, то вы можете отнести обновления на сервер VUM, например, на флешке. Второй вариант - настроить на UMDS веб-сервер и указать его как путь для обновлений от VUM.

Если вы используете вариант с веб-сервером, то его публичную папку надо настроить на следующий путь по умолчанию:

  • C:\ProgramData\VMware\VMware Update Manager\Data\ - на Windows.
  • /var/lib/vmware-umds - на Linux.
VMware
PowerCLI
NSX

На VMware Labs обновился PowerCLI Preview for NSX-T.

(0 Comment)

На сайте проекта VMware Labs появилось обновление полезной штуки для администраторов больших виртуальных инфраструктур - PowerCLI Preview for NSX-T. Напомним, что мы писали об этом решении вот тут. Оно предоставляет интерфейс PowerCLI/PowerShell к управлению решением для сетевой виртуализации NSX-T с помощью сценариев. Кстати, пользуясь случаем, рекомендуем вам статью нашего автора Романа Гельмана "Как управлять ролями NSX-менеджера при помощи PowerNSX".

Надо отметить, что это все еще Community Preview версия пакета команд, которая скоро будет добавлена в состав экосистемы PowerCLI, но на данный момент ее рекомендуется использовать только в тестовых целях.

Кстати, авторы отмечают, что получение дочернего объекта на основе всего родительского пока не работает, вместо этого рекомендуют использовать ID родителя (например, для команды Get-FirewallRule нужно использовать -SectionId и указать родительскую секцию вместо передачи родителя целиком в параметр -FirewallSection).

Для работы необходим PowerCLI 10.0.0 или более поздней версии.

VMware
View
vCheck

Полезная утилита vCheck for VMware Horizon для проверок состояния инфраструктуры виртуальных ПК.

(0 Comment)

Некоторые из вас, возможно, слышали об утилите vCheck for Horizon (vCheck-HorizonView), которая позволяет вам на регулярной основе готовить отчеты о текущем состоянии инфраструктуры виртуальных ПК VMware Horizon View. Этот проект базируется на утилите vCheck для VMware vSphere, которая развивается уже почти 7 лет.

В новой версии vCheck for Horizon появились следующие новые возможности:

1. Проверки состояния инфраструктуры ферм RDS:

2. Проверки состояния домена Active Directory:

3. Вызов vCenter API был разделен на 3 части - состояние сервиса vCenter, статус хостов ESXi и состояния подключенных датасторов:

4. Также была добавлена проверка работоспособности механизмов saml и truesso.

Скачать vCheck for Horizon можно по этой ссылке, а пример итогового отчета в формате HTML можно посмотреть вот тут.

VMware
AVA
Troubleshooting

Вышел VMware Automated Virtual Assistant (AVA) - виртуальный помощник для администраторов.

(0 Comment)

Недавно компания VMware объявила о выпуске бета-версии сервиса VMware Automated Virtual Assistant (AVA) - виртуального помощника, который может вам подсобить с поиском документации о продуктах VMware. Этот помощник предоставляется в виде чат-бота, который можно использовать посредством языка естественных запросов NLP (natural language processing). Он агрегирует знания из документации по vSphere, Horizon, vSAN и всем прочим продуктам, а также имеет ответы на соответствующие FAQs, которые есть по практически всем решениям VMware.

Например, вот таким образом можно спросить о документации, касающейся производительности виртуальных процессоров машин (vCPU) на платформе VMware vSphere 6.5:

Для активации помощника VMware AVA нужно просто зайти на сайт VMware Docs и вызвать всплывающее окно с любой страницы.

Пока AVA находится в режиме Training Mode - это означает, что движок еще проходит стадию обучения, и вы можете помочь ему корректно отвечать на вопросы своей обратной связью (для этого предусмотрен соответствующий функционал - например, пометить, какой из предложенных вариантов оказался лучшим). Это позволит объединить похожие запросы и выдавать более релевантные результаты в будущем.

Помимо запросов к документации и часто задаваемым вопросам, вы можете поделиться с AVA своей проблемой (конечно же, касательно виртуальной инфраструктуры:) - и она попытается найти решение.

Кстати, обратите внимание, что на картинке выше показано, что AVA помнит контекст беседы. Она запомнила, что речь будет идти о платформе vSphere версии 6.5, и все дальнейшие вопросы она будет воспринимать как относящиеся именно к этому продукту.

Пока Automated Virtual Assistant доступен только на английском языке, но обещают и поддержку других языков. Однако, как мы знаем, VMware не очень жалует русский, поэтому не стоит ждать его поддержки, по крайней мере, в ближайшем будущем. А так AVA - штука весьма интересная.

VMware
Labs
USB

Полезная штука - на VMware Labs появился USB Network Native Driver for ESXi.

(0 Comment)

На сайте проекта VMware Labs появилась интересная и полезная некоторым администраторам vSphere штука - USB Network Native Driver for ESXi. Это нативный драйвер для сетевых адаптеров серверов, которые подключаются через USB-порт.

Такой адаптер можно использовать, когда вам необходимо, например, подключить дополнительные Ethernet-порты к серверу, а у него больше не осталось свободных PCI/PCIe-слотов. В каких-то еще случаях подключение такого адаптера может помочь, чтобы получить еще одно сетевое соединение без необходимости перезагружать сервер (и так же просто отключить его).

На данный момент драйвер поддерживает 3 самых популярных чипсета на рынке:

  • ASIX USB 2.0 gigabit network ASIX88178a
  • ASIX USB 3.0 gigabit network ASIX88179
  • Realtek USB 3.0 gigabit network RTL8153

А вот, собственно, и сами поддерживаемые адаптеры:

Надо отметить, что это сравнительно недорогие устройства, которые может позволить себе каждый администратор платформы vSphere.

Установка драйвера производится одной командой:

esxcli software vib install -d /path/to/the offline bundle

Затем нужно будет перезагрузить хост VMware ESXi, после чего устройство USB NIC будет автоматически смонтировано как, например, vusb0. Но чтобы приаттачить такой NIC к виртуальному коммутатору vSwitch, придется добавить в /etc/rc.local.d/local.sh такой скрипт:

vusb0_status=$(esxcli network nic get -n vusb0 | grep 'Link Status' | awk '{print $NF}')
count=0
while [[ $count -lt 20 && "${vusb0_status}" != "Up" ]] ]
do
sleep 10
count=$(( $count + 1 ))
vusb0_status=$(esxcli network nic get -n vusb0 | grep 'Link Status' | awk '{print $NF}')
done

if [ "${vusb0_status}" = "Up" ]; then
esxcfg-vswitch -L vusb0 vSwitch0
esxcfg-vswitch -M vusb0 -p "Management Network" vSwitch0
esxcfg-vswitch -M vusb0 -p "VM Network" vSwitch0
fi

Драйвер работает с VMware vSphere 6.5 и 6.7. Скачать его можно по этой ссылке.

VMware
PowerCLI
vSAN

Новая книга VMware PowerCLI Cookbook for vSAN об управлении кластерами хранилищ [88 страниц].

(0 Comment)

На сайте VMware появился полезнейший технический документ, даже практически книга об использовании фреймворка PowerCLI для инфраструктуры отказоустойчивых кластеров хранилищ - VMware PowerCLI Cookbook for vSAN.

На 88 страницах авторы (Jase McCarty и его коллеги), работавшие с PowerCLI/PowerShell для управления инфраструктурой vSAN более 4 лет, рассказывают обо всех аспектах управления хранилищами с помощью сценариев.

Книга дает "рецепты" в следующих сферах:

  • Конфигурация решения vSAN
  • Операционные ежедневные задачи
  • Функции отчетности о текущем состоянии среды

В книге приведено большое количество примеров, причем авторы сначала показывают, как задачу можно выполнить в графическом интерфейсе, а затем разбирают кейс по автоматизации данных действий с помощью PowerCLI.

Кстати, это только первый релиз книги (1.0), со временем она будет дополняться. Скачать VMware PowerCLI Cookbook for vSAN можно по этой ссылке.

VMware
PowerCLI
Update

Загрузка или установка нужной версии VMware PowerCLI из PowerShell Gallery.

(0 Comment)

Те из вас, кто разрабатывает, дорабатывает и использует сценарии VMware PowerCLI, знает, что время от времени требуется использовать модуль какой-то конкретной версии, который идет в составе PowerCLI определенной версии. Это может быть из-за бага в новом пакете или несовместимости старых скриптов с новыми модулями.

Если вы посмотрите на свойства пакета VMware PowerCLI на сайте PowerShell Gallery, то увидите соответствующие версии входящих в него модулей:

Если вам нужно скачать нужный пакет из PowerShell Gallery, сделать это просто - там есть кнопка Manual Download:

Но есть и возможность напрямую установить модуль из галереи, используя команду:

Install-Module -Name VMware.PowerCLI

Но это команда установит только последнюю версию модуля, а на блоге VMware появилась интересная функция Save-PowerCLI, которая позволяет указать в параметре -RequiredVersion нужную версию и скачать ее с последующей установкой:

Собственно, сам исходник функции Save-PowerCLI:

VMware
VCP
Update

Отмена требования ресертификации VMware Certified Professional (VCP) раз в два года. Возможность апгрейда старых сертификаций пятой версии!

(0 Comment)

Недавно мы писали о больших изменениях, которые с этого года произойдут в сертификациях VMware Certified Professional (VCP). Они заключаются, в основном, в том, что сертификация будет привязана к году сдачи экзамена (например, VMware Certified Professional – Desktop and Mobility 2019, он же VCP-DTM 2019).

На днях было объявлено еще об одном важном изменении - VMware отменила требование по обязательной ресертификации специалистов VCP, которое наступало через 2 года после получения сертификата. Теперь специалист сам может выбирать, когда ему требуется сдавать экзамен. Вот официальный анонс:

Таким образом, если у вас есть сертификации VCP в прошлом (даже пятой версии), то в вашем профиле она будет отражена как активная, начиная с апреля этого года (но сами правила в силу вступают уже сейчас). Это будет действовать для следующих сертификаций:

Соответственно, вы сможете сделать апгрейд этих сертификаций через соответствующий Upgrade Path и получить актуальный сертификат VMware VCP (то есть не нужно будет заново учиться и сдавать Foundations exam). Вот какие пути апгрейда существуют:

Если же вы уже потратили время и деньги на обновление этих сертификаций, то VMware предоставит вам бесплатный доступ к VMware Learning Zone на один год (если вы обновлялись в течение последних 6 месяцев).

Для тех, кто хочет получить больше деталей об отмене требований к ресертификации, есть специальный документ "VMware Recertification Rollback 2019 Policy FAQ".

VMware
Labs
vSAN

Новое на VMware Labs: vSAN Hardware Compatibility List Checker.

(0 Comment)

На сайте проекта VMware Labs обновилась полезная утилита для проверки соответствия хостов ESXi требованиям списка совместимости для узлов кластера vSAN. Недавно мы писали об улучшении онлайн-средства для поиска поддержки технологии VVols, а на днях обновилась также и утилита vSAN HCL Checker до версии 2.0. Напомним, что о прошлой версии этого решения мы писали вот тут.

Что нового в версии vSAN Hardware Compatibility List Checker 2.0:

  • Добавлено 3 новых проверки:
    • Добавлена информация о контроллерах, которые сертифицированы VMware для нужного релиза ESXi.
    • Информация о драйверах контролеров, сертифицированных VMware.
    • Информация о микрокоде (firmware), сертифицированном VMware.
  • Обновленный формат HTML-отчета.
  • Несколько исправлений ошибок.

Для начала работы нужно просто ввести имя хоста ESXi и пароль пользователя root:

В качестве результата в папке с утилитой будет сформирован html-файл (этот шаблон можно редактировать в файле reportTemplate.html), в котором будет информация о совместимости контроллеров хранилищ со списком VSAN HCL (шильдики yes и N/A).

Загрузить vSAN Hardware Compatibility List Checker 2.0 можно по этой ссылке.

P.S. Если у вас проблемы с использованием утилиты, попробуйте опцию --noSSLVerify.

VMware
vSAN
NFS

Что нового будет в VMware vSAN следующей версии, часть 3: vSAN Scalable File Services.

(0 Comment)

Продолжаем рассказывать о новых возможностях следующей версии решения для создания отказоустойчивых кластеров хранилищ VMware vSAN. Напомним прошлые статьи этого цикла:

В этой заметке мы поговорим еще об одной возможности, касающейся способов хранения данных в кластере - vSAN Scalable File Services. Как вы знаете, vSAN предоставляет пространство хранения для виртуальных машин и дисков VMDK (в том числе дисков FCD), а также дает возможность использовать логические тома по протоколу iSCSI.

Так вот, функциональность vSAN File Services дает возможность использовать дисковое пространство по протоколам NFS и SMB, что дает возможность раздавать ресурсы кластера через эти протоколы для внешних потребителей без необходимости создания отдельных машин для файловых помоек, например, с Windows Server на борту.

Также файловые шары NFS/SMB будут находиться под управлением политик Storage Policy Based Management (SPBM), а также будут работать в растянутых кластерах vSAN, что позволит рассматривать их как часть общего пространства vSAN в распределенных датацентрах. С помощью SPBM можно будет использовать такие сервисы, как FTT (переносимость отказов хостов ESXi), шифрование и развертывание хранилищ, растущих по мере наполнения данными (thin provisioning).

Механизм файлового шаринга работает на базе файловой системы vSAN Distributed File System (vDFS), которая позволяет агрегировать дисковые объекты vSAN для предоставления пространства хранения, а сервисы управления предоставляет платформа Storage Services Platform.

С точки зрения интерфейса создания и экспорта файловых шар, эти сервисы будет представлять vCenter и vSphere Client (там же будут назначаться права доступа, квоты и прочее).

Сервисы vSAN FIle Server (в демо они были показаны как виртуальные модули, Virtual Appliances) будут реализовывать экспорт папок. Кроме того, они будут иметь механизм обнаружения сбоев и перезапуска этих машин на других серверах:

Такая архитектура также позволит просто апгрейдить хост-серверы ESXi, не останавливая предоставляемые файловые сервисы.

Кроме того, vSAN File Services будут предоставлять свои ресурсы на уровне файлов для контейнеров на платформе Kubernetes:

Также вы можете посмотреть 2 интересных видеопрезентации с VMworld 2018 и VMworld Europe 2018, посвященных vSAN Scalable File Services:

  • HCI3041BE – VMworld Europe 2018 session: Introducing Scalable File Storage on vSAN with Native File Services. Также к этому видео прилагается презентация в формате PDF.

  • HCI3728KE – VMworld Europe 2018 session:  Innovating Beyond HCI: How VMware is Driving the Next Data Center Revolution.

Подписаться на бету следующей версии продукта VMware vSAN можно по этой ссылке. Ожидается, что первая реализация будет поддерживать NFS 4.1 с аутентификацией в AD, шары SMB, Kerberos, протокол OpenLDAP и механизм vSAN Data Protection.

VMware
vSphere
vCenter

Симулятор VMware vCenter в виде контейнера Docker для тестирования API через PowerShell/PowerCLI и другими методами.

(0 Comment)

Больше пяти лет назад мы писали про проект vCenter Server Simulator 2.0 (VCSIM), который позволял протестировать основные интерфейсы VMware vCenter без необходимости его реального развертывания (а значит и без лицензии). Проблема в том, что он был выпущен для VMware vSphere и vCenter версий 5.5 и с тех пор не обновлялся.

Зато есть аналог старому VCSIM - новый проект govcsim, написанный на языке Go (Golang). Он точно так же умеет предоставлять API-ответы на вызовы к vCenter Server и ESXi.

Несмотря на то, что этот симулятор написан на Go, он позволяет вам работать с vCenter посредством любого языка и интерфейса, умеющего общаться через API (в том числе, PowerShell). То есть, вы можете соединиться через PowerCLI к VCSIM Docker Container и работать с ним как с сервером vCenter.

Сам контейнер nimmis/vcsim можно скачать отсюда. Pull-команда для него:

docker pull nimmis/vcsim

Далее можно выполнить вот такой сценарий (взято у Brian Bunke):

docker run --rm -d -p 443:443/tcp nimmis/vcsim:latest

If ($IsMacOS -or $IsLinux) {
$Server = 'localhost'
} Else {
$Server = (Get-NetIPAddress -InterfaceAlias *docker* -AddressFamily IPv4).IPAddress
}

If ($PSVersionTable.PSVersion.Major -ge 6) {
Test-Connection $Server -TCPPort 443
}

Connect-VIServer -Server $Server -Port 443 -User u -Password p
# Did it work?
Get-VM
# Or Get-VMHost, or Get-Datastore, etc.

Этот код делает следующее:

  • Запускает docker-контейнер VCSIM локально (если у вас его нет, то он будет загружен).
  • На Windows-системе получает IP-адрес адаптера DockerNAT.
  • После запуска контейнера тестирует, что порт 443 отвечает.
  • Использует модуль VMware.PowerCLI интерфейса PowerShell для соединения с vCenter Simulator.

Симулятор на данный момент поддерживает не все множество API-методов (смотрите документацию). Вот так, например, можно вывести список всех поддерживаемых методов и типов:

$About = Invoke-RestMethod -Uri "https://$($Server):443/about" -Method Get
$About.Methods
$About.Types

Например, вы можете использовать PowerOffVM_Task, PowerOnMultiVM_Task и PowerOnVM_Task. Из PowerCLI попробуйте также протестировать командлеты Stop-VM и Start-VM. Ну а дальше изучайте документацию к библиотеке govmomi.



vSAN Space Reclamation

(0 Comment)
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83    >   >>
Реклама







Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

27/03/2019:   Оптимизация ИТ-инфраструктуры 2019
28/03/2019:  Эффективный ЦОД 2019
24/04/2019:  VMware vForum Online 2019

Быстрый переход:
VMware IT-Grad StarWind Veeam PowerCLI Offtopic Gartner Citrix VSAN 5nine Hardware VeeamON Nutanix vSphere RVTools Enterprise Security Code Cisco vGate Microsoft Cloud SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Teradici Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter VMachines Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V Horizon vCloud Labs NSX vRNI vSAN HA Update Manager VCP Backup Tools VVols Workstation Workspace ONE Update UEM App Volumes DR Networking Cache Storage DRS VMworld Workspace vROPs DRS Fusion Lifecycle Visio SRM Log Insight Operations Manager SDDC Virtual Appliance OpenStack Forum PowerShell LSFS Client vCSA Datacenter Intel Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Performance Nested AWS XenDesktop VSA vNetwork SSO Host Client VMDK VTL iSCSI Whitepaper Appliance VUM V2V Support Обучение Web Client Mobile Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers Converter XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP Video SC VMM Certification VDP Partners PCoIP RHEV vMA Award Network USB Licensing Logs Server Demo vCHS Calculator Бесплатно vExpert Beta SAN Exchange MAP ONE DaaS Monitoring VPLEX UCS SDK Poster VSPP Receiver vMotion VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V VirtualCenter NFS ThinPrint Helpdesk Troubleshooting VIC Upgrade VDS Bug Migration Director Stencils Memory API Android Graphics Diagram Air CLI Plugin DPM SIOC Flex Mac Open Source SSH VAAI Chargeback Heartbeat MSCS Ports SVMotion Bugs Composer
Интересные плакаты:

Постер VMware vSphere PowerCLI 6.3:

Постер VMware ESXi 5.1:

Постер VMware Hands-on Labs 2015:

Постер VMware Platform Services Controller 6.0:

Постер VMware vCloud Networking:

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Постер VMware vCenter Server Appliance:

Порты и соединения VMware vSphere 6:

Порты и соединения VMware Horizon 7:

Порты и соединения VMware NSX:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

Постер Veeam Backup & Replication v8 for VMware:

Постер Microsoft Windows Server 2012 Hyper-V R2:

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Сравнение Oracle VirtualBox и VMware Workstation.

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Как использовать возможности VMware vSphere Management Assistant (vMA).

Проектирование инфраструктуры виртуализации VMware vSphere 4.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Бесплатные программы для VMware ESX / ESXi в среде Virtual Infrastructure / vSphere (часть 2).

Работа с дисками виртуальных машин VMware.

Новые возможности VMware vSphere 5.0 - официально.

Все ресурсы о виртуализации:
Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Купить:

VMware vSphere 6.5


Veeam Backup 9.5


Полезные ресурсы:


Видео компании VMware

Видео про Citrix Xen

Видео о виртуализации Microsoft

Утилиты для виртуальных машин Microsoft.

Книги на английском языке

Блоги на английском языке

Блоги на русском языке

Агрегация статей в твиттере VMC:


Copyright VM Guru 2006 - 2019, Александр Самойленко. Правила перепечатки материалов.