Новости Статьи VMware Veeam StarWind vGate! Microsoft ИТ-ГРАД Citrix Symantec 5nine События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Виртуализация vSphere, Hyper-V, XenServer и Red Hat

Более 3190 заметок о виртуализации и виртуальных машинах VMware, Microsoft, Citrix, Red Hat

VM Guru / Search

Еще одна причина не создавать снапшоты на VMware vSphere - число одновременно запущенных виртуальных машин.


Некоторое время назад мы писали заметку о том, "Почему снапшоты виртуальных машин в VMware vSphere - это плохо", да и вообще часто затрагиваем эту тему.

Ниже мы приведем еще один аргумент в пользу того, чтобы не создавать снапшоты виртуальных машин на постоянной основе (во временном их использовании нет ничего плохого).

Итак, в одной из статей мы писали про расширенную настройку VMFS Heap Size (размер кучи), которая косвенно определяет максимально доступный объем хранилищ на хосте.

Также мы писали о том, что параметр VMFS3.MaxHeapSizeMB еще в VMware vSphere 5.1 был увеличен до 640 МБ.

Однако есть и куча для механизма "Copy-on-Write" (COW), которая определяется расширенной настройкой COW.COWMaxHeapSizeMB - она ограничивает число одновременно запущенных на хосте виртуальных машин. Механизм COW работает на хосте, когда у машины есть снапшоты (дельта-диски).

По умолчанию это значение равно 192 МБ, но может быть увеличено до 256 МБ:

Также этот параметр можно узнать из командной строки:

~ # esxcfg-advcfg -g /COW/COWMaxHeapSizeMB
Value of COWMaxHeapSizeMB is 192

И установить его в максимальное значение:

~ # esxcfg-advcfg -s 256 /COW/COWMaxHeapSizeMB
Value of COWMaxHeapSizeMB is 256MB

Давайте посмотрим, как расходуется пространство этой кучи на хосте, в зависимости от параметров виртуальных машин на нем. Вот тут есть такая интересная формула:

X = (75 / 100 * COW_HEAP_SIZE) / ((B / (2 * 1048576) * 4 * S) * Y)

где:

X - это максимальное число запущенных виртуальных машин на хосте,
COW_HEAP_SIZE - размер кучи в байтах,
B - размер виртуального диска в байтах,
2 * 1048576 - это GDE Coverage (хз, что такое),
4 - это число байт на Root Entry,
S - число снапшотов каждого из виртуальных дисков,
Y - число дисков у машин.

Возьмем для примера машину с 5 дисками размером в 80 ГБ по 6 снапшотов у каждого при максимальном размере кучи в 256 МБ. Получим, что таких машин может быть запущено на хосте:

= (75 / 100 * 268435456) / ((85899345920 / (2 * 1048576) * 4 * 6) * 5)

Это примерно около 40 машин (всего лишь) - при максимально доступном размере кучи на VMware ESXi. Понятно дело, что мало где можно найти машины с 5 дисками, у каждого из которых по 6 снапшотов, но я видел подобные конфигурации пару раз.

Нетрудно понять, как в этой формуле влияют снапшоты на максимальное число запущенных виртуальных машин. Поэтому повторим еще раз: постоянные снапшоты - зло.


Таги: VMware, ESXi, Snapshots, vSphere, Memory

Как получить бесплатную лицензию VMware ESXi 5.5 Free и лицензировать хост.


Как многие из вас знают, у компании VMware есть бесплатный продукт VMware vSphere Hypervisor, который в народе называется VMware ESXi Free. Многие начинающие администраторы, услышав, что ESXi бесплатен, устанавливают его, но забывают накатить лицензию, которую надо скачивать с портала My VMware. Без этого бесплатный VMware ESXi будет работать в режиме пробной версии 60 дней...


Таги: VMware, ESXi, Бесплатно, Обучение, Free, vSphere

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.


Многие администраторы устанавливают VMware Tools с помощью vSphere Client, который предоставляет идущую в дистрибутиве версию этого пакета. Однако не все знают, что VMware Tools можно скачать по прямой ссылке из репозитория VMware, затем положить exe-файл на файловый сервер (если у вас гостевая ОС Windows) и запускать на всех виртуальных машинах.

Последняя версия тулзов всегда находится по этой ссылке:

http://packages.vmware.com/tools/esx/latest/index.html

Для Windows-машин она, соответственно, находится вот тут:

http://packages.vmware.com/tools/esx/latest/windows/index.html

Но эти пакеты доступны только для следующих версий гостевых ОС:

  • Community ENTerprise Operating System (CentOS) - версии с 4.0 по 6.x
  • Red Hat Enterprise Linux версии с 3.0 по 6.x
  • SUSE Linux Enterprise Server версии 9 по 11
  • SUSE Linux Enterprise Desktop версии 10 по 11
  • Ubuntu Linux версии с 8.04 по 12.04

Надо отметить, что доступные в репозитории пакеты содержат компоненты VMware Tools, начиная еще с версий ESX 3.5. Но с версии vSphere 4.1 все они стали обратно совместимы - вы можете скачать последнее обновление VMware Tools и накатить его на любую версию vSphere 4.x или 5.x.

Это подтверждает и матрица совместимости продуктов VMware:

Кроме того, если в списке остутствуют необходимые ОС Linux, то можно воспользоваться пакетом Open VM Tools, которые являются открытой версией VMware Tools и рекомендованы к распространению вендорами платформ. Например, вот тут указано, как нужно ставить Open VM Tools в гостевых ОС RHEL 7.

Сами же репозитории находятся по этой ссылке:

http://packages.vmware.com/packages/index.html


Таги: VMware, Tools, VMachines, Blogs, vSphere, ESXi

Как установить IP-параметры HP iLO через консоль сервера VMware ESXi.


Как установить IP-параметры HP iLO через консоль сервера VMware ESXi.

При развертывании инфраструктуры VMware vSphere на базе серверов HP всегда требуется задать параметры IP-идентификации для интерфейса удаленной консоли iLO. Обычно это делается в настройках сервера, но удобнее сделать это из консоли ESXi, если вы используете кастомизированную сборку ESXi под HP (а ее надо использовать, так как некоторые девайсы могут просто не работать, поскольку в стандартной сборке под них нет драйверов).

Для начала откроем на хосте ESXi доступ по SSH в разделе Security Profile, стартовав соответствующий сервис:

Заходим на хост по SSH и переходим в папку с утилитами HP:

cd /opt/hp/tools

Копируем настройки HP iLO в файл XML:

./hpconfig -w ilo.xml

Далее этот файл нам нужно отредактировать, для этого можно использовать WinSCP или Veeam FastSCP.

Копируем iLO.xml к себе локально:

Открываем его в текстовом редакторе и правим секции, помеченные красным:

<!-- HPONCFG VERSION = "4.0-13.0" -->
<!-- Generated 11/11/2014 23:37:47 -->
<RIBCL VERSION="2.1">
<LOGIN USER_LOGIN="Administrator" PASSWORD="password">
<DIR_INFO MODE="write">
<MOD_DIR_CONFIG>
<DIR_AUTHENTICATION_ENABLED VALUE = "N"/>
<DIR_LOCAL_USER_ACCT VALUE = "Y"/>
<DIR_SERVER_ADDRESS VALUE = ""/>
<DIR_SERVER_PORT VALUE = "636"/>
<DIR_OBJECT_DN VALUE = ""/>
<DIR_OBJECT_PASSWORD VALUE = ""/>
<DIR_USER_CONTEXT_1 VALUE = ""/>
<DIR_USER_CONTEXT_2 VALUE = ""/>
<DIR_USER_CONTEXT_3 VALUE = ""/>
</MOD_DIR_CONFIG>
</DIR_INFO>
<RIB_INFO MODE="write">
<MOD_NETWORK_SETTINGS>
<SPEED_AUTOSELECT VALUE = "Y"/>
<NIC_SPEED VALUE = "100"/>
<FULL_DUPLEX VALUE = "N"/>
<IP_ADDRESS VALUE = "192.168.16.33"/>
<SUBNET_MASK VALUE = "255.255.255.0"/>
<GATEWAY_IP_ADDRESS VALUE = "192.168.16.254"/>
<DNS_NAME VALUE = "ESX01-iLO"/>
<PRIM_DNS_SERVER value = "192.168.16.1"/>
<DHCP_ENABLE VALUE = "N"/>
<DOMAIN_NAME VALUE = "educ.local"/>

<DHCP_GATEWAY VALUE = "Y"/>
<DHCP_DNS_SERVER VALUE = "Y"/>
<DHCP_STATIC_ROUTE VALUE = "Y"/>
<DHCP_WINS_SERVER VALUE = "Y"/>
<REG_WINS_SERVER VALUE = "Y"/>
<PRIM_WINS_SERVER value = "0.0.0.0"/>
<STATIC_ROUTE_1 DEST = "0.0.0.0" GATEWAY = "0.0.0.0"/>
<STATIC_ROUTE_2 DEST = "0.0.0.0" GATEWAY = "0.0.0.0"/>
<STATIC_ROUTE_3 DEST = "0.0.0.0" GATEWAY = "0.0.0.0"/>
</MOD_NETWORK_SETTINGS>
</RIB_INFO>
<USER_INFO MODE="write">
</USER_INFO>
</LOGIN>
</RIBCL>

Копируем измененный файл обратно на хост ESXi (предыдущий сохраните - просто переименуйте) и выполняем команду заливки конфигурации:

./hpconfig -f ILO.xml

Дождитесь успешного выполнения команды - и можно коннектиться к iLO через веб-браузер по новому адресу. Этот способ удобен тем, что можно не перезагружать сервер.


Таги: VMware, ESXi, HP, vSphere, Обучение, Network

Почему резервное копирование одной виртуальной машины VMware vSphere на хранилище Virtual SAN делается медленно?


Многие пользователи VMware Virtual SAN (VSAN), когда проводят тест бэкапа одной виртуальной машины, замечают, что время резервного копирования этой ВМ существенно больше, чем таковое для машины, размещенной на дисковом массиве.

Дункан в своем блоге подробно разбирает эту проблему. Тут дело вот в чем - когда вы используете дисковый массив, то виртуальная машина "размазывается" по дискам RAID-группы, что позволяет читать одновременно с нескольких дисков. Это дает хорошую производительность операции резервного копирования для одной машины.

Кластер же VSAN работает немного по-другому. Это объектное хранилище, в котором виртуальный диск ВМ хранится на одном хосте и его реплика существует на втором. Кроме этого, есть кэш на SSD-диске (но его еще нужно "прогреть"). То есть выглядит все это следующим образом:

Соответственно, при бэкапе одной виртуальной машины данные читаются только с двух HDD-дисков, а не с нескольких как в традиционной архитектуре дисковых массивов, при этом сам кластер VSAN может состоять из нескольких хостов (до 32 узлов). То есть, это архитектурное ограничение.

Однако если мы будем делать одновременный бэкап нескольких виртуальных машин с хранилища Virtual SAN время этой операции уже будет сравнимо с дисковым массивом, поскольку будет задействовано сразу несколько дисков на каждом из хостов, плюс хорошо прогреется кэш. Поэтому проведение такого теста (ведь он ближе к реальным условиям) и было бы более показательным при сравнении Virtual SAN и традиционных хранилищ.

То же самое относится и к VDI-инфраструктуре на базе VSAN - многие пользователи отмечают, что первая фаза операции Recompose (когда создается реплика - полный клон ВМ) отрабатывает весьма медленно. Однако если вы делаете много таких операций - кэш прогревается, и одновременное создание нескольких клонов начинает работать заметно быстрее в расчете на одну машину.


Таги: VMware, Virtual SAN, Backup, VSAN, Performance, Storage, vSphere, ESXi

Как отключить USB-порты на VMware ESXi? Никак. Зато можно проанализировать логи.


Многие пользователи в целях безопасности хотят отключить использование USB-портов на хостах VMware ESXi - а то кто-нибудь зайдет в серверную комнату и утащит данные на диске.

К сожалению, на текущих версиях платформы VMware vSphere сделать этого нельзя. Можно, конечно, отключить USB Arbitrator service следующей командой (как написано вот тут):

/etc/init.d/usbarbitrator stop

Но это лишь отключит проброс USB-устройств в виртуальные машины, при этом само устройство (например,  /dev/usb0101) отключено не будет. Поэтому, тут остается два решения:

  • Отключить USB-устройства в BIOS - но это поддерживают не все производители железа.
  • Мониторить использование локальных USB-устройств и слать алерты менеджеру по ИБ.

Второй вариант можно реализовать с помощью продукта VMware vRealize Log Insight, который позволяет мониторить логи хостов ESXi и слать по ним алерты при их появлении и повторении. Вот, например, в выводе этого лога мы видим, что кто-то подключал USB-девайс к хосту:

Сопоставив время этих событий и время посещения конкретными людьми датацентра, мы поймем, кто пытался или сделал что-то нехорошее. Решение, конечно, не ахти, но какое уж есть.


Таги: VMware, USB, Security, ESXi, vSphere

Как перезапустить виртуальную машину на VMware vSphere, имея только доступ по SSH.


Бывают такие ситуации, когда у вас в руках только мобильный телефон, с которого возникает необходимость перезагрузить виртуальную машину на хосте VMware ESXi. Например, у вас в инфраструктуре что-то случилось, но вы имеете доступ к ней через VPN со своего айфона.

Если у вас есть доступ по SSH, то проблему решить весьма просто, как это описано вот тут (а также в KB 1014165). Скачиваем бесплатное приложение Server Auditor по этой ссылке (если у вас андроид - то по этой).

Далее заходим на свой хост ESXi по SSH и выполняем команду:

esxcli vm process list

Будет выведен список всех процессов виртуальных машин, где нам нужно найти World ID нужной машины. Записываем или запоминаем его.

Далее убиваем виртуальную машину командой (вместо параметра force можно использовать hard и soft для выключения ВМ):

esxcli vm process kill -t force -w WorldID

Выглядит это примерно вот так:

Далее снова выполняем команду esxcli vm process list, чтобы убедиться, что виртуальная машина теперь выключена.

Теперь запоминаем VMID нашей виртуальной машины, который можно получить с помощью команды:

vim-cmd vmsvc/getallvms

Если помните часть имени ВМ, можно искать с помощью grep:

vim-cmd vmsvc/getallvms |grep <текст в имени ВМ>

Найдя VMID, проверяем дополнительно, что она выключена:

vim-cmd vmsvc/power.getstate <vmid>

Теперь включаем виртуальную машину:

vim-cmd vmsvc/power.on <vmid>

Вот и все, потом обязательно нужно проверить, что машина включилась, естественно - сначала в списке процессов, а потом пингом.


Таги: VMware, ESXi, Обучение, vSphere, VMachines, Blogs

Где находятся логи VMware vSphere и других продуктов VMware [ССЫЛКИ].


Ниже приведем ссылки на статьи VMware Knowledge Base (взято отсюда), где можно узнать о расположении и назначении файлов журнала (логов) для различных продуктов, включая компоненты решения VMware vSphere.

vSphere Suite

vCenter Server:

ESX(i):

vSphere Data Recovery:

vSphere Storage Appliance:

Site Recovery Manager

vCloud Suite

vCloud Director:

vShield/vCloud Networking and Security (vCNS):

VMware vCloud Automation Center 6.x:

vCenter Orchestrator:

Desktop Computing

View and Horizon View:

Horizon Mirage (formerly Mirage):

VMware Workstation:


Таги: VMware, Logs, Troubleshooting, vSphere, ESXi, Director

Информация о номерах билдов и датах релиза продуктов VMware.


Часто пользователям требуется информация о том, какому номеру билда соответствует версия продукта от VMware (такое бывает нужно, например, для VMware vSphere / ESXi, vCenter, vCenter Server Appliance). К тому же, иногда бывает полезно узнать, когда вышла та или иная версия продукта.

Поэтому мы взяли из этого поста информацию о продуках, датах релиза и номерах версий, чтобы можно было всегда обращаться к этому посту у нас.

Converter Standalone / Enterprise

Version Release Date Build Number Installer Build Number
Converter Standalone 5.5.2 2014-07-24 1890136 N/A
Converter Standalone 5.5 2013-10.22 1362012 N/A
Converter Standalone 5.1 2013-04-24 1087880 N/A
Converter Standalone 5.0.1 2012-10-25 875114 N/A
Converter Standalone 5.0 2011-08-31 470252 N/A
Converter Standalone 4.3 2010-08-30 292238 N/A
Converter Enterprise 4.2.0 (VC 4.1) 2010-07-13 254483 N/A
Converter Enterprise 4.1.1 (VC 4.0) 2009-05-21 206170 N/A
Converter Standalone 4.0.1 2009-05-21 161434 N/A
Converter Standalone 4.0 2009-02-12 146302 N/A
Converter Standalone 3.0 2008-01-12 89816 N/A

Нажимайте читать далее.


Таги: VMware, vSphere, ESXi, vCenter, Converter, Enterprise

Вышло обновление VMware vSphere 5.5 Update 2, включая ESXi 5.5 Update 2 и vCenter Server 5.5 Update 2.


Вчера компания VMware выпустила обновление для платформы виртуализации VMware vSphere 5.5 Update 2, которое включает в себя апдейты составляющих компонентов - ESXi 5.5 Update 2 и vCenter Server 5.5 Update 2.

Основные новые возможности обновления:

  • Поддержка хостов ESXi с объемом памяти до 6 ТБ.
  • Агентское ПО VMware vShield Endpoint Thin Agent для поддержки взаимодействия с решениями vShield, которое устанавливается в гостевых ОС вместе с VMware Tools, теперь называется VMware Tools Guest Introspection plugin.
  • vCenter Server 5.5 U2 теперь поддерживает следующие внешние СУБД: Oracle 12c, Microsoft SQL Server 2012 Service Pack 1 и Microsoft SQL Server 2014.
  • Поддержка vCloud Hybrid Service (vCHS, переименован в vCloud Air) - теперь в vSphere Web Client на стартовой странице появился новый контейнер Hybrid Cloud Service, который содержит установщики vCHS и vCloud Connector.
  • Появились технические средства программы Customer Experience Improvement Program - теперь данные о конфигурации вашей виртуальной инфраструктуры на еженедельной основе могут передаваться на сторону VMware, чтобы она могла шпионить анализировать их и улучшать продукт.
  • Множественные исправления ошибок, о которых можно почитать в Release Notes.

При этом у данного релиза есть следующие особенности:

  • Начиная с vSphere 5.5 Update 2, операционные системы Windows XP и Windows Vista не поддерживаются для vSphere Web Client. Полный список поддерживаемых систем находится в VMware Compatibility Guide.
  • Так как Linux-платформы больше не поддерживаются механизмом Adobe Flash, то Web Client не поддерживается в ОС Linux. Но не поддерживается - не значит, что это прекратило работать.
  • VMware vCenter Server Appliance в vSphere 5.5 поддерживает гайдлайны по обеспечению ИБ DISA Security Technical Information Guidelines (STIG), поэтому перед использованием этого решения надо бы почитать VMware Hardened Virtual Appliance Operations Guide для того, чтобы узнать о новых стандартах безопасности и о том, как нужно работать, чтобы security-примочки не мешали.
  • В VMware vSphere 5.5 U2 больше не поддерживается СУБД IBM DB2 как база данных для vCenter.
  • Вся информация касательно установки VMware Tools в гостевых ОС теперь представлена в общей документации по VMware vSphere (начиная с версии 5.5).
  • vSphere Data Protection 5.1 не совместима с vSphere 5.5 по причине изменения рабочих процессов в vSphere Web Client. То есть, вместе с vSphere надо обновлять и VDP.
  • При обновлении компонентов виртуальной инфраструктуры посмотрите также Interoperability Matrix.

Скачать VMware vSphere 5.5 Update 2 можно по этой ссылке. Документация доступна тут.


Таги: VMware, vSphere, Update, ESXi, vCenter, vCSA

Новые возможности VMware vSphere 6 - новости с VMworld 2014.


Не так давно мы писали о публичной бета-версии VMware vSphere 6, где каждый желающий мог скачать ее, посмотреть на список новых функций, но написать об этом не мог. На конференции VMware VMworld 2014 мораторий, по-сути, был снят - и теперь можно писать и рассказывать о новых возможностях платформы сколь угодно подробно.

Итак, что нового мы увидим в первой половине 2015 года (а именно тогда выйдет VMware vSphere 6):

1. Поддержка технологией Fault Tolerance до четырех виртуальных процессоров машины (4 vCPU).

Теперь технология непрерывной доступности VMware Fault Tolerance будет поддерживать виртуальные машины с 4 vCPU и объемом памяти до 64 ГБ.

Ранее для работы FT использовался механизм "Record-Replay" средствами технологии vLockstep, который воспроизводил инструкции основной машины на резервной. Теперь же используется техника Fast Checkpointing, которая позволяет организовать исполнение потока инструкций одновременно на обеих машинах. Если по какой-либо причине сетевое соединение между машинами замедляется, основная машина тоже начинает работать медленнее.

При этом теперь VMware Fault Tolerance можно будет конфигурировать для включенной виртуальной машины. Однако, по-прежнему, остаются следующие ограничения:

  • На хост ESXi можно иметь до 4 машин, защищенных технологией FT, при этом всего суммарно может быть защищено до 8 vCPU. Обратите внимание, что эти максимумы применяются суммарно к Primary и Secondary виртуальным машинам, расположенным на этом хосте.
  • Обязательно потребуется адаптер 10 Gb. Можно будет его разделять между различными типами трафика средствами NetIOC.
  • Нельзя использовать горячее добавление CPU или памяти для таких машин (Hot Add).
  • Если несколько vCPU затронуто технологией FT, то для таких машин не поддерживается Storage vMotion.
  • Кроме того, технику SMP-FT не поддерживают такие вещи, как vCloud Director, vSphere Replication, VSAN/vVols и vFlash.

При этом для таких машин полностью поддерживается VMware vMotion, а также они (как и раньше) защищаются кластером VMware HA - если с одной из машин что-то случается, то на другом хосте перезапускается реплика, которая уже становится Secondary VM.

Помимо этого, надо понимать, что SMP-FT вызовет падение производительности гостевой ОС, по оценкам VMware - это около 10-30% в зависимости от нагрузки.

Приятная новость - многопроцессорная FT будет поддерживать снапшоты виртуальных машин, а значит вы сможете делать их резервные копии средствами Veeam Backup and Replication или любым другим средством, поддерживающим vStorage APIs for Data Protection.

2. Улучшения горячей миграции виртуальных машин на большие расстояния (long distance vMotion).

О long distance vMotion мы уже писали вот тут, а впервые - вообще пять лет назад. И только сейчас обещания станут реальностью.

Теперь работающую виртуальную машину можно перемещать на расстояния, где RTT (Round Trip Time) в канале достигает 100 мс (неофициально поддерживается значение 150 мс). Это в 10 раз больше, чем было раньше.

И это - расстояние до 3000 километров (!). Теперь менеджерам датацентров открываются очень интересные стратегии по таким вариантам использования, как Follow the sun (машины работают там, где работают люди) и Follow the moon (машины работают ночью, когда электричество дешевле).

Кроме того, появились следующие улучшения технологии vMotion.

  • vMotion между разными серверами vCenter (нужна сеть на скорости 250 Mbps). Это происходит средствами протокола VMware Network File Copy (NFC).
  • Маршрутизируемый трафик vMotion (наконец-то).
  • vMotion между виртуальными коммутаторами vSwitch, а также Virtual Distributed Switch (VDS), поддерживаются режимы VSS to VSS, VSS to VDS, VDS to VDS (а вот VDS to VSS - нельзя).
  • средствами VMware NSX сетевые настройки машин могут быть перемещены в горячем режиме даже, если используется long distance vMotion.

3. Улучшенная производительность и новые возможности vSphere Web Client.

Здесь пока не сильно много деталей: появятся библиотеки контента (версии машин, темплейтов) и функции publish и subscribe для них. Также существенно будет улучшена производительность и уменьшен отклик при различных операциях.

4. Технология Virtual Volumes.

О ней мы уже писали вот тут и тут.

Все это приходит в рамках концепции создания конвергентной инфраструктуры и развития парадигмы Software-Defined-Datacenter.

Здесь используются три основных элемента:

  • Vendor Provider (VP) – это плагин от производителя системы хранения данных, поддерживающий VVols через VASA API версии 2.0.
  • Storage Containers (SC) – это контейнеры на дисковом массиве, в которые упаковываются VMDK-диски каждой из машин. Это операбельная единица со стороны и системы хранения, и платформы VMware vSphere.
  • Protocol Endpoints (PE) – это средства управления томами на базе политик, предоставляемые администраторам. В них уже не будет понятий LUN и точек монтирования. Будет просто VVol, который можно привязывать и отвязывать от серверов ESXi/vCenter.

Все хранилища будут управляться на базе политик (сейчас это реализовано в VSAN):

5. Технология Virtual Datacenters.

Концепция виртуальных датацентров объединяет в себе пул вычислительных кластеров, кластеров хранилищ и политики их покрывающие. То есть это такой большой ресурсный контейнер, в котором есть зачатки интеллекта: он решает в какой из кластеров поместить виртуальную машину и на каком хранилище размещать виртуальные диски, чтобы это соответствовало определенным политикам.

 

По сути, это еще один уровень абстракции для крупных инфраструктур, в которых можно оперировать вот такими большими объектами из нескольких кластеров серверов и хранилищ.

6. Новые максимумы для хостов ESXi.

Нам обещают следующие параметры:

  • 320+ pCPU
  • 4+ TB Mem
  • 4096+ vCPUs
  • 32+ Nodes/Cluster
  • 62TB+ VMDKs

Также с большой долей вероятности в VMware vSphere 6.0 мы увидим следующие возможности, о которых говорили на VMworld 2014:

  • Полная поддержка NVIDIA GRID vGPU - больше информации доступно тут.
  • Технология vSphere APIs for IO Filtering (VAIO) - о ней рассказано здесь.

  • Технология VMFork - метод по мгновенному клонированию запущенных виртуальных машин.

Больше подробностей о VMware vSphere 6 можно прочитать вот тут.


Таги: VMware, vSphere, Update, ESXi, vCenter, FT, vMotion

Решение VMware EVO:RAIL - строительный блок для конвергентной инфраструктуры.


На проходящей сейчас в Сан-Франциско конференции VMworld 2014 компания VMware представила несколько интересных анонсов, которые (как всегда) открывают много возможностей для ИТ-инфраструктур различного масштаба. Одним из таких анонсов стал выпуск решения VMware EVO:RAIL, предназначенного для построения конвергентной инфраструктры.


Таги: VMware, EVO, SMB, Hardware, vSphere, Partners, ESXi, vCenter

Обновился VMware I/O Analyzer на VMware Labs - новые возможности.


Почти три года назад мы писали про средство VMware I/O Analyzer, предназначенное для генерации нагрузки и анализа статистики ввода-вывода хостов VMware ESXi, доступное на сайте проекта VMware Labs. Не так давно вышло обновление этого средства, которое, как оказалось, живет и развивается.

VMware I/O Analyzer поставляется в виде виртуального модуля (готовой ВМ), предоставляющего администраторам следующие возможности:

  • Интегрированный фрейворк для тестирования производительности хранилищ средствами генераторов нагрузки.
  • Готовый к развертыванию виртуальный модуль (управляющая ВМ и "воркеры" - генераторы нагрузки).
  • Прост в настройке и возможность исполнения тестов на одном или нескольких хостах ESX/ESXi.
  • Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС.
  • Возможность экспорта данных для последующего анализа.
  • Средства "повторения" нагрузки на хранилища путем ее воспроизведения из трейса ввода-вывода.
  • Возможность загрузки трейсов ввода-вывода для автоматического извлечения необходимых метрик.
  • Графическая визуализация метрик и результатов анализа производительности.

В обновленном VMware I/O Analyzer 1.6.x появились следующие возможности:

  • Улучшенный планировщик заданий ввода-вывода.
  • Сам виртуальный модуль теперь на платформе SLES 64-bit, а сервер на Tomcat 6.
  • Экспериментальная поддержка статистик клиента NFS.
  • Возможность использования непостоянной (non-persistent) конфигурации (без сохранения настроек).
  • Сама ВМ с I/O Analyzer теперь версии 7, что позволяет запускать и использовать ее в ESX/ESXi 4.x.
  • Улучшения на бэкэнде, позволяющие поддерживать до 240 и более генераторов нагрузки.

На самом деле с 2011 года много что изменилось в этом продукте, поэтому ознакомьтесь с юзер-гайдом, в котором есть история добавления фичей по версиям.

Скачать VMware I/O Analyzer можно по этой ссылке. Очень хорошо, что подобные утилиты не ограничиваются одним релизом, а развиваются и обрастают функционалом.


Таги: VMware, Storage, Performance, Analyzer, vSphere, ESXi, VMachines, Virtual Appliance

Как запретить vMotion отдельной виртуальной машине на VMware vSphere.


Если вы хотите, чтобы никто не делал vMotion конкретной виртуальной машины с конкретного сервера VMware ESXi, то нужно просто разослать письмо администраторам vSphere с просьбой этого не делать. Но есть еще один способ, который поведал нам Frank Denneman - хотя он тоже имеет ограниченные условия применения. Ну и не забываем, что есть способ путем задания правил механизма балансировки VMware DRS (однако, не у всех по лицензии DRS есть).

В этом способе есть один существенный минус - в то время, как он не позволяет пользователю двинуть виртуальную машину через vMotion вручную, смигрировать машину можно будет через перевод хоста ESXi в Maintenance mode, так как делается это не под аккаунтом пользователя, а под системной учетной записью (System). Но режим обслуживания используется редко, и хотя бы для ручных операций это можно будет сделать. Ну и имейте в виду, что механизм VMware HA также может перезапустить машину на другом хосте в случае сбоя, наплевав на все.

Итак, чтобы отключить vMotion для конкретной виртуальной машины, нужно создать новую роль (No-vMotion), для которой необходимо отключить привилегию по vMotion машины, назначатить эту роль администраторам и добавить пермиссию для виртуальной машины, указав юзеров с этой ролью (как работает этот механизм читайте здесь).

Итак, добавляем роль No-vMotion в vSphere Web Client:

1. Заходим в vCenter как administrator.
2. Идем на домашний экран и переходим в Roles на экране Administration.
3. Выбираем действие создать роль (зеленый плюс).
4. Выбираем "All Priveleges", скроллимся до категории "Resource" и отчекиваем следующие привилегии,

  • Migrate powered off virtual machine
  • Migrate powered on virtual machine
  • Query vMotion

Далее добавляем пермиссию для виртуальной машины для нужного администратора/группы:

1. Выбираем "Host and Clusters" и находим нужную ВМ на вкладке Manage.
2. Выбираем пункт "Permissions" и кликаем на добавление пермиссии (зеленый плюс).
3. Нажимаем "Add" и выбираем пользователя или группу, которым мы хотим запретить vMotion этой виртуальной машины.
4. В правой части экрана выбираем роль "No-vMotion" и нажимаем "Ok".

Убеждаемся, что роль применена для данного пользователя к данному объекту (на остальные пермиссии это не повлияет):

Попробуем смигрировать эту виртуальную машину пользователем FrankD - видим, что опция "Migrate" загреена:

Но вот возможность перевода в Maintenance mode, к сожалению, по-прежнему активна:

Кто-нибудь знает более простой и надежный способ?


Таги: VMware, vSphere, vMotion, VMachines, Security, Обучение, ESXi, DRS, Blogs

Апгрейд VMFS-3 на VMFS-5, почему это плохо, и как найти такие тома.


Как вы знаете, автор этого сайта придерживается правила "лучше переставлять, чем обновлять" (когда речь идет о мажорных версиях продукта - см., например, вот тут и тут).

В VMware vSphere 5.0 компания VMware обновила свою кластерную файловую систему до версии VMFS 5. При этом в vSphere 5.x тома VMFS-3 поддерживаются, а также доступен апгрейд с третьей версии на пятую (напомним, что в пятой версии появилась поддержка дисков в 64 ТБ). Более подробная информация об апгрейде VMFS приведена в документе "VMware vSphere VMFS-5 Upgrade Considerations".

Так вот, апгрейженный том VMFS-5 имеет ограниченную функциональность в отличие от созданного заново тома, а именно:

  • Апгрейженный том продолжает использовать исходный размер блока (в новой версии VMFS 5.x размер блока унифицирован - 1 МБ). Это иногда может привести к чрезмерному потреблению места на диске (если много мелких файлов), но что самое неприятное - к падению производительности Storage vMotion.
  • Апгрейженный том не имеет таких возможностей как Sub-Block Size, увеличенное число файлов на хранилище и разметка GPT.
  • Обновленный том VMFS-5 продолжает иметь раздел, начинающийся с сектора 128, это может вызвать некоторые проблемы с выравниванием блоков. Новый раздел VMFS 5 начинается с сектора 2048.

Таким образом, получается, что лучше создать новый том VMFS-5, чем обновлять существующие тома VMFS-3. Но это все было давно, ну а вдруг у вас остались такие вот обновленные VMFS, из-за которых у вас иногда что-то работает не так?

Проверить, какой у вас том, можно в vSphere Client или vSphere Web Client. Смотрим размер блока:

Если он не 1 МБ - то это точно апгрейженный том, и его неплохо бы пересоздать. А вот если 1 МБ, то вовсе не факт, что это новый том (как раньше, так и сейчас был такой размер блока). В этом случае вам поможет вот этот скрипт, который выводит список всех томов VMFS и показывает, новый это том или апгрейженный.

Запустить этот скрипт можно таким образом:

1. Загружаем его и переименовываем его в check_vmfs.sh, убрав расширение .doc.

2. Копируем скрипт на виртуальный модуль vMA. Можно также запускать скрипт локально на сервере ESXi - для этого его туда надо загрузить через Veeam FastSCP или WinSCP.

3. Включаем демон SSH на хостах ESXi, где вы будете выполнять скрипт. (в vSphere Client нужно зайти в Configuration \ Software \ Security profile \ Services \ SSH).

4. Удаленно выполнить скрипт на серверах через SSH можно с помощью команды:

ssh root@<ESXi IP> 'ash -s' < ./check_vmfs.sh

Далее попросят пароль и будет выведен результат работы скрипта.

Здесь нужно смотреть на значение Sub Blocks, если Sub Blocks = 3968, то это апгрейженный VMFS-5, и его неплохо бы пересоздать. У нормального VMFS-5 значение Sub Blocks равно 32000.

Такое вот работающее правило "лучше переставлять, чем обновлять". Любители PowerShell могут также посмотреть вот эту статью.


Таги: VMware, VMFS, Storage, ESXi, Upgrade

Новый документ - Intel Data Plane Development Kit with VMware vSphere.


Компании VMware и Intel в партнерстве выпустили новый документ "Intel Data Plane Development Kit with VMware vSphere" (DPDK), который описывает работу с данной библиотекой приложений Linux User Space. Она позволяет на высоком уровне работать с подсистемой ввода-вывода и сетевого взаимодействия и на программном уровне обрабатывать то, что ранее необходимо было делать только на аппаратном для высоконагруженных систем, например, Application-specific integrated circuits (ASICs) и Field programmable gate arrays (FPGAs).

Данный DPDK с использованием техник паравиртуализации позволяет напрямую обращаться к аппаратным функциям оборудования или виртуальных устройств VMware vSphere.

Решение DPDK with VMware vSphere может быть использовано для миграции систем (обычно в сфере телекома и какого-то необычного сетевого взаимодействия), которые раньше были жестко завязаны на аппаратные функции "железа", на платформу VMware vSphere.

При использовании DPDK можно взаимодействовать со следующими механизмами VMware vSphere:

  • Виртуальный сетевой адаптер VMXNET3
  • Коммутаторы vSwitch и Virtual Distributed Switch
  • Прямой проброс устройств через VMware vSphere DirectPath I/O или технологию SR-IOV

Стандартная реализация паравиртуализационного взаимодействия гостевой ОС через vSwitch и VDS выглядит так:

Если речь идет о пробросе устройств напрямую в ОС, то схема выглядит следующим образом:

Больше интересных подробностей можно узнать в самом документе.


Таги: VMware, Intel, DPDK, SDK, Linux, ESXi, VMachines, Performance, P2V

Как запустить Mac OS X в виртуальной машине на VMware ESXi в VMware Fusion.


Вильям Лам описал интересный способ по запуску виртуальных машин с Mac OS X на борту в виртуальном же VMware ESXi, который установлен на платформе VMware Fusion в хостовой Mac OS X. Напомним, что этот вариант запуска виртуальной машины не противоречит лицензионному соглашению Apple, предписывающему запускать Mac OS только на собственном железе.

Для того, чтобы убедиться в том, что гостевая ОС выполняется на оборудовании Apple, сервер ESXi использует механизм Apple SMC (System Management Controller).

В конфигурации, приведенной выше, ESXi по умолчанию не пробрасывает функции SMC в гостевую ОС, но это можно исправить, добавив специальные инструкции в Advanced VM Settings настроек виртуальной машины (или напрямую в VMX-файл):

smc.present = "TRUE"
smbios.reflectHost = "TRUE"

Проверить, что настройки эти зафиксировались можно через MOB (Managed Object Browser). Для этого перейдем по ссылке:

https://<ESXI_IP>/mob/?moid=ha-host&doPath=hardware

и увидим вот такую картинку (в противном случае настройка будет установлена в false):

После этого спокойно можно запускать Mac OS X в виртуальной машине на ESXi через VMware Fusion:

За что вот пользователи любят VMware, так это за то, что она вот такие экзотические штуки предусматривает.


Таги: VMware, ESXi, Apple, Fusion, Mac OS, VMachines

Как создать пользователя VMware ESXi из командной строки и использовать это в скриптах.


Многие администраторы, которым требуется создание пользователей VMware vSphere на хостах ESXi используют vSphere Client.

Однако завести нового юзера можно и из консоли ESXi, только делается это не совсем обычным способом, который предложили вот тут.

Надо использовать команду adduser, которая исключена из окружения командной строки (раньше она была на ESX), но по-прежнему доступна через busybox.

Добавляем нового пользователя так:

# /usr/lib/vmware/busybox/bin/busybox adduser -s /bin/sh -G root -h / steve

здесь:

  • -G - группа пользователя (добавляем рута)
  • -h - его домашняя директория
  • steve - понятное дело, имя пользователя

После выполнения этой команды будет выведен интерактивный запрос на создание пароля пользователя, что не очень удобно для автоматизированных скриптов.

Есть команда, которая не предлагает ввести пароль, но создает пользователя без пароля:

# /usr/lib/vmware/busybox/bin/busybox adduser -s /bin/sh -G root -h / -D steve

Однако создавать пользователя без пароля - моветон. Поэтому следующей командой в скрипте можно задать ему нужный пароль:

# echo testpass | passwd steve --stdin

Вот так элегантно и просто вбиваем юзеру steve пароль "testpass". Конечно же, это все не поддерживается со стороны VMware, поэтому все это вы делаете на свой страх и риск.


Таги: VMware, vSphere, ESXi, Обучение, Security

Новый документ "Performance of vSphere Flash Read Cache in VMware vSphere 5.5" - как получить детальную информацию о кэше vFRC.


Как знают те из вас, кто следит за развитием технологий VMware, есть такой механизм как vFRC (vSphere Flash Read Cache), представляющий собой распределенный кэш на SSD-накопителях локальных дисков серверов ESXi (ранее он имел рабочее название vFlash). Не так давно мы писали про обзорный документ "What’s New in VMware vSphere Flash Read Cache", а на днях вышел более глубокий технический документ "Performance of vSphere Flash Read Cache in VMware vSphere 5.5", посвященный производительности vFRC.

Помимо всего прочего, в документе рассматривается способ получения информации о структуре и содержимом кэша vFRC. Сделать это можно с помощью команды:

~ # esxcli storage vflash cache list

Эта команда выведет список идентификаторов кэша для VMDK-дисков, для которых включена vFRC. Далее с помощью следующей команды можно узнать детали конкретного ID кэша:

 # esxcli storage vflash cache get –c <cache-identifier>

Несколько больше информации (включая объем закэшированных данных) можно почерпнуть из команд, приведенных ниже. Для этого потребуется создать переменную CacheID:

~ # cacheID='vsish -e ls /vmkModules/vflash/module/vfc/cache/'
~ # vsish -e get /vmkModules/vflash/module/vfc/cache/${cacheID}stats

В результате будет выведено что-то подобное:

vFlash per cache instance statistics {
cacheBlockSize:8192
numBlocks:1270976
numBlocksCurrentlyCached:222255
numFailedPrimaryIOs:0
numFailedCacheIOs:0
avgNumBlocksOnCache:172494
read:vFlash per I/O type Statistics {
numIOs:168016
avgNumIOPs:61
maxNumIOPs:1969
avgNumKBs:42143
maxNumKBs:227891
avgLatencyUS:16201
maxLatencyUS:41070
numPrimaryIOs:11442
numCacheIOs:156574
avgCacheLatencyUS:17130
avgPrimaryLatencyUS:239961
cacheHitPercentage:94
}
write:vFlash per I/O type Statistics {
numIOs:102264
avgNumIOPs:307
maxNumIOPs:3982
avgNumKBs:10424
maxNumKBs:12106
avgLatencyUS:3248
maxLatencyUS:31798
numPrimaryIOs:102264
numCacheIOs:0
avgCacheLatencyUS:0
avgPrimaryLatencyUS:3248
cacheHitPercentage:0
}
rwTotal:vFlash per I/O type Statistics {
numIOs:270280
avgNumIOPs:88
maxNumIOPs:2027
avgNumKBs:52568
maxNumKBs:233584
avgLatencyUS:11300
maxLatencyUS:40029
numPrimaryIOs:113706
numCacheIOs:156574
avgCacheLatencyUS:17130
avgPrimaryLatencyUS:27068
cacheHitPercentage:58
}
flush:vFlash per operation type statistics {
lastOpTimeUS:0
numBlocksLastOp:0
nextOpTimeUS:0
numBlocksNextOp:0
avgNumBlocksPerOp:0
}
evict:vFlash per operation type statistics {
lastOpTimeUS:0
numBlocksLastOp:0
nextOpTimeUS:0
numBlocksNextOp:0
avgNumBlocksPerOp:0
}
}

Приведенный вывод содержит все метрики, означенные в упомянутом документе. Далее вы можете использовать эту информацию для принятия решения о размере кэша на серверах ESXi и значении других настроек, описанных в документе.


Таги: VMware, vFRC, Cache, SSD, vSphere, ESXi, Обучение, Troubleshooting, Whitepaper

Приходите на вебинар о хранилищах для бесплатного гипервизора VMware ESXi - "Hardware agnostic Virtual SAN for VMware ESXi Free" и выиграйте бесплатный билет на VMworld US 2014.


Как известно, огромное количество системных администраторов используют бесплатную платформу виртуализации VMware ESXi Free (он же vSphere Hypervisor). Почти все они интересуются вопросом, как организовать надежное хранилище для виртуальных машин, не покупая дорогостоящие аппаратные СХД.

Как раз таким ИТ-специалистам будет интересно послушать бесплатный вебинар "Hardware agnostic Virtual SAN for VMware ESXi Free", который пройдет 7 августа в 22-00 по московскому времени.

На мероприятии будет рассказано о технических аспектах решения номер 1 на рынке для создания программных iSCSI-хранилищ под VMware vSphere - StarWind Virtual SAN (мы писали о нем вот тут), а также об экономических составляющих решения. Напомним, что у продукта есть бесплатное издание с возможностями отказоустойчивости узлов хранилищ (ограничение только по объему хранения), что является беспрецедентным предложением на рынке.

Ну и пришедшим на вебинар - невероятный бонус: будет разыгран один бесплатный билет на конференцию VMware VMworld 2014 US, а также пять бесплатных билетов на выставку VMworld US 2014 (expo passes). Победитель будет выбран случайным образом в конце мероприятия.

ЗАРЕГИСТРИРОВАТЬСЯ


Таги: StarWind, Webinar, ESXi, Storage, iSCSI, VMware

Как установить время и дату на сервере VMware ESXi.


Многие начинающие администраторы VMware vSphere задаются вопросом, как правильно установить время на хосте VMware ESXi. Те из них, кто привык делать это в ОС Linux, могут попробовать выполнить команду:

~ # date -s

Однако будет вот такой результат:

date: option requires an argument -- s  
BusyBox v1.19.0 (2012-02-29 14:20:08 PST) multi-call binary.  
Usage: date [OPTIONS] [+FMT] [TIME]  
Display time (using +FMT), or set time  

[-s,--set] TIME Set time to TIME
-u,--utc Work in UTC (don't convert to local time)
-R,--rfc-2822 Output RFC-2822 compliant date string
-I[SPEC] Output ISO-8601 compliant date string
SPEC='date' (default) for date only,
'hours', 'minutes', or 'seconds' for date and
time to the indicated precision
-r,--reference FILE Display last modification time of FILE
-d,--date TIME Display TIME, not 'now'
-D FMT Use FMT for -d TIME conversion  

Recognized TIME formats:
hh:mm[:ss]
[YYYY.]MM.DD-hh:mm[:ss]
YYYY-MM-DD hh:mm[:ss]
[[[[[YY]YY]MM]DD]hh]mm[.ss]  
~ # date -s 2014-07-12 12:00:00
date: Setting date not supported; use <esxcli system time set>

Обратим внимание на последнюю строчку, которая говорит нам о том, что команда date не поддерживается для установки даты и времени, вместо нее нужно использовать утилиту esxcli. Выполняем указанную команду:

~ # esxcli system time set
You must specify one of year, month, day, hour, minute or second

Вызовем помощь:

~ # esxcli system time set --help
Usage: esxcli system time set [cmd options]  

Description:
set
Set the system clock time. Any missing parameters will default to the current time  

Cmd options:
-d|--day=<long> Day
-H|--hour=<long> Hour
-m|--min=<long> Minute
-M|--month=<long> Month
-s|--sec=<long> Second
-y|--year=<long> Year

Теперь все стало ясно: чтобы установить, например, октябрь месяц, вызываем команду с параметром "-M 10", то есть:

~ # esxcli system time set -M 10

Проверяем, что октябрь установился:

~ # date
Mon Oct 12 10:43:52 UTC 2014

Аналогично устанавливаем год, день, часы и минуты, используя параметры -y, -d, -H, -m, соответственно.

Ну а проверить можно не только с помощью date, но и через esxcli, заменив set на get:

~ # esxcli system time get
2014-07-12T10:59:14Z


Таги: VMware, ESXi, vSphere, Обучение, Troubleshooting

Как сбросить время пробной лицензии VMware vSphere (Reset ESXi trial).


Как вы знаете, платформу VMware vSphere можно использовать бесплатно в полнофункциональном режиме в течение 60 дней. Однако, зачастую, этого времени оказывается недостаточно, и многие пользователи хотят сбросить триальную лицензию VMware ESXi, чтобы использовать продукт еще некоторое время до покупки.

Ниже приведен способ, как обновить триал VMware vSphere снова до 60 дней. Общая процедура такова:

  • Отсоединяем хост ESXi от vCenter
  • Заходим на ESXi через DCUI или по SSH
  • Удаляем файлы /etc/vmware/vmware.lic и /etc/vmware/license.cfg
  • Перезагружаем сервер
  • Присоединяем хост к vCenter

После этого вы получите вот такую картинку - хост затриалится еще на 60 дней:

Команды удаления указанных файлов и перезагрузки следующие:

rm -f /etc/vmware/vmware.lic /etc/vmware/license.cfg
reboot

Для VMware vSphere 5.1 и 5.5 эти файлы надо удалять после каждой перезагрузки. Делается это так:

rm -f /etc/vmware/vmware.lic /etc/vmware/license.cfg
reboot ; while true ; do
rm -f /etc/vmware/vmware.lic /etc/vmware/license.cfg
done

Для ESXi 5.1 есть альтернативный метод без перезагрузки:

rm -r /etc/vmware/license.cfg
cp /etc/vmware/.#license.cfg /etc/vmware/license.cfg
/etc/init.d/vpxa restart

Для ESXi 5.0 это тоже делается без ребута:

rm -f /etc/vmware/vmware.lic /etc/vmware/license.cfg
services.sh restart

Ну а если у вас вдруг истек триал, а вы не успели прописать лицензию на хост, то сделать это очень просто. Надо открыть файл /etc/vmware/vmware.lic (зайдя по SSH):

~# vi /etc/vmware/vmware.lic

и прописать туда ваш ключик, после чего все должно заработать. Перезагрузка, вроде, не требуется.

Для vCenter тоже есть способ сброса триала, но не факт, что он сейчас работает:

  • Создаем новый DSN к локальной базе SQL Express, где хранятся данные vCenter
  • Удаляем vCenter
  • Ставим vCenter заново, указав созданный DSN и убедившись, что не выбран режим overwrite

Таги: VMware, vSphere, ESXi, Обучение, Trial

VMware vSphere Virtual Volumes (VVols) - использование различных vSphere API для операций клонирования виртуальных машин.


Как мы писали недавно, в новой версии платформы VMware vSphere 6, которая сейчас находится в стадии публичной беты, появились возможности использования томов VVols (о которых мы писали здесь). Сейчас эта функциональность также находится в бете и доступна для загрузки вот тут

Концепция VVol (она же VM Volumes) увеличивает уровень гранулярности работы хост-сервера с хранилищем за счет непосредственных операций с виртуальной машиной, минуя сущности "LUN->том VMFS->Datastore". Тома VVol является неким аналогом существующих сегодня LUN, но с меньшим уровнем гранулярности операций по сравнению с томами VMFS (последние, как правило, создаются из одного LUN). Таким образом, ВМ находится на одном VVol как всадник на лошади.

Чтобы виртуальные машины можно было создавать на томах VVols и производить с ними различные операции, нужно чтобы дисковый массив поддерживал такой интерфейс как vSphere APIs for Storage Awareness (VASA). Через этот API возможна передача функций, обычно выполняемых хостом ESXi, на сторону аппаратного хранилища. Кроме того, есть также интерфейс vSphere Storage API – Array Integration (VAAI), который также используется для offloading'а операций на сторону массива, особенно когда дело касается операций миграции и клонирования ВМ.

Давайте посмотрим, как эти два API (VASA и VAAI) работают с хранилищем при операциях клонирования виртуальных машин, которые часто нужны в инфраструктуре виртуальных ПК на базе VMware Horizon View.

Сценарий 1 - клонирование ВМ в рамках одного контейнера VVol

В этом случае через API VASA вызывается функция cloneVirtualVolume, которая полностью передает на сторону дискового массива операцию клонирования ВМ:

Сценарий 2 - клонирование ВМ в рамках разных VVol

В этом случае все зависит от того, на каких хранилищах находятся данные VVol. Если VVol-a и VVol-b находятся на двух массивах одного вендора, настроенных единообразно, и управляются одним VASA Provider, то в этом случае используется API VASA и вызывается функция cloneVirtualVolume.

Если же VVol-a и VVol-b находятся на одном массиве и настроены по-разному, либо хранилища VVol-a и VVol-b находятся на двух массивах разных вендоров или моделей, то операция через VASA API может не пройти. Тогда происходит переключение на VAAI API, который использует датамувер ESXi (vmkernel data mover) и примитивы VAAI для клонирования виртуальной машины. При этом в случае неудачи передачи операций клонирования на сторону массива датамувер может начать перемещать данные через хост ESXi (подробнее - тут):

Конечно же, предпочтительнее делать все через VASA API - такая операция пройдет быстрее, поскольку в ней не будет задействован хост ESXi. Поэтому тут важна унификация конфигурации хранилищ и дисковых массивов в инфраструктуре. Ну и надо, конечно же, смотреть, чтобы закупаемые массивы в полной мере поддерживали VASA и VAAI.

Сценарий 3 - клонирование ВМ с тома VMFS на VVol

Если получается так, что ВМ надо склонировать с тома VMFS на хранилище VVol, то тут будет работать только операция XCOPY / WRITE_SAME интерфейса VAAI.

При этом работает это только для операции в направлении VMFS->VVol, при обратном клонировании этот API использован не будет.

Узнать больше о томах VVol и позадавать вопросы на эту тему вы можете на специальной странице Virtual Volumes beta community.


Таги: VMware, vSphere, VVol, VAAI, VASA, ESXi, Storage, Hardware, VMachines

Как расширить локальный том VMFS в VMware ESXi.


Как многие из вас знают, в платформе виртуализации VMware vSphere есть множество удобных средств работы с хранилищами, включая средства позволяющие расширить том VMFS прямо из GUI клиента vSphere Client - достаточно лишь сделать Rescan HBA-адаптеров. Однако если необходимо расширить локальный том (Local VMFS), то тут встроенных средств уже нет, и все нужно аккуратно делать самому, как это описано в KB 2002461. Приведем здесь этот процесс, проиллюстрировав его скриншотами.


Таги: VMware, VMFS, Storage, Обучение, vSphere, ESXi

Куда делся сетевой адаптер (vNIC) виртуальной машины на VMware vSphere?


Бывает такое, что пользователь системы жалуется администратору виртуальной инфраструктуры VMware vSphere, что у него пропал сетевой адаптер в виртуальной машине, и она больше недоступна из внешней сети. Администратор смотрит в лог виртуальной машины (vmware-##.log) и видит там вот такое:

Mar 15 03:13:37.463: vmx| Powering off Ethernet1 
Mar 15 03:13:37.463: vmx| Hot removal done.

Это, как вы уже догадались, означает, что кто-то тыкнул на иконку "Safely Remove Hardware" в гостевой ОС и выбрал там сетевой адаптер ВМ:

Либо это было сделано случайно в vSphere Client или Web Client. Поправить это легко - надо отключить функции Hot Add для виртуальной машины.

Для этого:

  • Соединяемся с хостом ESXi/ESX напрямую или через vCenter Server посредством vSphere Client.
  • Выключаем виртуальную машину.
  • Выбираем для нее Edit Settings и переходим на вкладку Options.
  • Выбираем General > Configuration Parameters > Add Row.
  • Добавляем строчку с именем devices.hotplug и значением false.
  • Включаем виртуальную машину.

После этого при попытке удаления устройства работающей виртуальной машины будет выдано такое сообщение

Если же вы не хотите запрещать Hot Add для всех устройств, а хотите просто спрятать возможность удаления сетевой карты из Safely Remove Hardware, то нужно сделать следующее:

  • Запустить редактор реестра как Local System. Для этого можно использовать утилиту psexec Tool.
  • Выполняем psexec -i -s regedit.exe.
  • Идем в ветку HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Enum ищем наш драйвер NIC (в его названии есть VMXNET3, E1000 и т.п.).
  • Установите значение ключа Capabilities на 4 единицы ниже.

Например, вот тут мы видим значение ключа 16:

Устанавливаем его на 4 меньше, то есть в значение 12:

После этого сетевой адаптер исчезнет из безопасного удаления устройств:


Таги: VMware, vSphere, Troubleshooting, ESXi, VMachines, vNetwork

Обновления от VMware: vCenter Server 5.5 Update 1b, патч ESXi Update 1 для решения проблем NFS-хранилищ и OpenSSL, а также vCloud Director 5.5.1.2.


На прошедшей неделе компания VMware вплотную занялась патчингом и фиксингом своих продуктов, закрывая те проблемные места, которые накопились за прошедшие пару-тройку месяцев. Прежде всего, было выпущено обновление ESXi550-201406401-SG, которое решает сразу две проблемы на VMware vSphere 5.5 Update 1.

Во-первых, мы уже писали о том, что  в VMware vSphere 5.5 Update 1 был баг - если использовать NFS-хранилища, то они периодически отваливаются, переходя в состояние APD (All paths down). Это касается и VSA-хранилищ. В логах при этом наблюдается что-то вроде такого:

2014-04-01T14:35:08.074Z: [APDCorrelator] 9413898746us: [vob.storage.apd.start] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down state.
2014-04-01T14:35:08.075Z: [APDCorrelator] 9414268686us: [esx.problem.storage.apd.start] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down state.
2014-04-01T14:36:55.274Z: No correlator for vob.vmfs.nfs.server.disconnect
2014-04-01T14:36:55.274Z: [vmfsCorrelator] 9521467867us: [esx.problem.vmfs.nfs.server.disconnect] 192.168.1.1/NFS-DS1 12345678-abcdefg0-0000-000000000000 NFS-DS1
2014-04-01T14:37:28.081Z: [APDCorrelator] 9553899639us: [vob.storage.apd.timeout] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down Timeout state after being in the All Paths Down state for 140 seconds. I/Os will now be fast failed.
2014-04-01T14:37:28.081Z: [APDCorrelator] 9554275221us: [esx.problem.storage.apd.timeout] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down Timeout state after being in the All Paths Down state for 140 seconds. I/Os will now be fast failed.

В выпущенном обновлении эта ошибка была исправлена.

Во-вторых, была также исправлена ошибка безопасности в OpenSSL, которая может оказаться даже серьезнее, чем исправленный ранее баг OpenSSL Heartbleed. В ESXi существует вероятность атаки типа MiM (Man in the Middle), о которой подробнее рассказано вот тут. Этот баг в приведенном выше обновлении был также зафикшен. Кстати, в своем блоге компания VMware объявила о том, что ее команда безопасности расследует новые возможные уязвимости OpenSSL, и вот тут приведены результаты ее работы.

Чтобы скачать патч, идем на VMware Patch Portal, выбираем там продукт "ESXi Embedded & Installable", версию релиза 5.5.0 и дату - 10 июня. Получаем ссылку на патч:

Применить этот патч можно и не скачивая его с сайта VMware, а просто с помощью следующей последовательности команд:

# открываем фаервол для http

esxcli network firewall ruleset set -e true -r httpClient

# устанавливаем образ ESXi-5.5.0-20140604001-standard из хранилища VMware Online depot

esxcli software profile update -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml -p ESXi-5.5.0-20140604001-standard

# перезагружаем хост ESXi

reboot

Также на днях компания VMware выпустила обновления продукта vCenter Server 5.5 Update 1b:

и vCloud Director 5.5.1.2:

Оба этих исправления прежде всего несут в себе фиксы в плане безопасности протокола OpenSSL, однако там есть и другие мелкие улучшения. Рекомендуется их установить.

Надо отметить, что VMware vCenter Server Appliance не подвержен багу OpenSSL, поэтому и исправлений для него нет.


Таги: VMware, vSphere, Security, Bug, Bugs, ESXi, vCenter, vCloud, Director

Вышла финальная версия VMware vSphere Hardening Guide 5.5 Update 1.


Спустя полгода с момента выпуска прошлой версии основного руководства по обеспечению безопасности виртуальной инфраструктуры, компания VMware обновила версию этого документа до vSphere Hardening Guide 5.5 Update 1. Надо отметить, что руководство по безопасности вышло аж через 3 месяца после выпуска самой vSphere 5.5 Update 1, что как бы не очень хорошо, так как многие пользователи уже используют U1 в производственной среде, и руководство им пригодилось бы раньше. Ну да ладно, бывало нужно было ждать и дольше.

Доступен также лог изменений с момента прошлого документа:

В новой версии руководства есть следующие важные изменения:

  • enable-VGA-Only-Mode - эта рекомендация должна быть применена для виртуальных серверов, которым не нужен графический режим (обычно он используется для VDI-инфраструктуры). То есть для веб-серверов, серверов Windows Core и т.п. нужно этот режим включить, чтобы уменьшить поверхность возможной атаки.
  • disable-non-essential-3D-features - аналогично, отключаем 3D-графику для виртуальных машин, которым это не нужно.
  • use-unique-roles - если у вас несколько сервисных аккаунтов, то им не нужно назначать одну роль на всех, а нужно создавать для каждого отдельную с необходимым набором привилегий для решения нужной задачи.
  • change-sso-admin-password - это рекомендация сменить пароль для аккаунта administrator@vsphere.local, когда вы используете виртуальный модуль VMware vCSA (готовая ВМ с vCenter). Для обычного vCenter этот пароль просят сменить при установке. Удивительно, но этой рекомендации раньше не было.

Ну и кроме всего прочего, было пофикшены различные ошибки (например, значения в некоторых ячейках были обрезаны), а некоторые рекомендации переместились в другие категории.


Таги: VMware, vSphere, Security, ESXi, Enterprise

Интеграция кластера хранилищ VMware Virtual SAN и кластера отказоустойчивости VMware HA в составе vSphere.


Как многие знают, с выходом средства для создания отказоустойчивых кластеров хранилищ VMware Virtual SAN, строящихся на базе локальных дисков серверов ESXi, стало известно, что этот механизм интегрирован со средством серверной отказоустойчивости VMware HA.

"Интегрирован" - означает, что любая нештатная ситуация, случившаяся с хостами ESXi должна быть обработана на стороне обоих механизмов, а также решение этой проблемы находится в компетенции поддержки VMware. И правда - ведь отказавший хост ESXi нарушает целостность обоих кластеров, поскольку предоставляет и ресурсы хранилищ, и вычислительные ресурсы.

При этом, например, в случае каких-нибудь сбоев в сети может произойти "разделение" кластеров на сегменты, что может повлечь неоднозначность в их поведении, поскольку они используют разные сети для поддержания кластера (хождения хартбитов).

Например, на картинке представлено разделение кластеров VMware HA и Virtual SAN на два частично пересекающихся сегмента:

Это, конечно же, плохо. Поэтому в VMware vSphere 5.5 были сделаны изменения, которые автоматически переносят сеть хартбитов кластера VMware HA в подсеть VMware Virtual SAN. Это позволяет в случае разделения сети иметь два непересекающихся в плане обоих технологий сегмента:

Вот тут и возникает 3 основных вопроса:

  • Какие хранилища нужно использовать в качестве datastore heartbeat?
  • Как адрес в случае изоляции хоста (isolation address) нужно использовать, чтобы надежно отличать изоляцию хоста от разделения сети на сегменты (network partitioning)?
  • Какие действия в случае изоляции хостов ESXi от остальной сети (isolation responses) нужно использовать?

Ну а в статье на блогах VMware даются вот такие ответы:

1. В качестве хранилищ, использующих datastore heartbeat в данной конфигурации, предлагается использовать датасторы, прицепленные к хостам ESXi, не входящим в кластер Virtual SAN. Объясняется это тем, что в случае разделения сети VSAN, механизм VMware HA сможет координировать восстановление виртуальных машин на хостах через эти хранилища.

2. По поводу isolation address есть следующие рекомендации:

  • При совместном использовании Virtual SAN и vSphere HA настройте такой isolation address, который позволит определить рабочее состояние хоста в случае отключения его от сети (сетей) VSAN. Например, можно использовать шлюз VSAN и несколько дополнительных адресов, которые задаются через расширенную настройку das.isolationAddressX (подробнее об этом - тут).
  • Настройте HA так, чтобы не использовать дефолтный шлюз management network (если эта не та же сеть, что и Virtual SAN network). Делается это через настройку das.useDefaultIsolationAddress=false.
  • Ну и общая рекомендация - если вы понимаете, как может быть разделен кластер с точки зрения сети, то найдите такие адреса, которые будут доступны с любого хоста при этом сценарии.

3. Ну и самое главное - действие isolation response, которое необходимо выполнить в случае, когда хост посчитал себя изолированным от других. На эту тему уже много чего писалось, но VMware объединила это вот в такие таблички:

 Тип виртуальной машины Хост имеет доступ к сети VSAN?  Виртуальные машины имеют доступ к своей сети VM Network?  Рекомендация для Isolation Responce  Причина 
Не-VSAN машина (не хранится на хранилищах Virtual SAN) Да Да Leave Powered On ВМ работает нормально - зачем что-то делать?
Не-VSAN машина Да Нет Leave Powered On Подходит для большинства сценариев. Если же доступ машины к сети очень критичен и не критично состояние ее памяти - надо ставить Power Off, чтобы она рестартовала на других хостах (координация восстановления будет через сеть VSAN). Дефолтно же лучше оставить Leave Powered On.
VSAN и не-VSAN машина Нет Да Leave Powered On
или
Power Off
См. таблицу ниже
VSAN и не-VSAN машина Нет Нет Leave Powered On
или
Power Off
См. таблицу ниже

А теперь, собственно, таблица ниже, которая объясняет от чего зависят последние 2 пункта:

Наиболее вероятна ситуация, когда в случае изоляции хоста, все остальные также изолированы? Будут ли хосты иметь доступ к heartbeat datastores, если будут изолированы? Важно ли сохранить память виртуальной машины при сбое? Рекомендованная isolation policy (responce) Причина
Нет Да Да Leave Powered On Важно состояние памяти ВМ. Так как есть доступ к хартбит-хранилищам, то ВМ не стартует на других хостах
Нет Да Нет Power Off Надо выключить ВМ, так как есть вероятность того, что ее вторая копия стартанет в другом сегменте разделенной сети.
Да Нет Да Leave Powered On Нет смысла выключать ВМ, так как хост-мастер операций не сможет инициировать ее восстановление, так как все хосты друг от друга изолированы.

Логика тут в принципе понятна, но в каждой конкретной ситуации может быть масса тонкостей касательно различных сценариев разделения и сбоев в сети, так что эти таблички лишь определяют направление мысли, а не дают готового рецепта.


Таги: VMware, Virtual SAN, HA, VSAN, FDM, Обучение, vSphere ESXi, vNetwork

Нужны ли лицензии на виртуальный VMware ESXi?


Мы довольно часто пишем о "вложенной" виртуализации, которая позволяет запускать гипервизор VMware ESXi в виртуальной машине поверх ESXi, установленного уже на физическом сервере (nested virtualization). Для таких виртуальных ESXi есть даже свои VMware Tools. Однако, отметим сразу, что такое использование виртуализации официально не поддерживается со стороны VMware (в производственной среде), хотя и активно применяется в частном порядке ее сотрудниками, партнерами и заказчиками.

Так вот у многих администраторов есть закономерный вопрос - а надо ли лицензировать такие виртуальные ESXi? Ведь они все равно, кроме как для тестов, ни на что не годятся. Ответ прост - лицензировать надо. Об этом прямо написано в KB 2009916:

Customers running nested ESXi/ESX will need to obtain additional licenses for the nested ESXi/ESX.  
VMware does not support running nested ESXi/ESX servers in production environments. This includes, but is not limited to:
  • VMware ESXi/ESX running in VMware Workstation or VMware Fusion
  • VMware ESXi/ESX running in VMware ESXi/ESX
  • VMware ESXi/ESX running in other third-party hypervisor solutions

Для тех, кто не хочет платить или хочет заплатить поменьше, есть 2 варианта:

  • Постоянно переустанавливать ESXi в составе vSphere с триалом на 60 дней.
  • Использовать бесплатный vSphere Hypervisor (он же Free ESXi) - но без vCenter.
  • Использовать виртуальный ESXi, но с одним vCPU и, как следствие, платить только за одну лицензию. При этом можно поставить несколько виртуальных ядер на этот vCPU, и производительность будет почти та же, что и при нескольких процессорах. Как раз для этих целей VMware и был придуман параметр cpuid.coresPerSocket.

Таги: VMware, vSphere, Nested, ESXi, VMachines, Licensing

Мониторинг отказоустойчивого кластера VMware Virtual SAN в графической консоли - VSAN Observer.


Тем из вас, кто развернул средство для создания отказоустойчивых кластеров VMware Virtual SAN, может потребоваться мониторинг состояния кластера в разрезе использования различных вычислительных ресурсов на хостах ESXi, а также виртуальными машинами.

Для этого есть специальная утилита с графическим интерфейсом VSAN Observer, которая позволяет через веб-интерфейс наблюдать за кластером VSAN. По умолчанию на сервере VMware vCenter она отключена.

Чтобы включить ее, делаем следующее:

1. Если вы используете VMware vCenter Virtual Appliance, то нужно запустить Ruby-консоль следующей командой:

rvc username@localhost

Здесь вводим логин и пароль администратора vCenter.

Если вы используете vCenter Server для Windows, то эту консоль можно запустить следующим bat-файлом (логин-пароль аналогичны предыдущему пункту):

%PROGRAMFILES%\VMware\Infrastructure\VirtualCenter Server\support\rvc\rvc.bat

2. Используем команды cd и ls, чтобы перейти в рабочий каталог VSAN:

cd localhost

cd VSAN

3. Запускаем веб-сервер VSAN Observer командой:

vsan.observer ~/computers/VSAN --run-webserver --force

4. После этого запускаем консоль VSAN Observer, перейдя по ссылке:

http://<vCenter Server>:8010

На первой вкладке мы видим дэшборд с различными характеристиками хост-серверов VMware ESXi, входящих в состав кластера Virtual SAN:

На вкладке VSAN Disks (per-host) мы видим уже графики на уровне отдельных физических дисков хостов:

На вкладке VSAN Disks (deep-dive) мы смотрим детальные параметры дисков на уровне отдельного хоста ESXi, включая кэширующий SSD-диск и HDD-диски с данными.

Каждый график можно развернуть отдельно, просто нажав на него:

На вкладке PCPU можно отслеживать параметры загрузки процессоров хост-серверов, обслуживающих кластер VSAN:

То же самое, но касательно памяти:

На вкладке Distribution можно смотреть информацию относительно баланса кластера - равномерно ли загружены его ресурсы:

Вкладка DOM Owner похожа на первую вкладку - говорят она для техподдержки VMware:

А вот вкладка VMs - полезная штука. Тут можно смотреть за производительностью на уровне отдельных виртуальных дисков конкретных ВМ, использующих ресурсы хранения кластера VSAN.

Также тут можно узнать, на каких хостах находятся реплики виртуальных дисков VMDK конкретной ВМ:

Ну а если вы хотите использовать VSAN Observer на сервере VMware vCenter под Windows, то команда ниже позволит вам добавить соответствующее правило в его сетевой экран:

netsh advfirewall firewall add rule name = "VMware RVC VSAN Observer" dir = in protocol = tcp action = allow localport = 8010 remoteip = localsubnet profile = DOMAIN


Таги: VMware, VSAN, Monitoring, Observer, Performance, ESXi, HA

1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16    >   >>
Поиск по сайту:
Реклама




Advertisement




Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

12/12/2014:  VMUG #3 Belarus

Быстрый переход:
VMware 5nine Citrix vGate StarWind Amazon IT-Grad Softline Veeam Symantec Microsoft Security Code NetApp Gartner Oracle VDI Red Hat Linux Hyper-V Offtopic IBM Cisco NVIDIA Google Parallels VMTurbo EMC VSI HP Security Windows vCenter VMachines Storage Cloud Webinar View VKernel Events Hardware Windows 7 Caravan Apple Xen Hyper9 Nicira Blogs Sun VMC Xtravirt Novell vSphere IntelVT Сравнение VirtualIron XenServer VirtualBox CitrixXen ESXi ESX ThinApp VMFS Books Enterprise P2V vCloud Tools Virtual SAN VDP AWS USB Replication Backup Licensing PowerCLI Azure Обучение Logs esxtop iSCSI XenDesktop Horizon vRealize SRM IaaS V2V Web Client Server Workstation XenApp Labs Mirage Whitepaper Demo VMworld Fusion Visio Intel vCHS MP SMB vCSA NSX Calculator Manager Бесплатно RHEV Log Insight VSAN Update XenClient HA vExpert Client Beta VCP SAN SaaS Support Virtual Appliance MAP ONE Converter DaaS VSA Certification Sponsorship Desktop Networking vNetwork Monitoring VPLEX UCS Video Poster VSPP SDRS PCoIP Mobile SC VMM vMotion VDI-in-a-Box RDM Deduplication Operations Reporter RVTools vShield Award DRS ACE Performance Cloud Computing VMDK Network Go nworks iPad XCP Data Recovery Partners Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor Fault Tolerance KVM vStorage Essentials Live Migration SCVMM TCO Studio AMD-V VirtualCenter NFS ThinPrint Snapshots Bug Troubleshooting Director Chargeback Heartbeat Upgrade Android MSCS Connector SSH Ports Memory SVMotion Storage DRS CLI Bugs Composer PowerShell DPM Mac
Интересные плакаты:

Постер о VMware vSphere 5.1 CLI:

Постер о vSphere 5.1 PowerCLI

Постер VMware vCloud Networking:

Порты и соединения VMware vSphere 5:

Управление памятью в VMware vSphere 5:

Составляющие решения VMware vCloud:

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Проектирование инфраструктуры виртуализации VMware vSphere 4.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Отличия VMware ESXi 4 free (бесплатного), ESXi 4 и ESX 4 в составе VMware vSphere.

Новые возможности VMware vSphere 5.0 - официально.

Бесплатные программы для VMware ESX / ESXi в среде Virtual Infrastructure / vSphere (часть 2).

Windows 7 в виртуальной машине VMware Workstation 6.5.2 и Virtual XP Mode.

Как использовать возможности VMware vSphere Management Assistant (vMA).

Недорогая конфигурация сервера VMware ESX/ESXi

Все ресурсы о виртуализации:
Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Купить:

VMware vSphere 5.5


Veeam Backup 7


Полезные ресурсы:


Видео компании VMware

Видео про Citrix Xen

Видео о виртуализации Microsoft

Утилиты для виртуальных машин Microsoft.

Книги на английском языке

Блоги на английском языке

Блоги на русском языке

Агрегация статей в твиттере VMC:


Copyright VM Guru 2006 - 2014, Александр Самойленко. Правила перепечатки материалов.