Новости Статьи VMware Veeam StarWind Microsoft ИТ-ГРАД Citrix Symantec 5nine События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Виртуализация vSphere, Hyper-V, XenServer и Red Hat

Более 4880 заметок о виртуализации и виртуальных машинах VMware, Microsoft, Citrix, Red Hat

VM Guru | Ссылка дня: Если у вас тормозит VMware Fusion 11, обновитесь - это поможет

Бесплатный вебинар StarWind 15 декабря: "Get All-Flash Performance from a Disk with StarWind LSFS Technology".

13/12/2015

Во вторник, 15 декабря в 22-00 по московскому времени, компания StarWind Software, разрабатывающая средство номер 1 для создания отказоустойчивых программных хранилищ под виртуализацию Virtual SAN, проведет интересный бесплатный вебинар "Get All-Flash Performance from a Disk with StarWind LSFS Technology".

Приходите на вебинар, чтобы узнать, как именно можно получить максимальный эффект от использования All-Flash хранилищ серверов хранения в сочетании с виртуализацией и проприетарной высокопроизводительной файловой системой LSFS от компании StarWind. Ребята действительно очень далеко продвинулись в этом плане.

Регистрируйтесь на вебинар!

Вышел vRealize Operations for Published Applications 6.2 с поддержкой Citrix XenApp и XenDesktop.

11/12/2015

Как вы знаете, у компании VMware есть средство для комплексного мониторинга и решения проблем в виртуальной среде vRealize Operations. Также в решении для создания инфраструктуры виртуальных ПК предприятия VMware Horizon View (еще с версии 6.0) есть поддержка опубликованных приложений на серверах RDS Hosted Apps.

Ну и логично, что у VMware есть решение vRealize Operations for Published Applications, которое поддерживает мониторинг инфраструктуры доставки приложений через механизм RDS Hosted Apps. На днях вышла обновленная версия этого продукта - vRealize Operations for Published Applications 6.2 одновременно с основным релизом Operations 6.2, с поддержкой не только приложений опубликованных, через RDS, но и продуктов Citrix XenApp и XenDesktop.

Основные новые возможности vRealize Operations for Published Applications 6.2:

  • Поддержка последних версий Citrix XenDesktop and XenApp 7.6 - функции мониторинга и отчетности теперь доступны для инфраструктуры виртуализации и доставки приложений и десктопов, созданных на данных платформах.
  • Application and Usage Reports - готовые шаблоны отчетов, которые позволяют администраторам приложений определить потребление ресурсов приложениями, пиковые нагрузки, параметры сессий пользователей на серверных ресурсах, а также учитывать потребление пользователями лицензий отдельных приложений.
  • Proactive User Experience Monitoring - новый дэшборд "User Experience", который постоянно мониторит vCPU, vRAM и vDisk, чтобы с помощью карты heat map оповестить администратора о том, что некоторые пользователи испытывают проблемы при работе с их приложениями.
  • Reduced Time to Resolve - новые метрики сессии, которые помогают устранять проблемы: длительность процесса логина, сортировка по времени логина сессий, использование системных ресурсов, а также ICA Round Trip Time для приложений Citrix.
  • Windows 10 support - теперь Windows 10 поддерживается для мониторинга, как для VMware Horizon View, так и для решений XenDesktop/XenApp.
  • Алерты для Citrix Storefront, PVS Server, Citrix License Server и Citrix Database Server - теперь все эти компоненты поддерживаются в рамках общей процедуры мониторинга доступности компонентов инфраструктры виртуальных ПК и приложений.
  • Мониторинг лицензий Citrix License Server - теперь можно учитывать лицензии, считаемые этим продуктом.
  • Improved Logon Breakdown metrics to meet SLAs - дэшборд "Session Details" теперь показывает метрику длительность процесса логина для самых тормозных ПК.
  • Connection and machine failure data - эта новая метрика мониторит общее число неудачных соединений и стартов машин на ферме Citrix XenDesktop.

Более подробно о новых функциях решения vRealize Operations for Published Applications 6.2 написано в Release Notes. Напомним, что это решение включено в состав продукта vRealize Operations for Horizon, который можно скачать по этой ссылке.

Вышел VMware Fusion 8.1 - новые возможности платформы виртуализации для Mac.

09/12/2015

Компания VMware на днях выпустила обновление своей платформы виртуализации для Mac OS - VMware Fusion 8.1. Напомним, что о прошлой версии VMware Fusion 8 мы писали вот тут.

Интересно, что эта версия продукта не предоставляет новых возможностей, но несет в себе достаточно много исправлений ошибок, что означает, что их в восьмой версии было немало (вообще говоря, в последнее время VMware довольно часто выпускает продукты с серьезными багами).

От себя скажу, что для меня лично была очень актуальна ошибка с задержками при работе в Excel - пишут что был "one-second delay", однако ничего подобного - у меня вся машина фризилась секунд на 20-30, пока я не обновил Fusion.

Итак, какие багофиксы были сделаны:

  • Исправления ошибок для упрощенного процесса инсталляции гостевых ОС из ISO-образов Windows 10 и Windows server 2012 R2.
  • Исправлена ошибка с неработающим обратным DNS lookup в виртуальной машине, когла на Mac-хосте установлен сервер dnsmasq.
  • Исправление ошибки с крэшем машины при отключении внешнего монитора от Mac, когда Fusion работает в полноэкранном режиме.
  • Исправлена ошибка при зависании машины на несколько секунд при работе в Microsoft Excel.
  • Исправлена ошибка, когда использование USB-устройств на OS X 10.11 могло завалить виртуальную машину.
  • Исправлена ошибка, когда хостовая и гостевая раскладки клавиатуры (non-English) отличались при использовании VNC.
  • Исправлена ошибка подключения хоста к гостевой ОС, когда USB Attached SCSI (UAS) присоединен к порту USB 3.0 на Mac OS X 10.9 или более поздних версий.
  • Исправлено поведение, когда копирование большого файла с USB могло приводить к замораживанию процесса и в итоге его прерыванию по таймауту.

Посмотрите на список: большинство из этого - реально серьезные вещи. Что-то VMware в последнее время не радует своим подходом к тестированию продуктов.

Обновление VMware Fusion 8.1 бесплатно для всех пользователей восьмой версии, скачать его можно по этой ссылке.

Сколько "съедает" виртуализация бизнес-критичных приложений на платформе VMware vSphere?

08/12/2015

На блогах VMware появился интересный пост про производительность виртуальных машин, которые "растянуты" по ресурсам на весь физический сервер, на котором они запущены. В частности, в посте речь идет о сервере баз данных, от которого требуется максимальная производительность в числе транзакций в секунду (см. наш похожий пост о производительности облачного MS SQL здесь).

В данном случае речь идет о виртуализации БД с типом нагрузки OLTP, то есть обработка небольших транзакций в реальном времени. Для тестирования использовался профиль Order-Entry, который основан на базе бенчмарка TPC-C. Результаты подробно описаны в открытом документе "Virtualizing Performance Critical Database Applications in VMware vSphere 6.0", а здесь мы приведем основные выдержки.

Сводная таблица потерь на виртуализацию:

Метрика Нативное исполнение нагрузки Виртуальная машина
Пропускная способность транзакций в секунду 66.5K 59.5K
Средняя загрузка логических процессоров (72 штуки) 84.7% 85.1%
Число операций ввода-вывода (Disk IOPS) 173K 155K
Пропускная способность ввода-вывода дисковой подсистемы (Disk Megabytes/second) 929MB/s 831MB/s
Передача пакетов по сети в секунду 71K/s receive
71K/s send
63K/s receive
64K/s send
Пропускная способность сети в секунду 15MB/s receive
36MB/s send
13MB/s receive
32MB/s send

А вот так выглядит график итогового тестирования (кликабельно):

Для платформы VMware ESXi 5.1 сравнивалась производительность на процессоре микроархитектуры Westmere, а для ESXi 6.0 - на процессорах Haswell.

Результаты, выраженные в числе транзакций в секунду, вы видите на картинке. Интересно заметить, что ESXi версии 6.0 всерьез прибавил по сравнению с прошлой версией в плане уменьшения потерь на накладные расходы на виртуализацию.

А вот так выглядят усредненные значения для версий ESXi в сравнении друг с другом по отношению к запуску нагрузки на нативной платформе:

Ну и несложно догадаться, что исследуемая база данных - это Oracle. Остальное читайте в интереснейшем документе.

Вышел VMware View Horizon Toolbox 2 - новые возможности средства аудита и поддержки виртуальных ПК.

07/12/2015

Год назад мы писали о средстве VMware View Horizon Toolbox, доступном на сайте проекта VMware Labs, которое позволяет получать информацию о виртуальных ПК, производительности и сессиях пользователей в инфраструктуре VMware Horizon View. В начале декабря вышла обновленная версия утилиты - Horizon Toolbox 2.

Horizon Toolbox 2 - это дополнение к стандартной консоли View Administrator, исполненное в виде веб-портала с различными функциями вроде аудита, удаленной поддержки и прочих полезных возможностей:

Перечислим основные нововведения VMware View Horizon Toolbox 2:

1. Console Access

Теперь появилась возможность полноценного доступа к консоли виртуальных ПК:

Можно просматривать список виртуальных машин для пулов виртуальных ПК и фильтровать их по именам машин (или DNS-именам).

2. Power-on policy

Теперь появилась вкладка Power-on policy, на которой можно посмотреть и изменить политику включения рабочих виртуальных ПК по дням недели:

Отдельную политику включения можно настраивать для каждого пула виртуальных десктопов.

3. Client IP address auditing

Теперь можно просматривать детальную информацию обо всех сессиях, обслуживаемых брокером соединений: IP-адреса клиентов, время логина и логаута и другое.

4. Installation file

Теперь процесс развертывания Horizon Toolbox 2 идет в полноценном графическом интерфейсе.

5. Прочие улучшения

  • Производительность функций аудита была существенно повышения за счет оптимизации SQL-запросов.
  • Функция Remote assistance работает более стабильно.
  • Улучшена совместимость с различными версиями Horizon View.
  • Установщик на стороне пользователя проверяет, что режим Windows Remote Assistance настроен корректно.

Также вы можете почитать 2 полезных документа о View Horizon Toolbox 2 - это руководство по продукту, а также открытый документ об этом решении.

Скачать Horizon Toolbox 2 можно по этой ссылке.

Программно-аппаратный модуль StarWind HyperConverged Appliance - запись вебинара о продукте.

06/12/2015

3 декабря компания StarWind Software, выпускающая лучшее средство для создания отказоустойчивых хранилищ под виртуальные машины - Virtual SAN - провела интересный вебинар о своем программно-аппаратном продукте HyperConverged Appliance на тему "StarWind HyperConverged Appliance: Turnkey Hyperconverged Setup for Virtualization Infrastructure".

Если вы не успели на этот вебинар, можно посмотреть его запись по этой ссылке:

Напомним, что StarWind HyperConverged Appliance - это программно-аппаратный комплекс, который строится все это на базе следующих аппаратных платформ (спецификации - тут):

Приглашаем на вебинар Кода Безопасности "vGate 3.0. Новая версия решения для защиты платформ vSphere и Hyper-V".

04/12/2015

Недавно мы писали о том, какие новые возможности будут в обновленной версии vGate for Hyper-V, а на днях пришел анонс от компании Код Безопасности о проведении бесплатного вебинара "vGate 3.0. Новая версия решения для защиты платформ vSphere и Hyper-V".

Напомним, что vGate - это решение, которое позволяет защитить вашу виртуальную инфраструктуру Microsoft от несанкционированного доступа и безопасно сконфигурировать ее средствами политик безопасности.

Мероприятие пройдет 15 декабря в 11:00 по московскому времени. Вебинар проведет Денис Полянский, менеджер по продукту компании «Код Безопасности».

В ходе вебинара будут подробно рассмотрены такие темы, как:

  • новый функционал продукта
  • редакции vGate и новая схема лицензирования
  • процессы обновления и перехода между редакциями

В конце вебинара в режиме чата участники смогут задать вопросы и оставить заявки на получение дополнительных материалов.

РЕГИСТРИРУЙТЕСЬ!

Производительность Microsoft SQL Server в облаке VMware vCloud Air.

04/12/2015

В блоге VMware появился интересный пост о производительности СУБД Microsoft SQL Server на облачной платформе VMware vCloud Air. Целью исследования было выявить, каким образом увеличение числа процессоров и числа виртуальных машин сказываются на увеличении производительности баз данных, которые во многих случаях являются бизнес-критичными приложениями уровня Tier 1 на предприятии.

В качестве тестовой конфигурации использовались виртуальные машины с числом виртуальных процессоров (vCPU) от 4 до 16, с памятью от 8 до 32 ГБ на одну ВМ, а на хост-серверах запускалось от 1 до 4 виртуальных машин:

На физическом сервере было 2 восьмиядерных процессора (всего 16 CPU), то есть можно было запустить до 16 vCPU в режиме тестирования линейного роста производительности (Hyper-Threading не использовался).

В качестве приложения использовалась база данных MS SQL с типом нагрузки OLTP, а сами машины размещались на хостинге vCloud Air по модели Virtual Private Cloud (более подробно об этом мы писали вот тут). Для создания стрессовой нагрузки использовалась утилита DVD Store 2.1.

Первый эксперимент. Увеличиваем число четырехпроцессорных ВМ на хосте от 1 до 4 и смотрим за увеличением производительности, выраженной в OPM (Orders Per Minute), то есть числе небольших транзакций в минуту:

Как видно, производительность показывает вполне линейный рост с небольшим несущественным замедлением (до 10%).

Второй эксперимент. Увеличиваем число восьмипроцессорных ВМ с одной до двух:

 

Здесь также линейный рост.

Замеряем производительность 16-процессорной ВМ и сводим все данные воедино:

 

Проседание производительности ВМ с 16 vCPU обусловлено охватом процессорами ВМ нескольких NUMA-узлов, что дает некоторые потери (да и вообще при увеличении числа vCPU удельная производительность на процессор падает).

Но в целом, как при увеличении числа процессоров ВМ, так и при увеличении числа виртуальных машин на хосте, производительность растет вполне линейно, что говорит о хорошей масштабируемости Microsoft SQL Server в облаке vCloud Air.

Кстати, если хочется почитать заказуху про то, как облака VMware vCloud Air уделывают Microsoft Azure и Amazon AWS, можно пройти по этим ссылкам:

Порталу о виртуализации VM Guru 9 лет! Поздравляйте)

03/12/2015

Осенью 2006 года я начал вести первый и на тот момент единственный на русском языке блог о виртуализации (понятное дело, тогда его никто еще не читал). Сначала это был небольшой бложек на движке Blogger, и посты были о каких-то настройках в VMware Workstaion. Того блога, как и первой версии сайта, уже давным давно нет, а портал VM Guru как самостоятельный ресурс оформился ровно 9 лет назад - 3 декабря 2006 года. Вот так он выглядел в далеком 2006 году:

С тех пор на нашем сайте появилось более трех с половиной тысяч записей, и сегодня это главный ресурс о виртуализации в России.

Трудно такое представить, но системные администраторы, которые сейчас управляют виртуальными инфраструктурами в свои 22 года, закончив институт, тогда еще ходили в 8-й класс. От всей души поздравляю всех авторов VM Guru и наших читателей с годовщиной!

Спасибо, что остаетесь с нами.

Фикс бага с Changed Block Tracking в VMware vSphere 6 оказался неполным - новый баг.

02/12/2015

Странные вещи происходят в последнее время с VMware. Сначала в технологии Changed Block Tracking (CBT) платформы VMware vSphere 6 был найдет серьезный баг, заключавшийся в том, что операции ввода-вывода, сделанные во время консолидации снапшота ВМ в процессе снятия резервной копии, могли быть потеряны. Из-за этого пользователи переполошились не на шутку, ведь бэкапы, а это критически важная составляющая инфраструктуры, могли оказаться невосстановимыми.

Недавно этот баг был пофикшен в обновлении ESXi600-201511401-BG, и вроде бы все стало окей. Но нет - оказалось, что накатить обновление на ваши серверы VMware ESXi недостаточно, о чем своевременно сообщила компания Veeam (официальная KB находится вот тут). Нужно еще и сделать операцию "CBT reset", то есть реинициализировать Changed Block Tracking для виртуальных машин.

Все дело в том, что уже созданные файлы CBT map могут содержать невалидные данные, касательно изменившихся блоков, а ведь они могли быть созданы еще до накатывания патча от VMware. Таким образом, простое обновление ESXi не убирает потенциальную проблему - старые файлы *-ctk.vmdk могут, по-прежнему, быть источником проблем. Удивительно, как такая могучая компания как VMware просто взяла и прошляпила этот момент.

Итак, как нужно делать CBT reset для виртуальной машины описано вот тут у Veeam. Приведем этот процесс вкратце:

1. Открываем настройки виртуальной машины (да-да, для каждой ВМ придется это делать) и идем в Configuration Parameters:

2. Там устанавливаем значение параметра:

ctkEnabled = false

3. Далее устанавливаем

scsi0:x.ctkEnabled также в значение false:

4. Открываем папку с виртуальной машиной через Datastore Browser и удаляем все файлы *-ctk.vmdk (это и есть CBT map файлы):

5. Включаем виртуальную машину и заново запускаем задачу резервного копирования Veeam Backup and Replication.

Для тех, кто умеет пользоваться интерфейсом PowerCLI есть бонус - компания Veeam сделала PowerShell-скрипт, который автоматизирует эту операцию. Он позволяет переинициализировать CBT для указанных пользователем виртуальных машин. Виртуальные машины со снапшотом, а также выключенные ВМ будут проигнорированы. Также надо отметить, что при выполнении сценария создается снапшот машины, а потом удаляется, что может вызвать временное "подвисание" машины и ее недоступность в течение некоторого времени, поэтому лучше выполнять этот скрипт ночью или в нерабочие часы.

Представляем нового спонсора VM Guru - компанию 1cloud.

01/12/2015

Рады представить вам очередного спонсора ресурса VM Guru - компанию 1cloud, предоставляющую услуги по аренде виртуальной инфраструктуры для физических и юридических лиц с 2012 года. Кликайте на баннер справа.

На данный момент оборудование 1cloud размещено в двух Дата-Центрах Росси: SDN в Санкт-Петербурге и Dataspace в Москве. Для построения инфраструктуры используется только самое надежное, качественное и современное оборудование: CISCO, DELL, NetApp, Juniper и другое).

В 1cloud используется платформа виртуализации VMware vSphere. 1cloud гарантирует доступность по SLA на уровне 99,9%. Главным вектором в развитии сервиса сотрудники 1cloud простоту и удобство работы с сервисом. Именно поэтому 1cloud постоянно дополняется всевозможными фичами призванными упростить жизнь конечного пользователя, например, возможность автоматического выставления счетов или возможность добавлять дополнительные диски различных типов. При этом, дизайн и устройство собственной панели управления 1cloud позволяют легко воспользоваться всем спектром возможностей пользователям с любым уровнем знаний в IT.

С той же целью в 1cloud разработали довольно обширную базу знаний, покрывающую основные потребности и вопросы пользователей, которая постоянно пополняется новыми статьями. Добавив к вышесказанному надежность, отказоустойчивость архитектуры 1cloud, весьма демократичные цены и качественную, вежливую техническую поддержку, работающую в режиме 24x7, вы получите представление о 1cloud.ru.

Аренда виртуальной инфраструктуры в 1cloud - это отличный выбор как для среднего и малого бизнеса, так и для частных лиц. Зайдите на сайт и вы сразу увидите конфигуратор виртуального сервера, а также его цену за месяц, сутки и час:


Выбирая 1cloud, Вы получаете сразу целый ряд выгод по доступным ценам:

  1. Надежное оборудование High-End класса.
  2. Возможность изменения конфигурации Ваших VPS практически налету.
  3. Использование технологий High Availability и DRS позволяют гарантировать непрерывную доступность ваших виртуальных серверов и их высокую производительность (доступность по SLA 99,9 %).
  4. Выделенный IPv4 для каждого виртуального сервера.
  5. Тарификация каждые 10 минут и оплата только тех ресурсов, которые вы используете (при выключенном сервере оплата за RAM и CPU не списывается) позволяют экономить Ваши средства.
  6. API, позволяющий автоматизировать операции в виртуальной среде.
  7. Грамотная вежливая техподдержка, доступная в любой момент дня и ночи.
  8. Собственная удобная и простая панель управления, с множеством возможностей:
    - Изменять конфигурацию виртуального сервера
    - Создавать частные сети
    - Управлять DNS записями
    - Создавать снапшоты виртуальных серверов
    - Управлять резервными копиями серверов
    - Работать с виртуальными серверами через web-консоль
    - Создавать шаблоны виртуальных серверов и разворачивать из них новые сервера.
  9. Удобные средства оплаты как для физических так и для юридических лиц (автовыставление счетов).
  10. Финансовые закрывающие документы для юр. лиц.
  11. Обширная, постоянно пополняющаяся база знаний.

При этом 1cloud постоянно развивают и улучшают свой сервис - оставляйте ваши комментарии. Подробнее о компании вы можете узнать по этой ссылке: https://1cloud.ru

Какая полоса пропускания необходима для "растянутого кластера" (VMware Virtual SAN Stretched Cluster)?

30/11/2015

Мы уже писали о том, что "растянутый" кластер VMware HA Stretched Cluster прекрасно работает и поддерживается вместе с отказоустойчивыми хранилищами Virtual SAN. Также мы писали о документе с лучшими практиками по построению таких кластеров, для которых требуется обеспечивать максимальную производительность.

Однако многие задаются вопросом - а как планировать ширину канала между площадками таких растянутых кластеров, чтобы обеспечить необходимую пропускную способность для синхронизации узлов кластера VMware Virtual SAN? В помощь таким пользователям компания VMware выпустила интересный документ "VMware Virtual SAN Stretched Cluster Bandwidth Sizing Guidance", в котором даются конкретные параметры и формулы для расчета необходимой пропускной способности между площадками.

Архитектура растянутого кластера в общем случае выглядит так:

Таким образом, имеет место быть 2 связи - между двумя площадками как узлами кластера, а также между каждой из площадок и компонентом Witness, следящим за состоянием каждой из площадок и предотвращающим сценарии Split Brain.

Для этих соединений рекомендуются следующие параметры:

Как известно, реальный трафик состоит из отношения операций чтения и записи, которое зависит от характера нагрузки. Например, в VDI-среде это отношение составляет примерно 30/70, то есть 30% - это операции чтения (read), а 70% - операции записи (write).

В среде растянутого кластера данные виртуальной машины всегда читаются с локальных узлов VSAN - это называется Read Locality. Ну а для операций записи, само собой, нужна определенная пропускная способность на другую площадку. Она рассчитывается как:

B = Wb * md * mr

где:

  • Wb - полоса записи данных.
  • md - множитель данных, он зависит от потока метаданных кластера VSAN и сервисных операций. VMware рекомендует использовать значение 1,4 для этого параметра.
  • mr - множитель ресинхронизации. Для целей ресинхронизации VMware рекомендует заложить в канал еще 25%, то есть использовать значение этого параметра 1,25.

Например, рабочая нагрузка у вас составляет 10 000 IOPS на запись (10 тысяч операций в секунду). Возьмем типичный размер операции записи в 4 КБ и получим параметр Wb:

Wb = 10 000 * 4KB = 40 MB/s = 320 Mbps

Мегабайты в секунду переводятся в мегабиты умножением на 8. Ну и заметим, что требование канала по записи нужно умножать на 1,4*1,25 = 1,75. То есть канал нужно закладывать почти в 2 раза больше от требований по записи данных.

Теперь считаем требуемую пропускную способность канала между площадками:

B = Wb * md * mr = 320 Mbps * 1,4 * 1,25 = 560 Mbps

Ну а в самом документе вы найдете еще больше интересных расчетов и примеров.

Чем StarWind Virtual SAN выгодно отличается от VMware Virtual SAN, Microsoft Storage Spaces и других решений?

29/11/2015

Многие из вас, следящие за новостями о лучшем продукте для создания отказоустойчивых хранилищ StarWind Virtual SAN, часто задаются вопросом - а чем это решение лучше существующих аналогов от VMware и Microsoft? Первый и наиболее очевидный ответ - цена. Просто посмотрите на то, сколько стоит VMware VSAN, и сравните это со стоимостью лицензий StarWind. Разницу вы почувствуете сразу.

Но это еще не все. Компания StarWind выпустила полезный каждому сомневающемуся документ "StarWind Virtual SAN: Differentiation [from competitors]", в котором весьма подробно рассмотрены преимущества продукта перед решениями от маститых вендоров.

Например, почему StarWind Virtual SAN лучше VMware Virtual SAN:

  • Для работы отказоустойчивых хранилищ StarWind нужно всего 2 узла (VMware требует минимум 3). Плюс StarWind не требует какой-то особенной инфраструктуры типа поддержки 10G Ethernet или SSD-дисков. У StarWind все проще.
  • VMware Virtual SAN лицензируется по числу процессоров ESXi плюс требуются лицензии на сам ESXi. У StarWind лицензия выйдет дешевле - вы можете лицензировать по числу узлов кластера хранилищ, либо весь датацентр сразу, и использовать бесплатные издания ESXi.
  • Кластер VMware Virtual SAN вы можете использовать только для платформы vSphere, а StarWind Virtual SAN можно использовать для хранения виртуальных машин на базе любого гипервизора - хоть ESXi, хоть Hyper-V, хоть XenServer.
  • StarWind Virtual SAN - это продукт, который сейчас находится в 8-й версии, а Virtual SAN - это всего лишь вторая версия решения. Поскольку это решение относится к самому нижнему уровню сервисов хранения датацентра, надежность работы решения является определяющим факторов.

Более подробно об этом и других продуктах для сравнения, в частности, Microsoft Storage Spaces, Microsoft Scale-Out File Server, HP Lefthand VSA, DataCore SANsymphony, Maxta и PernixData, вы можете узнать непосредственно из документа.

Вышло исправление ошибки Changed Block Tracking для VMware vSphere 6 - как скачать.

27/11/2015

Некоторое время назад мы писали об очень серьезном баге в технологии Changed Block Tracking, обеспечивающей работу инкрементального резервного копирования виртуальных машин VMware vSphere 6. Баг заключался в том, что операции ввода-вывода, сделанные во время консолидации снапшота ВМ в процессе снятия резервной копии, могли быть потеряны. Для первого бэкапа в этом нет ничего страшного, а вот вызываемая во второй раз функция QueryDiskChangedAreas технологии CBT не учитывала потерянные операции ввода-вывода, а соответственно при восстановлении из резервной копии такой бэкап был неконсистентным.

Мы писали про временное решение, заключающееся в отключении технологии CBT при снятии резервных копий продуктом Veeam Backup and Replication, но оно, конечно же, было неприемлемым, так как скорость бэкапов снижалась в разы, расширяя окно резервного копирования до неприличных значений.

И вот, наконец, вышло исправление этого бага, описанное в KB 2137545. Это патч для сервера VMware ESXi, который распространяется в виде стандартного VIB-пакета в сжатом zip-архиве.

Чтобы скачать патч, идите по этой ссылке, выберите продукт "ESXi Embedded and Installable" и введите в поле Enter Bulletin Number следующую строчку:

ESXi600-201511401-BG

Нажмите Search, после чего скачайте обновленный билд VMware ESXi 6.0 по кнопке Download:

 

Про патч в формате VIB-пакета написано вот тут, а про сам обновленный релиз ESXi вот тут. Для установки VIB на сервере ESXi используйте следующую команду:

# esxcli software vib install -d "/vmfs/volumes/Datastore/DirectoryName/PatchName.zip"

Более подробно об установке VIB-пакетов написано тут.

Как работает кэш на чтение в VMware Virtual SAN и новый документ о кэшировании на SSD.

26/11/2015

Компания VMware выпустила очень познавательный документ "An overview of VMware Virtual SAN caching algorithms", который может оказаться полезным всем тем, кто интересуется решением для создания программных хранилищ под виртуальные машины - VMware Virtual SAN. В документе описан механизм работы кэширования, который опирается на производительные SSD-диски в гибридной конфигурации серверов ESXi (то есть, SSD+HDD).

SSD-диски используются как Performance tier для каждой дисковой группы, то есть как ярус производительности, который преимущественно предназначен для обеспечения работы механизма кэширования на чтение (Read cache, RC). По умолчанию для этих целей используется 70% емкости SSD-накопителей, что экспериментально было определено компанией VMware как оптимальное соотношение.

SSD-диски значительно более производительны в плане IOPS (тысячи и десятки тысяч операций в секунду), поэтому их удобно использовать для кэширования. Это выгодно и с экономической точки зрения (доллары на IOPS), об этом в документе есть наглядная табличка:

То есть, вы можете купить диск SSD Intel S3700 на 100 ГБ за $200, который может выдавать до 45 000 IOPS, а это где-то $0,004 за IOPS. С другой же стороны, можно купить за те же $200 диск от Seagate на 1 ТБ, который будет выдавать всего 100 IOPS, что составит $2 на один IOPS.

Кэш на чтение (RC) логически разделен на "cache lines" емкостью 1 МБ. Это такая единица информации при работе с кэшем - именно такой минимальный объем на чтение и резервирование данных в памяти используется. Эта цифра была высчитана экспериментальным путем в исследовании нагрузок на дисковую подсистему в реальном мире, которое VMware предпочитает не раскрывать. Кстати, такой же величины объем блока в файловой системе VMFS 5.x.

Помимо обслуживания кэша на SSD, сервер VMware ESXi использует небольшой объем оперативной памяти (RAM) для поддержки горячего кэша обслуживания этих самых cache lines. Он содержит несколько самых последних использованных cache lines, а его объем зависит от доступной памяти в системе.

Также в памяти хранятся некоторые метаданные, включая логические адреса cache lines, валидные и невалидные регионы кэша, информация о сроке хранения данных в кэше и прочее. Все эти данные постоянно хранятся в памяти в сжатом виде и никогда не попадают в своп. При перезагрузке или выключении/включении хоста кэш нужно прогревать заново.

Итак, как именно работает кэширование на SSD в VMware Virtual SAN:

1. Когда операция чтения приходит к Virtual SAN, сразу же включается механизм определения того, находятся ли соответствующие данные в кэше или нет. При этом запрашиваемые данные за одну операцию могут быть больше одной cache line.

2. Если данные или их часть не находятся в RC, то для них резервируется буфер нужного объема с гранулярностью 1 МБ (под нужное количество cache lines).

3. Новые аллоцированные cache lines вытесняют из кэша старые в соответствии с алгоритмом Adaptive Replacement Cache (ARC), который был лицензирован VMware у IBM.

4. В случае промаха кэша каждое чтение одной cache line с HDD разбивается на чанки размером 64 КБ (этот размер тоже был определен экспериментально в ходе исследований). Это сделано для того, чтобы не забивать очередь на чтение с HDD "жирной" операцией чтения в 1 МБ, которая бы затормозила общий процесс ввода-вывода на диск.

5. В общем случае, одна операция чтения запрашивает лишь часть данных одной cache line, а первыми читаются именно нужные 64 КБ чанки с HDD-диска от этой cache line.

6. Запрошенные с HDD-диска данные сразу отдаются к подсистеме вывода и направляются туда, откуда их запросили, а уже потом в асинхронном режиме они попадают в соответствующие cache lines кэша и под каждую из них выделяется буфер 1 МБ в памяти. Таким образом устраняются потенциальные затыки в производительности.

В документе описаны также и механики работы кэша на запись (Write cache), для которого используется техника write-back, а также рассматриваются All Flash конфигурации. Читайте - это интересно!

Вышел Windows Sever 2016 Technical Preview 4 - что нового?

24/11/2015

На днях компания Microsoft выпустила очередное обновление технологического превью следующего поколения своей серверной платформы - Windows Sever 2016 Technical Preview 4 (а также и System Center 2016).

В новой версии появилось несколько важных нововведений, многие из которых непосредственно касаются технологий виртуализации:

1. Поддержка контейнеров приложений Windows Server Containers и Hyper-V Containers.

Эта поддержка появилась еще в Technical Preview 3, но в этом обновлении была существенно расширена. Напомним, что мы уже писали об этом вот тут. В новой версии Windows Server будут поддерживаться как контейнеры Docker на базе механизма Windows Server Containers в среде физических серверов:

так и Hyper-V Containers на базе виртуальных машин (подробнее об этом - тут):

В прошлом превью поддерживалась только технология Windows Server Containers, теперь же Microsoft сделала публичной технологию Hyper-V Containers. Она позволяет развертывать виртуальные сервисы в контейнерах в средах с повышенной изоляцией на базе виртуальных машин на платформе Hyper-V. Аналогичный подход компания VMware предлагает и в своей платформе vSphere с технологией vSphere Integrated Containers.

Ниже можно посмотреть живую демонстрацию технологии Hyper-V Containers от легендарного Марка Руссиновича:

Документация о контейнерах на платформе Windows Server доступна вот тут.

2. Улучшения Nano Server.

Напомним, что об этом решении мы также писали вот тут. Nano Server как раз подходит как среда исполнения для контейнеров Docker (но не только). По сравнению с прошлым превью Windows Server в данной версии Nano Server появились следующие улучшения:

  • Поддержка роли DNS server
  • Поддержка роли IIS
  • Поддержка технологии MPIO
  • Средства Virtual Machine Manager (VMM)
  • Поддержка интерфейса мониторинга SCOM
  • Работа с режимом PowerShell DSC (Desire State Configuration) для развертывания и настройки новых систем
  • Поддержка технологии DCB (Data Center Bridging)
  • Улучшенный установщик Windows Server Installer
  • Инструментарий WMI для механизма Windows Update
  • Поддержка пакетов AppX

3. Поддержка вложенной виртуализации Hyper-V.

Об этом мы весьма подробно писали вот тут. Ранее эти средства были доступны в сборках Windows 10, теперь же возможность была добавлена и в Windows Server.

4. Поддержка Direct Device Assignment (проброс устройств на шине PCIe).

Теперь в Windows Server появился полноценный прямой проброс PCI-устройств в виртуальные машины. Если ранее поддерживалась только технология SR-IOV для сетевых адаптеров, то теперь Direct Device Assignment можно применять для любых устройств на шине PCI Express, например, для устройств хранения на базе Flash-накопителей (см. раскрытое устройство Dell):

Это позволит превратить вашу виртуальную машину в сервер хранения как Virtual Storage Appliance (например, для тех же виртуальных машин) с прямым доступом к хранилищу.

Более подробно об этом можно прочитать вот тут.

5. Улучшения технологии Storage Spaces Direct (S2D).

Теперь в рамках данной технологии появилась поддержка виртуальных дисков Multi-Resilient Virtual Disks, которые представляют собой так называемый "3D-RAID", то есть каждый виртуальный диск содержит в себе зеркальные копии данных других дисков, кодированные по алгоритму с контролем четности (это позволяет создавать избыточность любой глубины на уровне виртуальных дисков):

Все данные записываются в Mirror tier (это часть виртуального диска с наибольше производительностью underlying storage), а в Parity tier уходят избыточные данные для коррекции ошибок в случае сбоев. Операционная система ReFS всегда записывает данные сначала в mirror tier, а если требуется апдейт parity tier, то он идет следом. Таким образом достигается полная надежность рабочего процесса изменения данных:

Нечто подобное (на простейшем уровне) используется в решении VMware Virtual SAN (а в следующей версии будет еще круче). Более подробнее о технологии S2D можно почитать вот тут.

6. Прочие улучшения.

Среди прочего, появилась поддержка технологии Virtual Machine Multi-Queue для виртуальных машин, позволяющей максимально эффективно использовать сети 10G+. Также были расширены возможности технологии Just Enough Administration (JEA), предоставляющей только самые необходимые инструменты для таких серверных ролей, как, например, контроллер домена, которые требуют максимального уменьшения поверхности возможной атаки.

Также интересно, что теперь в разделе документации по платформе Hyper-V в Windows 10 была добавлена возможность самому внести вклад в разделы о продуктах и технологиях (нужно нажать "Contribute to this topic"):

Скачать Windows Sever 2016 Technical Preview 4 можно по этой ссылке. Подробно обо всех нововведениях обновленного превью можно прочитать вот здесь.

VMware Sample Exchange - центр загрузки шаблонов для скриптов управления виртуальной инфраструктурой.

23/11/2015

Компания VMware на днях представила проект VMware Sample Exchange, представляющий собой портал, где разработчики выкладывают для загрузки различные шаблоны сценариев, помогающие в решении повседневных задач по администрированию виртуальной инфраструктуры VMware vSphere.

На этом сайте можно найти не только сценарии сотрудников VMware на языках/оболочках PowerShell/PowerCLI, Python, Ruby, Java и других, но и предложить свой вариант решения задачи или запросить его у сообщества профессионалов, которые будут там тусоваться (потому и называется Exchange). На данный момент на портале есть контент от таких известных многим людей, как Alan Renouf и William Lam.

Сейчас загружать свой контент и сценарии могут только носители звания VMware vExpert и авторизованные со стороны VMware люди, но в релизной версии сервиса это смогут сделать все желающие (на данный момент обсуждения по этим вопросам находятся вот тут).

В левой колонке портала находятся фильтры по категориям применения сценариев (платформы, решения VMware и бизнес-задачи):

А также по языку программирования/интерфейсу:

Пока в библиотеке всего 260 сэмплов (нераспиханных по категориям и интерфейсам), но будем надеяться, что скоро коллекция существенно расширится и там наведут порядок.

Как изменить дефолтный порт в инфраструктуре StarWind Virtual SAN.

22/11/2015

Продолжаем рассказывать о лучшем решении для создания отказоустойчивых программных хранилищ StarWind Virtual SAN, предназначенном для создания и поддержки инфраструктуры виртуальных машин на платформах VMware vSphere и Microsoft Hyper-V. В этом посте мы расскажем о том, как поменять дефолтные порты решения Virtual SAN, так как это один из самых часто задаваемых вопросов по продукту.

По умолчанию StarWind Virtual SAN использует порты 3260 и 3261 для взаимодействия виртуальных машин с программными хранилищами. Порт 3260 используется для передачи данных от ВМ к хранилищам и обратно. Однако этот порт, зачастую, оказывается занятыми программной реализацией iSCSI от компании Microsoft, если до этого на сервере использовался данный механизм.

В этом случае при развертывании StarWind Virtual SAN имеет смысл настроить другой порт вместо 3260. Делается это следующим образом:

1. Открываем папку с решением StarWind, по умолчанию это C:\Program Files\StarWind Software\StarWind.

2. Ищем файл StarWind.cfg и открываем его.

3. Находим значение параметра <Port value="3260"/>, меняем его на нужное и сохраняем файл.

4. Перезапускаем службы StarWind на сервере для применения изменений.

Ну или в качестве альтернативного способа можете отключить службы MS iSCSI Target.

Отчет о поездке компании ИТ-ГРАД на VMworld Europe 2015.

22/11/2015

Представляем вашему вниманию гостевой пост компании ИТ-ГРАД - ведущего российского сервис-провайдера, оказываюшего услуги по аренде виртуальных машин VMware. Предлагаем вашему вниманию отчет о поездке сотрудников ИТ-ГРАД на VMworld Europe 2015.

В этом материале мы решили сделать акцент на технической части мероприятия как наиболее интересной читателю. В самом деле, все эти лаундж-зоны, подарочные рюкзаки и игры в теннис бесполезно описывать словами — в этом надо участвовать. Итак, поехали…

Основная составляющая любой подобной конференции — технические доклады. Именно ради полезной и интересной информации тысячи людей по всему миру стараются попасть на мероприятия вроде VMworld (кроме единичных исключений, оказавшихся там волей случая). Являясь новаторской компанией, VMware не разочаровала своих пользователей и поклонников, представив несколько действительно интересных разработок.

Особенно понравилось, что компания решила отойти от типичного формата «сессия на целый час» и не утомлять слушателей докладами, обильно разбавленными «водичкой». Сессии длились в среднем по 30 минут и были максимально избавлены от ненужной и повторяющейся информации. Браво, VMware! ->> нажмите, чтобы читать дальше и комментировать ->>

Как сбросить (восстановить) пароль root в VMware vRealize Operations 6.x.

20/11/2015

Не так давно мы писали о полезном дэшборде для продукта VMware vRealize Operations, а сегодня расскажем, как восстановить забытый пароль от виртуального модуля vRealize Operations 6.x (vROPs).

Если вы не помните пароль, нужно просто перезагрузить Virtual Appliance и в меню загрузки в раздел Boot Options добавить после всех параметров следующую строчку:

init=/bin/bash

Далее загружаемся в консоль и просто пишем:

# passwd

После этого у нас запросят создать новый пароль пользователя root, далее перезагружаем модуль командой:

# reboot

Затем неплохо бы включить сервис SSH управлять модулем уже через putty:

Чтобы SSH работал постоянно, нужно выполнить команду:

# chkconfig sshd on

Обратите внимание, что это не только способ восстановить/сбросить пароль на vROPs, но и большая дыра в безопасности, так как любой, кто имеет доступ к консоли модуля, может провернуть это.

Citrix идет на дно? Кто же ее купит?

19/11/2015

Да ладно, не притворяйтесь будто вы этого не знали. Компания Citrix уже довольно-таки давно не показывает впечатляющих успехов, как-то притихла и вообще идеет процесс "bleeding talent". На днях известный цитриксолог Brian Madden опубликовал любопытную статью, в которой он предсказывает исчезновение Citrix как самостоятельной компании к 2017 году. И это очень похоже на правду.

Вот тут компания Citrix изложила свой бизнес-план на ближайшие 2 года, где говорится о сокращении операционных издержек и увольнении 1000 сотрудников в течение ближайших трех месяцев. А вот по этой ссылке можно найти исчерпывающую информацию по планам Citrix.

Один из интересных слайдов:

То есть, что будет сделано по-существу:

  • Фокусировка на основной стратегии (безопасная доставка приложений и данных), вероятно нас ждет и "обрезание" продуктовой линейки. Основными решениями для компании станут 5 продуктов: XenApp, XenDesktop, XenMobile, ShareFile и NetScaler.

  • Оптимизация бизнес-модели - то есть увольнения, закрытие убыточных направлений, продажа непрофильных активов.
  • Выделение продуктов серии GoTo (например, GoToWebinar) в отдельный бизнес (чтобы саму Citrix можно было продавать удобнее, например, компании Cisco).
  • Capital Return - типа собираются увеличить возврат денег инвесторам.

Штаб-квартира Citrix снова будет перенесена во Флориду, что позволит сэкономить до 200 миллионов долларов к 2017 году. Ну и вообще, в презентации очень много чего интересного. А когда такие презентации выпускаются - то это первый сигнал о том, что вскоре Citrix может откровенно начать тонуть и бегать по рынку с предложением о продаже.

А все из-за чего? Из-за того, что VMware делает все правильно в сфере End User Computing (EUC) и натурально отбирает клиентов у Citrix, которая уже перестала быть "модной" компанией.

Так что вскоре мы увидим Citrix в составе Microsoft, Cisco или какой-нибудь HP.

Готовый дэшборд для мониторинга виртуального датацентра из VMware vRealize Operations 6.x.

18/11/2015

Наверняка многие из вас знают, что представляет собой продукт VMware vRealize Operations 6.x (а некоторые и используют его в производственной среде), предназначенный для мониторинга производительности виртуальной инфраструктуры VMware vSphere, анализа ее состояния, планирования и решения проблем.

Добрые ребята с сайта vXpresss сделали уже готовый дэшборд для vRealize Operations, который включает в себя 15 объектов "Super Metrics", 6 представлений (Views) и один кастомизированный XML. Визуально дэшборд выглядит следующим образом (кликабельно):

То, что могло бы занять у вас часы настройки, теперь можно просто развернуть за 10 минут, используя готовый модуль.

Опишем эти представления:

1 - список ваших кластеров, которые вы мониторите через vRealize Operations Manager 6.x.

2 - этот виджет отображает ключевые метрики с точки зрения процессора, памяти и хранилищ датацентра.

3 - данный виджет показывает пиковые и средние значения использования CPU виртуальной машиной в выбранном кластере. Это позволяет видеть нагруженные машины в вашем окружении.

4 - этот виджет похож на предыдущий только здесь отображается метрика Contention% для CPU (ожидание ресурсов со стороны ВМ), которая является одной из ключевых в плане производительности.

5 - виджет показывает пиковые и средние значения использования памяти (Memory) виртуальной машиной в выбранном кластере. Это позволяет видеть тяжелые по памяти машины в вашем окружении.

6 - по аналогии с CPU Contention, для памяти используется метрика Memory Contention % - отображаются также ее средние и пиковые значения. Ее рост показывает, что ваши машины скоро будут конкурировать за ресурсы оперативной памяти (и начнется memory overcommitment).

7 - этот виджет показывает пиковые и средние значения IOPS для виртуальной машины в выбранном кластере.

8 - в дополнение к IOPS, здесь можно видеть пиковое и среднее значение задержки в дисковой подсистеме (Virtual Disk latency), которая возникает при работе виртуальных машин.

Скачать описанный дэшборд и его компоненты можно по этим ссылкам:

О том, как все это развертывать и использовать, написано здесь.

Обход бага с невалидными бэкапами из-за Changed Block Tracking в VMware vSphere 6 для пользователей Veeam Backup and Replication.

17/11/2015

Недавно мы писали о серьезном баге в механизме Changed Block Tracking (CBT) платформы VMware vSphere 6, который приводит к тому, что инкрементальные резервные копии виртуальных машин оказываются невосстановимыми.

Это, конечно, очень неприятное известие, но не для пользователей решения Veeam Backup and Replication, так как там есть возможность отключить поддержку глючной технологии CBT. Для этого идем в свойства задачи резервного копирования (Edit Backup Job) и выбираем там пункт "Advanced":

И на вкладке vSphere расширенных настроек убираем галку "Use changed block tracking data (recommended)":

Это приведет к тому, что при создании инкрементальных резервных копий Veeam B&R при следующем запуске задачи не будет использовать технологию CBT для отслеживания изменившихся блоков, а значит при создании инкремента бэкапа будут сравниваться все блоки диска ВМ на отличия от бэкапа. Это займет большее время, но ваша резервная копия гарантированно окажется восстановимой.

Такое вот приятное отличие Veeam Backup and Replication от других продуктов для резервного копирования позволит вам продолжать использовать технологии резервного копирования в производственной среде в то время как все остальные пользователи (которые без B&R) страдают и воют от безысходности.

VMware Auto Deploy GUI - развертывание хостов ESXi с человеческим интерфейсом и поддержкой vSphere 6.

16/11/2015

На сайте проекта VMware Labs, где сотрудники VMware частенько публикуют различного рода утилиты для инфраструктуры VMware vSphere, появилось обновление очень полезной штуки, которое все очень давно ждали - VMware Auto Deploy GUI. Напомним, что о прошлой верcии этого средства мы писали вот тут.

Теперь вы можете проводить преднастройку профилей и развертывание новых хостов VMware ESXi 6 для Stateless-окружения прямо из графического интерфейса VMware vSphere Client:

Auto Deploy GUI - это плагин к vSphere Client, реализующий основные функции VMware vSphere Auto Deploy, такие как:

  • Добавление/удаление хранилищ (depots).
  • Работа с профилями образов (image profiles).
  • Настройка шаблона файла ответов (answer template).
  • Просмотр свойств VIB-пакетов.
  • Создание/редактирование правил соответствия хостов и профилей образов.
  • Проверка соответствия хостов этим правилам и восстановление этого соответствия.

Новые возможности последней версии Auto Deploy GUI:

  • Поддержка VMware vSphere 6.0.
  • В мастере Image Profile Wizard появились новые функции "VIB filter".
  • Новые средства "PXE Host List and Boot Configuration troubleshooting" для решения проблем с загрузкой хостов.

Надо отметить, что это последняя версия Auto Deploy GUI, которая поддерживает VMware vSphere версии 5.0. Скачать VMware Auto Deploy GUI можно по этой ссылке. Ну и порекомендуем очень полезный документ "VMware Auto Deploy GUI Practical Guide".

Где посмотреть записи вебинаров StarWind Software?

15/11/2015

Мы часто публикуем новости о предстоящих мероприятиях компании StarWind Software, выпускающей продукт номер 1 для создания программных отказоустойчивых хранилищ под виртуализацию - Virtual SAN. Не все из вас имеют возможность смотреть и слушать эти мероприятия в прямом эфире, особенно еще и потому, что зачастую они проводятся утром по тихоокеанскому времени, а у нас с вами в это время уже вечер.

Поэтому StarWind Software записывает каждый вебинар и публикует их записи по этой ссылке: https://www.starwindsoftware.com/resource-library. Просто в правой колонке жмете "Watch Now" для соответствующего вебинара (нужно будет зарегистрироваться):

Ну и, конечно же, приходите на предстоящий вебинар "StarWind HyperConverged Appliance: Going All-Flash without Breaking the Bank" на тему развертывания и эксплуатации программно-аппаратного комплекса StarWind, котрый пройдет 17 ноября в 23-00 по московскому времени.

И снова критический баг VMware vSphere 6 - ваши бэкапы могут оказаться невосстановимыми.

13/11/2015

Как-то раз мы писали про баг в VMware vSphere 5.5 (и более ранних версиях), заключавшийся в том, что при увеличении виртуальных дисков машин с включенной технологией Changed Block Tracking (CBT) их резервные копии оказывались невалидными и не подлежащими восстановлению. Эта ошибка была через некоторое время пофикшена.

Однако похожая (но только еще более тяжелая) судьба постигла и свежую версию платформы виртуализации VMware vSphere 6 - технология CBT также портит резервные копии виртуальных машин любого решения для резервного копирования, использующего отслеживание изменившихся блоков, например, Veeam Backup and Replication. Более подробно проблема изложена в KB 2136854.

Суть критического бага в том, что операции ввода-вывода, сделанные во время консолидации снапшота ВМ в процессе снятия резервной копии, могут быть потеряны. Для первого бэкапа в этом нет ничего страшного, а вот вызываемая во второй раз функция QueryDiskChangedAreas технологии CBT не учитывает потерянные операции ввода-вывода, а соответственно при восстановлении из резервной копии такой бэкап будет неконсистентным. То есть баг намного более серьезный, чем был в версии vSphere 5.5 (там надо были задеты только ВМ, диски которых увеличивали, а тут любая ВМ подвержена багу).

На данный момент решения этой проблемы нет, надо ждать исправления ошибки. Пока VMware предлагает на выбор 3 варианта:

  • Сделать даунгрейд хостов ESXi на версию 5.5, а версию virtual hardware 11 понизить на 10.
  • Делать полные бэкапы виртуальных машин (full backups) вместо инкрементальных.
  • Выключать виртуальные машины во время инкрементального бэкапа, чтобы у них не было никаких IO, которые могут потеряться.

Как вы понимаете, ни один из этих вариантов неприемлем в условиях нормальной работы производственной среды. Мы оповестим вас об исправлении ошибки, ну а пока поздравляем службу контроля качества компании VMware с очередной лажей!

P.S. Пока делайте полные бэкапы критичных систем. И следите за новостями от Veeam.

Порядок установки VMware Horizon View Agent и других агентов в инфраструктуре виртуальных ПК.

12/11/2015

При развертывании инфраструктуры виртуальных ПК VMware Horizon View многие администраторы задумываются о правильном порядке установки вспомогательного ПО, такого как Horizon View Agent или VMware Tools. Также надо учитывать, что свои агенты есть у User Environment Manager и App Volumes.

Эти вопросы возникают как при развертывании виртуальных ПК, так и при настройке терминальных RDSH-серверов. Правильный порядок развертывания компонентов инфраструктуры виртуальных десктопов позволит вам избежать таких багов, как черный экран в Windows-десктопе при соединении с ним по протоколу PCoIP.

Итак, в каком порядке нужно развертывать агенты инфраструктуры VDI:

1. VMware Tools - помните, что по умолчанию не устанавливаются драйверы NSX File and Network Introspection (vsepflt.sys и vnetflt.sys).

2. VMware Horizon View Agent. Сам агент ставьте только после тулзов, иначе рискуете получить ошибки при подключениях пользователей.

3. View Agent Direct Connection - это агент, который доступен только, если вы используете прямое соединение с облаком VMware Direct Connect.

4. VMware User Environment (UEM) Agent.

О его развертывании и настройке хорошо написано вот тут.

5. VMware App Volumes Agent. Для App Volumes версии 2.9 порядок установки неважен, а вот для более ранних версий устанавливайте его всегда последним.

О развертывании этого решения можно почитать тут и тут.

Если нужно проапгрейдить агенты, то лучше всего деинсталлировать их в указанном выше порядке и в этом же порядке поставить снова обновленные версии.

Вышло обновление ESXi Community Packaging Tools версии 2.3 с поддержкой VMware vSphere 6.

10/11/2015

3 года назад мы писали об утилите ESXi5 Community Packaging Tools 2.0, которая позволяет создавать собственные пакеты для VMware ESXi в форматах VIB (VMware Installation Bundle) and ZIP (VMware Offline Bundle). В результате VIB-файлы получают уровень доверия (acceptance level) Community Supported. Зачастую, эти утилиты необходимы пользователям для включения сторонних драйверов устройств в состав дистрибутива платформы ESXi, которые отсутствуют в стандартном комплекте поставки.

На днях автор проекта (и он же блоггер на v-front.de) выпустил обновление этого средства - ESXi Community Packaging Tools 2.3.

На самом деле, изменений было сделано не так много, но они есть и важные:

  • Появилась полная поддержка VMware vSphere 6 (именно поэтому "ESXi5 Community Packaging Tools" (ESXi5-CPT) переименованы в "ESXi Community Packaging Tools" (ESXi-CPT).
  • Пакетный сценарий TGZ2VIB5.cmd обновлен до версии 2.3.
    • Пофикшено название уровня доверия (acceptance level) "certified" (раньше он назывался "vmware").
    • Добавлены пресеты конфигураций "ESXi 6.0+ driver" и "VMware Tools" (tools-light.vib). Теперь вы можете создать свой пакет VMware Tools для распространения в гостевых ОС на базе гипервизора ESXi!
    • Добавлена поддержка типа VIB-пакета (vibType) "locker".
  • Пакетный файл VIB2ZIP.cmd обновился до версии 1.3 - туда были добавлен выбор настроек совместимости для VMware ESXi.

Видео о создани VMware Offline Bundle с помощью VIB2ZIP:

Скачать ESXi Community Packaging Tools версии 2.3 можно по этой ссылке.

VMware Site Recovery Manager (SRM) и тома Raw Device Mapping (RDM).

09/11/2015

Многие из вас знают, что в VMware vSphere есть такой режим работы виртуальных дисков, как Raw Device Mapping (RDM), который позволяет напрямую использовать блочное устройство хранения без создания на нем файловой системы VMFS. Тома RDM бывают pRDM (physical) и vRDM (virtual), то есть могут работать в режиме физической и виртуальной совместимости. При работе томов в режиме виртуальной совместимости они очень похожи на VMFS-тома (и используются очень редко), а вот режим физической совместимости имеет некоторые преимущества перед VMFS и довольно часто используется в крупных предприятиях.

Итак, для чего может быть полезен pRDM:

  • Администратору требуется использовать специальное ПО от производителя массива, которое работает с LUN напрямую. Например, для создания снапшотов тома, реплики базы данных или ПО, работающее с технологией VSS на уровне тома.
  • Старые данные приложений, которые еще не удалось перенести в виртуальные диски VMDK.
  • Виртуальная машина нуждается в прямом выполнении команд к тому RDM (например, управляющие SCSI-команды, которые блокируются слоем SCSI в VMkernel).

Перейдем к рассмотрению схемы решения VMware Site Recovery Manager (SRM):

Как вы знаете, продукт VMware SRM может использовать репликацию уровня массива (синхронную) или технологию vSphere Replication (асинхронную). Как мы писали вот тут, если вы используете репликацию уровня массива, то поддерживаются тома pRDM и vRDM, а вот если vSphere Replication, то репликация физических RDM будет невозможна.

Далее мы будем говорить о репликации уровня дискового массива томов pRDM, как о самом часто встречающемся случае.

Если говорить об уровне Storage Replication Adapter (SRA), который предоставляется производителем массива и которым оперирует SRM, то SRA вообще ничего не знает о томах VMFS, то есть о том, какого типа LUN реплицируется, и что на нем находится.

Он оперирует понятием только серийного номера тома, в чем можно убедиться, заглянув в XML-лог SRA:

Тут видно, что после серийного номера есть еще и имя тома - в нашем случае SRMRDM0 и SRMVMFS, а в остальном устройства обрабатываются одинаково.

SRM обрабатывает RDM-диски похожим на VMFS образом. Однако RDM-том не видится в качестве защищаемых хранилищ в консоли SRM, поэтому чтобы добавить такой диск, нужно добавить виртуальную машину, к которой он присоединен, в Protection Group (PG).

Допустим, мы добавили такую машину в PG, а в консоли SRM получили вот такое сообщение:

Device not found: Hard disk 3

Это значит одно из двух:

  • Не настроена репликация RDM-тома на резервную площадку.
  • Репликация тома настроена, но SRM еще не обнаружил его.

В первом случае вам нужно заняться настройкой репликации на уровне дискового массива и SRA. А во втором случае нужно пойти в настройки SRA->Manage->Array Pairs и нажать там кнопку "Обновить":

Этот том после этого должен появиться в списке реплицируемых устройств:

Далее в настройках защиты ВМ в Protection Group можно увидеть, что данный том видится и защищен:

Добавление RDM-диска к уже защищенной SRM виртуальной машине

Если вы просто подцепите диск такой ВМ, то увидите вот такую ошибку:

There are configuration issues with associated VMs

Потому, что даже если вы настроили репликацию RDM-диска на уровне дискового массива и SRA (как это описано выше), он автоматически не подцепится в настройки - нужно запустить редактирование Protection Group заново, и там уже будет будет виден RDM-том в разделе Datastore groups (если репликация корректно настроена):

Помните также, что SRM автоматически запускает обнаружение новых устройств каждые 24 часа по умолчанию.

2 или 3 узла использовать для кластера хранилищ StarWind Virtual SAN? Приходите на вебинар, чтобы узнать!

08/11/2015

Мы часто пишем о решении для создания отказоустойчивых хранилищ StarWind Virtual SAN, которое помогает существенно сэкономить при построении инфраструктуры хранения виртуальных машин на платформах VMware vSphere и Microsoft Hyper-V. Вот в этой статье мы писали о том, что 3 узла для кластера - это лучше, надежнее и экономнее (в пересчете на единицу емкости), чем 2. Это обеспечивает аптайм хранилищ до 99.9999%. Но иногда и 2 узла вполне достаточно с точки зрения экономии на программном и аппаратном обеспечении.

Приходите на бесплатный вебинар "VMware and Fault-Tolerance. Which is Better for Your Backup: 2 or 3 Nodes Hyperconverged?", чтобы узнать, сколько узлов для кластера нужно использовать и в каких ситуациях.

Бесплатный вебинар пройдет 10 ноября в 22-00 по московскому времени. Регистрируйтесь!

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 | 105 | 106 | 107 | 108 | 109 | 110 | 111 | 112 | 113 | 114 | 115 | 116 | 117 | 118 | 119    >   >>
Реклама







Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware IT-Grad StarWind Veeam PowerCLI Offtopic Gartner Citrix VSAN GDPR 5nine Hardware VeeamON Nutanix vSphere RVTools Enterprise Security Code Cisco vGate Microsoft Cloud SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Teradici Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter VMachines Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V vSAN vROPs Stencils Labs Bug UEM vRNI VTL Networking Horizon vCSA Tools vCloud Forum iSCSI SRM HCI App Volumes Video Workspace ONE Backup VMUG NSX HA Update Manager VCP VVols Workstation Update DR Cache Storage DRS VMworld Workspace DRS Fusion Lifecycle Visio Log Insight Operations Manager SDDC Virtual Appliance OpenStack PowerShell LSFS Client Datacenter Intel Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Performance Nested AWS XenDesktop VSA vNetwork SSO Host Client VMDK Whitepaper Appliance VUM V2V Support Обучение Web Client Mobile Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers Converter XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP SC VMM Certification VDP Partners PCoIP RHEV vMA Award Network USB Licensing Logs Server Demo vCHS Calculator Бесплатно vExpert Beta SAN Exchange MAP ONE DaaS Monitoring VPLEX UCS SDK Poster VSPP Receiver vMotion VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V VirtualCenter NFS ThinPrint SIOC Plugin Memory CLI Helpdesk Troubleshooting VIC Upgrade VDS Migration Director API Android Graphics Diagram Air DPM Flex Mac Open Source SSH VAAI Chargeback Heartbeat MSCS Ports SVMotion Bugs Composer
Интересные плакаты:

Постер VMware vSphere PowerCLI 6.3:

Постер VMware ESXi 5.1:

Постер VMware Hands-on Labs 2015:

Постер VMware Platform Services Controller 6.0:

Постер VMware vCloud Networking:

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Постер VMware vCenter Server Appliance:

Порты и соединения VMware vSphere 6:

Порты и соединения VMware Horizon 7:

Порты и соединения VMware NSX:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

Постер Veeam Backup & Replication v8 for VMware:

Постер Microsoft Windows Server 2012 Hyper-V R2:

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Сравнение Oracle VirtualBox и VMware Workstation.

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Как использовать возможности VMware vSphere Management Assistant (vMA).

Проектирование инфраструктуры виртуализации VMware vSphere 4.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Работа с дисками виртуальных машин VMware.

Бесплатные программы для VMware ESX / ESXi в среде Virtual Infrastructure / vSphere (часть 2).

Новые возможности VMware vSphere 5.0 - официально.

Все ресурсы о виртуализации:
Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Купить:

VMware vSphere 6.5


Veeam Backup 9.5


Полезные ресурсы:


Видео компании VMware

Видео про Citrix Xen

Видео о виртуализации Microsoft

Утилиты для виртуальных машин Microsoft.

Книги на английском языке

Блоги на английском языке

Блоги на русском языке

Агрегация статей в твиттере VMC:


Copyright VM Guru 2006 - 2019, Александр Самойленко. Правила перепечатки материалов.