Новости Статьи VMware Veeam StarWind vGate! Microsoft ИТ-ГРАД Citrix Symantec 5nine События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Виртуализация vSphere, Hyper-V, XenServer и Red Hat

Более 4120 заметок о виртуализации и виртуальных машинах VMware, Microsoft, Citrix, Red Hat

VM Guru | Ссылка дня: Veeam Agent для Linux и Windows - бесплатны для всех клиентов Veeam

Все, что вы хотели знать о VMware NSX, на сайте VMware Walkthrough.


Мы уже писали о проекте VMware Walkthrough, где компания VMware выкладывает живые демонстрации фич различных продуктов, которые позволяют по шагам пройти через шаги интерфейса по конфигурации тех или иных возможностей. Это очень полезные в практическом плане штуки, так как позволяют, не развертывая решение, понять масштаб действий, которые придется предпринимать во время его администрирования.

Недавно обновился раздел Walkthrough, посвященный решению VMware NSX. Теперь можно сказать, что там можно узнать о продукте все. Напомним, что NSX - это средство объединения и виртуализации сетей предприятия, реализующее единую точку управления виртуальными и физическими сетями в рамках концепции Software Defined Networking (SDN).

Серия обучающих интерактивных сцен включает в себя следующие разделы:

  • VMware NSX - этот раздел показывает различные возможности NSX, включая такие компоненты, как Manager, Gateway Service, Firewall, а также средства мониторинга, решения проблем и интеграции с системами CMS.
  • NSX for vSphere - здесь рассказывают о том, как использовать возможности NSX, такие как VXLAN, Network Virtualization и средства бриджинга сетей между VXLAN и традиционными VLAN.
  • Security and Compliance - в этой секции обсуждаются вопросы адаптации концепции Software Defined Datacenter (SDDC) в корпоративном датацентре, такие как распределенный сетевой экран и возможности NSX service composer.
  • NSX Partner Integration - тут демонстрируют расширяемость решения NSX за счет интеграции с партнерскими решениями, такими как шлюзы и средства обеспечения информационной безопасности.
  • NSX and Log Insight - полезный раздел об интеграции с решением для сбора и анализа о жизнедеятельности датацентра Log Insight.
  • Integration with VMware Components - этот раздел об интеграции с другими продуктами и платформами VMware.
  • NSX 2.0 - эта секция посвящена глобальным возможностям по автоматизации датацентра, операционным функциям решения и безопасности сетевой среды.

VMware Walkthrough о решении VMware NSX доступны по этой ссылке.


Таги: VMware, NSX, Walkthrough, Update, Networking

Диаграмма портов и соединений в среде сетевой виртуализации VMware NSX.


В крупных компаниях, где виртуальная инфраструктура является основой всего ИТ, иногда используется продукт VMware NSX для виртуализации и агрегации сетей виртуальных (на базе vSphere) и физических сред. Напомним, что с 3 мая этот продукт также стал доступен в трех изданиях, что позволит приобретать его и небольшим компаниям в базовом издании Standard.

Ниже вы можете посмотреть и сохранить диаграмму портов и соединений инфраструктуры VMware NSX, которая поможет в планировании развертывания решения, а также в его обслуживании и поддержке.

Вот эти порты, протоколы и коммуникации для компонентов NSX:

  • Client PC > NSX Manager 443/TCP (NSX Manager Administrative Interface)
  • Client PC > NSX Manager 80/TCP (NSX Manager VIB Access)
  • ESXi Host > ESXi Host 6999/UDP (ARP on VLAN LIFs)
  • ESXi Host > NSX Controller 1234/TCP (User World Agent Connection)
  • ESXi Host > NSX Manager 5671/TCP (AMQP)
  • ESXi Host > NSX Manager 8301, 8302/UDP (DVS Sync)
  • ESXi Host > vCenter Server 80/TCP (ESXi Host Preparation)
  • NSX Controller > NSX Controller 2878, 2888, 3888/TCP (Controller Cluster – State Sync)
  • NSX Controller > NSX Controller 30865/TCP (Controller Cluster -State Sync )
  • NSX Controller > NSX Controller 7777/TCP (Inter-Controller RPC Port)
  • NSX Controller > NTP Time Server 123/TCP (NTP client connection)
  • NSX Controller > NTP Time Server 123/UDP (NTP client connection)
  • NSX Manager > DNS Server 53/TCP (DNS client connection)
  • NSX Manager > DNS Server 53/UDP (DNS client connection)
  • NSX Manager > ESXi Host 443/TCP (Management and provisioning connection)
  • NSX Manager > ESXi Host 8301, 8302/UDP (DVS Sync)
  • NSX Manager > ESXi Host 902/TCP (Management and provisioning connection)
  • NSX Manager > NSX Controller 443/TCP (Controller to Manager Communication)
  • NSX Manager > NTP Time Server 123/TCP (NTP client connection)
  • NSX Manager > NTP Time Server 123/UDP (NTP client connection)
  • NSX Manager > Syslog Server 514/TCP (Syslog connection)
  • NSX Manager > Syslog Server 514/UDP (Syslog connection)
  • NSX Manager > vCenter Server 443/TCP (vSphere Web Access)
  • NSX Manager > vCenter Server 902/TCP (vSphere Web Access)
  • REST Client > NSX Manager 443/TCP (NSX Manager REST API)
  • vCenter Server > ESXi Host 80/TCP (ESXi Host Preparation)
  • vCenter Server > NSX Manager 80/TCP (Host Preparation)
  • VTEP > VTEP 8472/UDP (Transport network encapsulation between VTEPs.)

Таги: VMware, NSX, Poster, Networking, vNetwork, Enterprise

Как правильно настроить сетевые интерфейсы для StarWind Virtul SAN - вебинар.


Компания StarWind Software, производитель лучшего решения для создания программных iSCSI-хранилищ под виртуализацию, весьма часто проводит практические вебинары, посвященные отдельным аспектам настройки своего продукта. Некоторое время назад сотрудники компании рассказывали о том, как обновить Virtual SAN без простоя инфраструктуры, а также о настройке решения StarWind VTL. В этот раз речь пойдет о правильной настройке сетевых интерфейсов Virtual SAN для доступа к хранилищам по протоколу iSCSI (инициатор и таргет), а также необходимой конфигурации сетевых интерфейсов на хосте хранения.

Присоединяйтесь к бесплатному вебинару "Support Case: Network Interface Tuning for iSCSI and Synchronization":

Дата и время мероприятия: 26 мая в 15-00 по московскому времени.

Регистрируйтесь!


Таги: StarWind, Virtual SAN, Webinar, Networking

Новые издания VMware NSX - теперь и для небольших компаний, а также VDI-сред.


Некоторые из вас слышали о продукте VMware NSX, которые представляет собой платформу для виртуализации сетей виртуальных (на базе vSphere) и физических сред, которая ранее была доступна только для крупных предприятий ввиду своей высокой цены.

С 3 мая компания VMware решила изменить этот подход, представив решение NSX в трех изданиях - Standard, Advanced и Enterprise. Теперь и небольшие компании смогут использовать издание Standard за меньшую цену и постепенно расти до издания Enteprise, если возникнет потребность в большем функционале платформы.

Все три издания лицензируются по физическим процессорам серверов (чтобы соответствовать изданиям VMware Virtual SAN), однако издание Advanced лицензируется также и по пользователям, чтобы NSX было удобно применять в VDI-средах.

В целом издания VMware NSX можно описать так:

  • Standard - это базовые возможности распределенной коммутации и маршрутизации, которые подходят для совместного использования с vSphere Standard. Вы сможете создавать сети VXLAN в виртуальной инфраструктуре и соединять их с физической сетью предприятия с помощью NSX Edge, но остальные интересные возможности NSX будут недоступны, так как Distributed Firewalling и балансировка нагрузки. Также доступна интеграция с OpenStack через API.
  • Advanced - это уже более интересное издание, здесь уже есть интеграция с Active Directory и такие компоненты, как Edge load balancing и Distributed Firewall. Но здесь еще нет возможностей VPN и поддержки нескольких сайтов со своими vCenter. Это издание подойдет большинству пользователей, у которых есть только один датацентр. Также его удобно использовать для создания сетевой платформы инфраструктуры виртуальных ПК.
  • Enterprise - это полнофункциональное издание для большой сетевой инфраструктуры, а также предприятий с несколькими ЦОД, в которых присутствует несколько серверов vCenter, объединенных между собой. Тут также присутствуют функции распределенной балансировки (пока только в режиме Tech Preview).

Приведем ниже полное сравнение возможностей изданий VMware NSX 6.2, а краткое доступно вот тут.

NSX for vSphere 6.2

Возможность

Standard

Advanced

Enterprise

Hypervisors supported

ESXi 5.5

ESXi 6.0

vCenter 5.5

vCenter 6.0

Cross vCenter Networking & Security

Controller Architecture

NSX Controller

Universal Controller for X-VC

Optimized ARP Learning, BCAST supression

Switching

Encapsulation Format

 

 

 

VXLAN

Replication Mode for VXLAN

 

 

 

Multicast

Hybrid

Unicast

Overlay to VLAN bridging

 

 

 

SW Bridge (ESXi-based)

Hardware VTEP (OVSDB) with L2 Bridging

Universal Distributed Logical Switching (X-VC)

Multiple VTEP Support

Routing

Distributed Routing (IPv4 Only)

 

 

 

Distributed Routing - Static

Distributed Routing - Dynamic Routing with BGP

Distributed Routing - Dynamic Routing with OSPF

Equal Cost Multi-Pathing with Distributed Routing

Universal Distributed Logical Router (X-VC)

Dynamic Routing without Control VM (Static Only)

Active-standby Router Control VM

Edge Routing (N-S)

 

 

 

Edge Routing Static - IPv4

Edge Routing Static - IPv6

Dynamic Routing with NSX Edge (BGP) IPv4

Dynamic Routing with NSX Edge (OSPFv2) IPv4

Equal Cost Multi-Pathing with NSX Edge

Egress Routing Optimization in X-VC

DHCP Relay

Active-Standby NSX Edge Routing

VLAN Trunk (sub-interface) support

VXLAN Trunk (sub-interface) support

Per Interface RPF check on NSX Edge

Services

NAT Support

 

 

 

NAT Support for NSX Edge

Source NAT

Destination NAT

Stateless NAT

ALG Support for NAT

DDI

 

 

 

DHCP Server

DHCP Relay

DNS Relay

VPN

 

 

 

IPSEC VPN

SSL VPN

L2 VPN (L2 extension with SSL VPN)

802.1Q Trunks over L2 VPN

Security

 

 

 

Firewall - General

 

 

 

Single UI for Firewall Rule Enforcement - NS+ EW

Spoofguard

Firewall Logging

Rule Export

Auto-save & Rollback of Firewall rules

Granular Sections of Firewall rule table

Distributed Firewall

 

 

 

DFW - L2, L3 Rules

DFW - vCenter Object Based Rules

Identity Firewall Rules (AD Integration)

IPFix Support for DFW

Context-based control of FW enforcement 
(applied to objects)

Edge Firewall

Edge High-Availability

Service Composer

 

 

 

Security Policy

Security Tags

vCenter Object based security groups

IPSet, MACset based security groups

Data Security

Scan Guest VMs for Sensitive Data

Third Party Integration

 

 

 

Endpoint Service Insertion - Guest Introspection

 

Network Service Insertion

Public API based Integration

 

Load-Balancing

Edge Load-Balancing Protocols

 

 

 

TCP (L4 - L7)

UDP

FTP

HTTP

HTTPS (Pass-through)

HTTPS (SSL Termination)

LB Methods

Round Robin

Src IP Hash

Least Connection

URI, URL, HTTP (L7 engine)

vCenter Context-aware LB

L7 Application Rules

Health Checks

TCP

ICMP

UDP

HTTP

HTTPS

Connection Throttling

High-Availability

Monitoring

View VIP/Pool/Server Objects

View VIP/Pool/Server Stats

Global Stats VIP Sessions

Distributed Load-Balancing

 

 

 

L4 Load-balancing

(tech-preview)

Health checks

(tech-preview)

Operations / Tools

Tunnel Health Monitoring

TraceFlow

Port-Connections Tool

Server Activity Monitoring

Flow Monitoring

IPFix (VDS Feature)

VMware Tools

 

 

 

vR Operations Manager

vR Log Insight

Cloud Management Platform

vRealize Automation

 

 

 

Logical Switch Creation

Distributed router creation

Distributed firewall security consumption

Load-balancing consumption

App Isolation

VMware Integrated OpenStack (Neutron Plugin)

 

 

 

VLAN Provider Networks

Overlay Provider Networks

Overlay Tenant Networks

Metadata Proxy Service

DHCP Server

Neutron Router - Centralized - Shared

Neutron Router - Centralized - Exclusive

Neutron Router - Distributed

Static Routes on Neutron Router

Floating IP Support

-NAT Neutron Routers

Neutron Security Groups using Stateful Firewall

Port Security

Neutron L2 Gateway

Load Balancing (LBaaS)

Admin Utility ( Consistency Check, Cleanup)

Cross VC Logical Networking and Security

 


Таги: VMware, NSX, Licensing, Update, Networking

Новый документ VMware Virtual SAN 6.2 Network Design Guide с практическими рекомендациями по конфигурации сетевого окружения.


Компания VMware выпустила весьма полезный документ "VMware Virtual SAN 6.2 Network Design Guide", в котором приведены конкретные рекомендации по настройке и конфигурации сети при организации отказоустойчивых кластеров хранилищ.

Посмотрим, какие интересные моменты есть в документе. Например, рассматривается следующая архитектура построения кластера Virtual SAN (это Leaf-Spine архитектура):

В такой сети показатель переподписки (oversubscription) между стойками равен 4:1 (от хостов идет 16 линков по 10 Гбит к свичу, от которого идет 4 линка по 10 Гбит к Spine-коммутатору). В этом случае, если предположить, что на хостах 10 ТБ емкости, из которых 6 ТБ занимают данные виртуальных машин, и вдруг возникнет необходимость операции rebuild для кластера (при FTT=1), то при использовании 3/4 пропускной способности канала (то есть 30 Гбит/с) операция займет 26 минут. Если же объем данных на хосте увеличить до 12 ТБ, а канал уменьшить до 10 Гбит/с, то rebuild займет 156 минут. Мораль такова - нельзя перебарщивать с переподпиской, а также нужно обеспечить широкий канал между узлами кластера.

Еще из рекомендаций в документе:

  • Отключите Flow Control на физическом оборудовании, у Virtual SAN есть свой механизм контроля перегрузки канала.
  • Используйте vSphere Distributed Switch (VDS) совместно с Virtual SAN.
  • Настройте Load Based Teaming (LBT), который балансирует нагрузку, в зависимости от загрузки физического адаптера (похоже на Virtual Port ID, только привязка к порту пересматривается каждые 30 секунд).
  • Если используете несколько кластеров Virtual SAN - помещайте трафик каждого из них в отдельный VLAN.
  • Если в датацентре используются большие кадры jumbo frames - используйте их в кластере Virtual SAN, но если не используются - то отдельно включать их не надо.
  • Включите Cisco Discovery Protocol (CDP) и Link Layer Discovery Protocol (LLDP) в режимах и приема, и передачи.

В документе присутствует еще несколько интересных рекомендаций, прочитать которые будет особенно интересно администраторам крупных инфраструктур и больших кластеров Virtual SAN.


Таги: VMware, Virtual SAN, Whitepaper, Performance, Обучение, VSAN, Networking

Сравнение протоколов VMware Horizon 7: PCoIP и Blast Extreme.


Очень интересное сравнение протоколов доступа к виртуальным ПК и приложениям в инфраструктуре VMware Horizon 7 появилось на одном из блогов, посвященных технологиям виртуализации. Коллега сравнивал производительность проверенного временем PCoIP и пришедшего ему на смену протокола Blast Extreme в следующей тестовой конфигурации:

Автор обращает внимание на то, что PCoIP работает по UDP, поэтому похож на гоночную машину (лучше всего себя ведет на широкой полосе канала без помех и высокой нагрузки), а Blast Extreme, работающий по TCP - это джип, который хорошо едет по пересеченной местности (то есть, адаптируется к параметрам канала).

Тестирование проводилось по следующей схеме:

  • Пользователь логинится и ждет 1 минуту, чтобы сессия настроилась и была готова к тестированию.
  • Открыли локальный PDF-файл, скроллили его вверх и вниз 1 минуту.
  • Зашли на новостной сайт с графикой http://www.vg.no и поскроллили его.
  • Открыли Word и печатали там лабуду в течение 1 минуту.
  • Открыли трейлер фильма Captain America Civil War в полный экран браузера Chrome на полную длительность (2 минуты).

Для сбора данных и настройки окружения использовались следующие средства:

  • Splunk – Uberagent (сбор данных).
  • Netbalancer (bandwidth, возможность установки параметра packet loss, определение лимитов по bandwidth limits и задание latency).

Первый тест (5 MS latency, no packet loss) для Blast Extreme

Параметры использования канала: 248 MB total, Maximum usage 1,6 MBPS

Использование CPU: (Splunk, UberAgent) VMBlastW.exe (около 8.2%):

Среднее использование памяти:

Максимальное использование памяти:

Первый тест (5 MS latency, no packet loss) для PCoIP

Тут надо отметить, что PCoIP буферизует и собирает пакеты по 1198 байт перед отправкой:

Параметры использования канала: 184 MB, Maximum usage 999 KBPS

Использование CPU: (Splunk, UberAgent, около 24.2%):

Среднее использование памяти:

Максимальное использование памяти:

Автор делает вывод, что PCoIP дает намного большую нагрузку на клиентское устройство, чем Blast Extreme, который, в свою очередь, дает лучший User Experience, но потребляет большую ширину канала. Это может быть связано с дополнительными накладными расходами на квитанции TCP, а также тем, что Blast Extreme тестирует канал при начале передачи и пытается выжать из него максимум.

Работа Blast Extreme на latency 200 миллисекунд

Использование канала 43 MB, Maximum bandwidth 201 KBPS:

Здесь latency оказывает весьма негативный эффект на Blast за счет протокола TCP. Также на картинке выше видно, что неэффективно маленькие пакеты используются даже когда буфер пуст или пости пуст.

При просмотре ролика на Youtube Blast все же максимизирует размер пакета:

Максимальное использование памяти:

Работа PCoIP на latency 200 миллисекунд

Использование канала 118 MB, Maximum bandwidth 689 KBPS:

Нагрузка на CPU (обратите внимание, что меньше, чем без latency):

Использование памяти:

Вывод: Blast умеет использовать широкий канал и дает лучший user experience + создает меньшую нагрузку на клиентское устройство.


Таги: VMware, Horizon, Comparison, PCoIP, Blast, Performance, Network, VDI

Диаграмма портов и соединений VMware Horizon 7 - новые компоненты.


Вчера мы писали о том, что компания VMware выпустила новую версию решения для виртуализации и доставки ПК предприятия VMware Horizon 7. А сегодня приятное дополнение - полная диаграмма портов и соединений в инфраструктуре VMware Horizon 7, включая компоненты VMware View, App Volumes, Identity Manger, vRealize Operations и прочие:

Что нового появилось в этой диаграмме по сравнению с ее прошлой версией:

  • View Agent был переименован в Horizon Agent.
  • Компонент Access Point расположен том же месте, что и View Security Server (это альтернативные компоненты при развертывании решения).
  • Объект RDSH / Virtual Desktop включает в себя декстопы с гостевыми ОС Windows, Linux и RDSH. (Horizon for Linux использует протокол Blast Extreme).
  • VMware vRealize Operations for Horizon теперь является частью диаграммы.
  • Добавлен App Volumes Agent.
  • Добавлен новый компонент Enrollment Server, относящийся к True SSO.

Таги: VMware, Horizon, Diagram, Poster, View, Networking

Бесплатная утилита для мониторинга состояния Citrix XenDesktop: Citrix Director Notification Service.


Интересную утилиту, которая будет полезна всем администраторам Citrix XenDesktop, анонсировал Andrew Morgan. Citrix Director Notification Service - это сервис, который следит за состоянием компонентов инфраструктуры XenDesktop и оповещает администраторов по почте, когда что-то сломалось.

У компании Citrix есть специальный продукт для этих целей - Citrix Director, но он показывает состояние компонентов XenDesktop только в консоли, которую нужно постоянно запускать и обновлять. А Director Notification Service позволит вам это делать автоматически и в реальном времени.

Утилита проверяет состояние следующих компонентов инфраструктуры виртуальных ПК:

  • Citrix Licensing
  • Соединение к базе данных
  • Службу Broker Service
  • Основные службы XenDesktop (Core Services)
  • Соединение с гипервизором (это может быть как XenServer, так и VMware vSphere)

Вот так это выглядит:

В случае появления неисправности в XenDesktop, Citrix Director Notification Service посылает письмо администратору с подробным описанием типа неисправности. Когда работа компонента восстанавливается, также посылается письмо.

Интересно, что через Director Notification Service можно ловить алерты от гипервизора. Вот, например, такое ловится от VMware vSphere (у хоста осталось мало памяти):

После установки утилиты нужно запустить Configuration Utility:

Там настраиваются параметры SMTP-сервера для отправки писем, а также параметры доступа к Citrix Desktop Delivery Controller (DDC). Кроме того, доступны настройки и самого сервиса (например, частота опроса компонентов):

Не забывайте нажать кнопки "Test", чтобы проверить настройки.

Ну и после развертывания утилиты надо запустить Director Notification Service. Его можно установить на Edge-компьютер в периметре датацентра, а можно прямо на DDC.

Эта версия утилиты была протестирована на Citrix XenDesktop 7.6, но должна работать и на более ранних версиях платформы.

Прочитать инструкции по установке продукта можно вот тут, а скачать Citrix Director Notification Service можно по этой ссылке.


Таги: Citrix, XenDesktop, Director, Network

Приходите на совместный вебинар Mellanox и StarWind: 100 GbE Performance at 10 GbE Cost.


Послезавтра, 21 июля, компании Mellanox и StarWind проведут интересный вебинар "100 GbE Performance at 10 GbE Cost", посвященный построению решения для хранилищ виртуальных машин впечатляющей производительности (да-да, 100 GbE, Карл!).

Мероприятие пройдет 21 июля, в 21-00 по московскому времени:

Приходите на вебинар, чтобы узнать, как по цене 10 GbE-решения построить сеть 40 GbE на базе продуктов Mellanox (Infiniband/Ethernet) и добиться в ней 100 GbE производительности за счет решений компании StarWind (в частности, продукта Virtual SAN). Вебинар со стороны StarWind проводит Макс Коломейцев, так что вы можете задавать вопросы на русском языке.

Узнайте, сколько IOPS может выжать StarWind из сетевой архитектуры Mellanox - регистрируйтесь на вебинар "100 GbE Performance at 10 GbE Cost".


Таги: StarWind, Mellanox, Infiniband, Network, Storage, Performance, Virtual SAN

Диаграмма портов и соединений VMware Horizon View 6.1.1.


Помните некоторое время назад мы писали о новой версии решения для виртуализации настольных ПК предприятия VMware Horizon View 6.1.1, в которую были добавлены такие полезные функции, как Client Drive Redirection и поддержка десктопов с ОС Linux?

На днях один из администраторов VMware Horizon опубликовал диаграмму портов и соединений этого решения, так как оно за последние годы значительно разрослось и требует некоторой настройки нужных правил на корпоративных сетевых экранах.

Собственно, кликабельная диаграмма:

Основные рекомендации по настройке фаерволов для VMware Horizon View:

  • TCP/UDP 4173: PCoIP-порт, используемый для хостов RDS.
  • TCP 4002: порт режима JMS enhanced security mode (SSL).
  • TCP 5443: слушающий порт для протокола Blast для прямых соединений с Linux-десктопами (требует наличия Horizon Client версии 3.3 или более поздней).
  • TCP 8443: слушающий порт для протокола Blast для соединений с Linux-десктопами через Blast Secure Gateway (требует наличия Horizon Client версии 3.3 или более поздней).
  • TCP 8472: интерфейс коммуникации между кластерами View в архитектуре Cloud Pod (interpod API).
  • TCP 22389: коммуникация Global ADLDS (также для Cloud Pod).
  • HTTPS (443): доступ для Horizon Client - аутентификация и RDP-туннель (HTTPS Secure Gateway).
  • HTTPS (8443): используется для HTML 5 доступа к виртуальным ПК Linux. HTML-доступ к ПК с ОС Linux официально не поддерживается, хотя большинство браузеров работают.
  • HTTPS (22443): HTML-доступ по протоколу Blast для виртуальных ПК с ОС Windows.
  • TCP 9427: используется механизмами Windows Multimedia Redirection (MMR) и Client Drive Redirection (CDR).
  • TCP 32111: проброс USB-устройств (USB Redirection).
  • ESP Protocol (порт 50): используется для серверов Security Server и Connection Server при защищенной коммуникации IPSEC (требует включенного Windows firewall с опцией Advanced Security).
  • UDP 500: коммуникация IPsec для Security Server и Connection Server при создании пары.

Таги: VMware, View, Network, Horizon, Blogs, VDI, Enterprise

Введение поддержки IPv6 в компании ИТ-ГРАД


Всем известно, что адресное пространство IPv4 имеет весьма ограниченный объем и с учетом развития всемирной паутины на сегодняшний момент подходит к концу. Адресное пространство IPv6 имеет значительно больший объем. Переход на IPv6 неизбежен для всех, это лишь вопрос времени. А для нас, как для сервис-провайдера облачных услуг, важно быть готовыми к такому переходу, как внутри собственной сети, так и для наших клиентов. Далее о переходе на IPv6 и схеме сети ИТ-ГРАД.

Адресное пространство IPv4 имеет весьма ограниченный объем, и уже сейчас, чтобы получить новый блок IPv4 у своего регистратора, приходится приложить немало усилий. Так, например, RIPE может выдать новый блок IPv4 в дополнение к ранее полученным только после получения блока IPv6 адресов.

Для справки, RIPE NCC (фр. Réseaux IP Européens + англ. Network Coordination Centre) — один из пяти региональных интернет-регистраторов (англ. Regional Internet Registries, RIRs), выполняющих распределение интернет-ресурсов, а также связанную с этим регистрацию и координацию деятельности, направленную на глобальную поддержку функционирования Интернета.

Адресное пространство IPv6 имеет значительно больший объем. И сложно представить, что когда-то мы столкнемся с дефицитом адресов. Переход на IPv6 неизбежен для всех, это лишь вопрос времени. Для нас, как для сервис-провайдера облачных услуг, важно быть готовыми к такому переходу, как внутри собственной сети, так и для наших клиентов. Потому в апреле 2014 года европейским региональным интернет-регистратором RIPE NCC был выделен блок IPv6 адресов 2a04:c900::/29 для компании ИТ-ГРАД, что положило начало внедрению и развитию IPv6 в нашей компании... [Читать статью далее]


Таги: IT-Grad, Network, IaaS

Настройка локальной сети для решения vGate R2 for Hyper-V и использование сетевых конфигураций.


Продолжаем вас знакомить с решением vGate R2 от компании Код Безопасности, предназначенным для защиты виртуальной инфраструктуры Hyper-V от несанкционированного доступа, а также для ее безопасной настройки средствами политик. В этой статье мы расскажем о том, как правильно настроить локальную сеть в соответствии с рефернсной архитектурой vGate, а также установить продукт с использованием различных конфигураций...


Таги: vGate, Network, Security, Security Code

Как установить IP-параметры HP iLO через консоль сервера VMware ESXi.


Как установить IP-параметры HP iLO через консоль сервера VMware ESXi.

При развертывании инфраструктуры VMware vSphere на базе серверов HP всегда требуется задать параметры IP-идентификации для интерфейса удаленной консоли iLO. Обычно это делается в настройках сервера, но удобнее сделать это из консоли ESXi, если вы используете кастомизированную сборку ESXi под HP (а ее надо использовать, так как некоторые девайсы могут просто не работать, поскольку в стандартной сборке под них нет драйверов).

Для начала откроем на хосте ESXi доступ по SSH в разделе Security Profile, стартовав соответствующий сервис:

Заходим на хост по SSH и переходим в папку с утилитами HP:

cd /opt/hp/tools

Копируем настройки HP iLO в файл XML:

./hpconfig -w ilo.xml

Далее этот файл нам нужно отредактировать, для этого можно использовать WinSCP или Veeam FastSCP.

Копируем iLO.xml к себе локально:

Открываем его в текстовом редакторе и правим секции, помеченные красным:

<!-- HPONCFG VERSION = "4.0-13.0" -->
<!-- Generated 11/11/2014 23:37:47 -->
<RIBCL VERSION="2.1">
<LOGIN USER_LOGIN="Administrator" PASSWORD="password">
<DIR_INFO MODE="write">
<MOD_DIR_CONFIG>
<DIR_AUTHENTICATION_ENABLED VALUE = "N"/>
<DIR_LOCAL_USER_ACCT VALUE = "Y"/>
<DIR_SERVER_ADDRESS VALUE = ""/>
<DIR_SERVER_PORT VALUE = "636"/>
<DIR_OBJECT_DN VALUE = ""/>
<DIR_OBJECT_PASSWORD VALUE = ""/>
<DIR_USER_CONTEXT_1 VALUE = ""/>
<DIR_USER_CONTEXT_2 VALUE = ""/>
<DIR_USER_CONTEXT_3 VALUE = ""/>
</MOD_DIR_CONFIG>
</DIR_INFO>
<RIB_INFO MODE="write">
<MOD_NETWORK_SETTINGS>
<SPEED_AUTOSELECT VALUE = "Y"/>
<NIC_SPEED VALUE = "100"/>
<FULL_DUPLEX VALUE = "N"/>
<IP_ADDRESS VALUE = "192.168.16.33"/>
<SUBNET_MASK VALUE = "255.255.255.0"/>
<GATEWAY_IP_ADDRESS VALUE = "192.168.16.254"/>
<DNS_NAME VALUE = "ESX01-iLO"/>
<PRIM_DNS_SERVER value = "192.168.16.1"/>
<DHCP_ENABLE VALUE = "N"/>
<DOMAIN_NAME VALUE = "educ.local"/>

<DHCP_GATEWAY VALUE = "Y"/>
<DHCP_DNS_SERVER VALUE = "Y"/>
<DHCP_STATIC_ROUTE VALUE = "Y"/>
<DHCP_WINS_SERVER VALUE = "Y"/>
<REG_WINS_SERVER VALUE = "Y"/>
<PRIM_WINS_SERVER value = "0.0.0.0"/>
<STATIC_ROUTE_1 DEST = "0.0.0.0" GATEWAY = "0.0.0.0"/>
<STATIC_ROUTE_2 DEST = "0.0.0.0" GATEWAY = "0.0.0.0"/>
<STATIC_ROUTE_3 DEST = "0.0.0.0" GATEWAY = "0.0.0.0"/>
</MOD_NETWORK_SETTINGS>
</RIB_INFO>
<USER_INFO MODE="write">
</USER_INFO>
</LOGIN>
</RIBCL>

Копируем измененный файл обратно на хост ESXi (предыдущий сохраните - просто переименуйте) и выполняем команду заливки конфигурации:

./hpconfig -f ILO.xml

Дождитесь успешного выполнения команды - и можно коннектиться к iLO через веб-браузер по новому адресу. Этот способ удобен тем, что можно не перезагружать сервер.


Таги: VMware, ESXi, HP, vSphere, Обучение, Network

Как перезапустить Management Network на VMware ESXi из командной строки.


Многим администраторам виртуальной инфраструктуры VMware vSphere зачастую приходится перезапускать Management Network после различных операций с хостом VMware ESXi (например, чтобы обновить аренду IP-адреса у DHCP-сервера).

Делается это из консоли сервера ESXi (DCUI) в пункте меню "Restart Management Network":

Напомним, что доступ к графическому интерфейсу консоли сервера (DCUI) можно получить и по протоколу SSH, выполнив команду:

# dcui

Однако многие хотели бы рестартовать сеть ESXi консольной командой ESXCLI, которую можно выполнить, например, из vSphere Management Assistant. Для этого нужно просто отключить и включить сетевой интерфейс VMkernel на хосте. Делается это через пространство имен esxcli network.

При этом, поскольку вы подключены к ESXi через этот интерфейс, то нужно, чтобы две команды (отключение и включение) были выполнены обязательно вместе. Делается это добавлением точки с запятой (";") между командами.

Итак, узнаем имя интерфейса командой:

esxcli network ip interface ipv4 get

Далее отключаем и включаем интерфейс vmk0, что соответствует функции Restart Management Network в графическом интерфейсе хоста:

esxcli network ip interface set -e false -i vmk0; esxcli network ip interface set -e true -i vmk0


Таги: VMware, ESXi, vNetwork, Networking, VMachines, Blogs

Очередная диаграмма VMware - порты и соединения VMware Horizon View 5.2.


Компания VMware время от времени выпускает интересные постеры и диаграммы (кстати, они вывешены у нас в правой колонке чуть пониже), которые отражают различные процессы и описывают компоненты инфраструктуры VMware vSphere, View, vCloud и прочие. Не так давно был выпущен постер с портами и соединениями VMware vSphere 5.1, а на днях VMware выпустила аналогичный плакат с диаграммой портов "Network port diagram for Horizon View", который наглядно показывает взаимодействие компонентов, а заодно и дает информацию сетевым администраторам о том, какие правила нужно добавить в сетевой экран:

Там же, на страницах за постером, приведена таблица портов с пояснениями к используемым соединениям в инфраструктуре виртуальных ПК VMware View 5.2:

Нужная и полезная штука. Хотя с выходом VMware View 5.3 ее все же придется обновить, так как появятся новые компоненты (например, View Agent Direct Connection Plugin) или изменятся существующие (например, HTML Access).


Таги: VMware, View, Poster, Horizon, Networking, VDI

VMware NSX - комплексное средство для виртуализации сетей в виртуальном центре обработки данных.


На прошедшей конференции VMworld 2013 компания VMware представила свое виденье концепции ЦОД будущего - Software-Defined Datacenter, то есть датацентр, определяемый и направляемый программно, в котором слой оборудования полностью отделен от слоя программного обеспечения, а последний и реализует все необходимые сервисы пользователей и функции управления. То есть, оборудование - это просто подложка, элементы которой можно будет заменять, а все необходимые функции управления будут находиться на стороне программного обеспечения.

Выглядит это так:

В рамках этой концепции было объявлено о работе VMware в четырех направлениях:

  • Расширение применения технологии виртуализации на все приложения (например, кластеры Hadoop).
  • Трансформация хранилищ в абстрагированные и агрегированные дисковые ресурсы серверов (Virtual SAN) на базе разработок компании Virsto (с русскими корнями, кстати).
  • Создание программно-определяемых сетей в датацентре на базе продукта VMware NSX, полученного после покупке компании Nicira.
  • Повышение автоматизации датацентра и создание комплексных средств управления (таких как, например, решение VMware vCloud Automation Center (vCAC)).

Сегодня мы поговорим о третьем пункте - решении для построения виртуальной инфраструктуры сетей - VMware NSX, которое было анонсировано на VMworld как один из ключевых компонентов стратегии VMware в рамках концепции Software-defined networking (SDN).

VMware NSX - это решение полученное на основе двух продуктов: купленного Nicira NVP и собственного VMware vCloud Networking and Security (vCNS). Последний предназначен для комплексной защиты виртуального датацентра и построен на базе семейства продуктов VMware vShield. Решение VMware NSX предназначено для крупных компаний, которые планируют повысить степень гибкости сетевой среды датацентра, который связан с другими ЦОД компании, и где требуется переносить виртуальные машины между ними или поддерживать распределенную архитектуру кластеров.

Чтобы понять концепцию NSX можно провести аналогию с серверной виртуализацией, отмапив инфраструктуру VMware vSphere на инфраструктуру "гипервизора" NSX:

Такая архитектура, конечно же, требует интеграции с агентами в физическом оборудовании, которые уже есть в сетевых устройствах Arista, Brocade, Cumulus, Dell, HP и Juniper.

Сама же платформа VMware NSX включает в себя следующие компоненты:

  • Controller Cluster - это система, состоящая из виртуальных или физических машин (как минимум 3), предназначенная для развертывания виртуальных сетей во всем датацентре. Эти машины работают в кластере высокой доступности и готовы принимать управляющие команды от различных средств через API, например, VMware vCloud или OpenStack. Кластер осуществляет управление объектами vSwitches и Gateways, которые реализуют функции виртуальных сетей. Он определяет топологию сети, анализирует поток трафика и принимает решения о конфигурации сетевых компонентов.
  • Hypervisor vSwitches (NSX Virtual Switches)  - это виртуальные коммутаторы уровня ядра ESXi с программируемым стеком L2-L4 и конфигурационной базой. Они отвечают за работу с трафиком виртуальных машин, обеспечение туннелей VXLAN и получают команды от Controller Cluster.
  • Gateways - это компоненты, предназначенные для сопряжения виртуальных и физических сетей. Они предоставляют сервисы IP routing, MPLS, NAT, Firewall, VPN, Load Balancing и многое другое.
  • Ecosystem partners - партнеры могут интегрировать собственные виртуальные модули (Virtual Appliances) в инфраструктуру NSX на уровнях L4-L7. Подробнее об этом написано здесь.
  • NSX Manager - это централизованное средство управления виртуальными сетями датацентра (с веб-консолью), которое взаимодействует с Controller Cluster.

Посмотрим на высокоуровневую архитектуру решения:

Как мы видим, NSX оперирует собственными виртуальными сетями, которые инкапсулируют в себе физические сети средствами протоколов STT, VXLAN и GRE (как это делается мы уже писали вот тут). А компонент NSX Gateway выполняет функции моста для коммутации на уровне L2 и маршрутизации на уровне L3.

В качестве серверных гипервизоров в инфраструктуре NSX могут быть использованы решения VMware vSphere, KVM или Xen.

Надо отметить, что есть два варианта развертывания решения:

  • Окружение, состоящее только из хостов vSphere: в этом случае NSX опирается на инфраструктуру vSphere Distributed Switch (VDS) при взаимодействии с компонентами решения. А компонент NSX Gateway опирается на решение NSX Edge, которое было выделено из подпродукта vCNS Edge (бывший vShield Edge).
  • Гибридное окружение с несколькими гипервизорами: тут NSX уже использует Open vSwitch для KVM и Xen, а также собственный виртуальный коммутатор NSX vSwitch, работающий на уровне ядра ESXi. С точки зрения шлюза тут уже NSX может использовать различные физические модули.

Вот так выглядит детальная архитектура решения VMware NSX с учетом развертывания в среде только с VMware vSphere (обратите внимание, что NSX может работать только с одним сервером vCenter - это ограничение архитектуры):

Тут видно, что на уровне гипервизора работают 4 компонента, так или иначе используемых NSX:

  • Security - средства безопасности уровня ядра.
  • Виртуальные сети VXLAN.
  • Distributed Router (DR) - распределенный маршрутизатор.
  • Distributed Firewall - распределенный сетевой экран, который мы упоминали вот тут.

А вот так выглядит решение NSX в гибридной среде с несколькими гипервизорами:

С точки зрения логических функций NSX выполняет следующее:

  • Logical Switching - NSX использует комбинацию Stateless Transport Tunneling (STT), Generic Routing Encapsulation (GRE) и VXLAN для гибридных окружений или только VXLAN для окружений vSphere, чтобы предоставлять коммутацию уровня L2 вне зависимости от нижележащей топологии сети. Теперь все происходит на уровне эмулируемой структуры виртуальных сетей, не затрагивающей IP-адреса и не привязанной к физическому расположению, что значит, что виртуальную машину можно перемещать между датацентрами без изменения конфигурации сетей.

 

  • Поддержка аппаратных туннелей - VXLAN Tunnel Endpoints (VTEPs), которые позволяют поддерживать технологию виртуальных сетей на аппаратном уровне и не создавать задержек в сети.
  • Logical Routing - теперь L3-маршрутизация возможна на логическом уровне, вне зависимости от нижележащего оборудования и за счет наличия distributed routing (DR) module в VMware ESXi с поддержкой протоколов динамической маршрутизации BGP и OSPF.
  • Logical Firewalling - эти возможности пришли из продукта  vCNS App (vShield App), они позволяют обеспечить комплексную защиту датацентра средствами модулей распределенного сетевого экрана (distributed firewall, DFW).
  • Logical Load Balancing and VPN - эти функции были также взяты из vCNS и поддерживаются только для окружений vSphere. В этом случае компонент NSX Edge осуществляет балансировку соединений на уровне L7 с поддержкой различных алгоритмов, а также позволяет организовать надежный VPN-туннель к инфраструктуре на базе IPsec и SSL.

Более подробно о решении VMware NSX можно узнать на этой странице.


Таги: VMware, NSX, Update, VXLAN, vSphere, Networking, Cloud, Cloud Computing, Security

Новая диаграмма - порты и соединения компонентов VMware vSphere 5.1.


Как многие из вас знают, мы своевременно обновляем посты про диаграммы портов и соединений различных компонентов VMware vSphere и других продуктов компании. Об этом можно почитать, например, тут, тут и тут.

Недавно вышло очередное обновление схемы портов VMware vSphere 5.1. Схема уже является официальной и приведена в KB 2054806.

Приятно также и то, что теперь в этом же документе в виде таблицы приведены все порты различных компонентов VMware vSphere 5.x и назначение соединений:


Таги: VMware, vSphere, Ports, ESXi, vCenter, Networking

ИТ-ГРАД проведет деловой завтрак «Сетевые устройства нового поколения».


25 июня компания ИТ-ГРАД предлагает принять участие в деловом завтраке, посвященном тематике сетевых устройств нового поколения. Запланированы выступления со стороны партнеров: Aruba Networks проведет обзор новейших решений в области мобилизации бизнеса (Wi-fi), а PaloAlto представит современные методы борьбы с угрозами уровня приложений и вредоносным кодом с помощью межсетевых экранов нового поколения.

«Традиционные средства безопасности не обеспечивают необходимый уровень визуализации, скорости изменений, контроля и защиты от современных угроз. Именно это стало толчком к созданию нового класса решений на рынке ИБ. Межсетевые экраны нового поколения (NGFW) позволяют безопасно развертывать и использовать приложения без ограничения потребностей бизнеса и ИТ-служб» (Дмитрий Рагушин, PaloAlto).

Участие в мероприятии бесплатное. Необходимо заранее зарегистрироваться в связи с ограниченным количеством мест (всего 17). В случае заинтересованности заполните форму, либо отправьте контактные данные на marketing@it-grad.ru - и присоединяйтесь к коллегам!

Место проведения: CleverСlub - специальное пространство для бизнес-профессионалов. Санкт-Петербург, ул. Кирочная, д. 9.

Время проведения: 25 июня, 10.00-14.00.
Таги: IT-Grad, Networking

Вышел балансировщик в виде виртуального модуля от Loadbalancer.org.


Те из вас, кто испытывает потребность в балансировке соединений в виртуальной инфраструктуре VMware vSphere, а также функциях безопасности, могут обратить свое внимание на продукт от Loadbalancer.org, поставляемый в виде виртуального модуля (Virtual Appliance).

Основные возможности продукта:

  • Средства высокой доступности компонентов
  • Полнофункциональная балансировка на уровнях 4/7
  • Поддержка виртуальных и физических серверов
  • Веб-консоль управления
  • Функции HTTP Cookie Persistence
  • Функции RDP Cookie Persistence
  • Поддержка SSL Offloading
  • Поддержка 802.1q VLAN
  • Группировка интерфейсов 802.3ad Bonding
  • Широкие возможности анализа пакетов
  • Поддержка IPv6
  • Поддержка SIP с функциями Call-ID Persistence

Виртуальный модуль может работать в трех режимах:

  • Direct Routing (DR) - режим прямой маршрутизации
  • Network Address Translation (NAT) - режим трансляции сетевых адресов
  • Source Network Address Translation (SNAT) - режим трансляции исходного сетевого адреса

Более подробно с продуктом от Loadbalancer.org можно ознакомиться в следующих документах:

Скачать пробную версию балансировщика от Loadbalancer.org можно по этой ссылке.
Таги: VMware, vNetwork, Networking, Virtual Appliance, vSphere

Постер Networking in System Center Virtual Machine Manager 2012.


Компания Microsoft недавно выпустила полезный постер "Networking in System Center Virtual Machine Manager 2012" для администраторов платформы Hyper-V.

Из постера вы узнаете о том, как:

  • Планировать виртуальные сети в SC VMM 2012, используя логические представления сетей и виртуальных коммутаторов, включая VLAN, виртуализацию сетей, внешние сети и т.п.
  • Настраивать сети в VMM для различных ролей в сетевой инфраструктуре предприятия.
  • Понять объектную модель сетевого взаимодействия на примере приведенных в постере диаграмм.
  • Расширить функциональность VMM за счет сторонних решений, а также соединить виртуальные сети виртуальных машин с внешними сетями через шлюз, балансировать запросы к ВМ и многое другое.

В общем, для сетевых администраторов в инфраструктуре виртуализации на базе Hyper-V - это мастрид.

Ну и немного полезных ссылок по сетевому взаимодействию в Hyper-V и SC VMM 2012:


Таги: Microsoft, Hyper-V, Networking, SC VMM

Управление типами трафика VMkernel с помощью тэгов ESXCLI в VMware vSphere 5.1.


Как многие из вас знают, в VMware vSphere 5.1 есть несколько типов трафика, которые могут быть переданы посредством интерфейса VMkernel (vmkX):

  • Управляющий трафик клиентов (Management)
  • Горячая миграция ВМ (vMotion)
  • Трафик кластера непрерывной доступности (Fault Tolerance)
  • Трафик репликации ВМ (Replication)

В vSphere Web Client эти типы трафика можно просто назначить интерфейсу vmk (VMkernel):

Но можно ли управлять этими настройками с помощью интерфейса ESXCLI? Оказывается, что, начиная с версии vSphere 5.1, это делается очень просто. Интерфейс vmk можно "тэгировать" различными типами трафика, что означает, что он будет их пропускать. В командной строки ESXCLI администратору доступно множество команд tag в следующем пространстве имен:

esxcli network ip interface

Как и с многими другими объектами, с тэгами можно совершать операции getadd и remove:

----------------------------------------------------------------------------------------------

vi-admin@vMA51:~> esxcli –server vcenter51 –vihost pod23-esx-01a.pml.local –username root network ip interface tag
Usage: esxcli network ip interface tag {cmd} [cmd options]

Available Commands:
add                  Adds a tag on a given VMkernel network interface.
get                   Gets the tags set on the given VMkernel network interface.
remove           Removes a tag on a given VMkernel network interface.

----------------------------------------------------------------------------------------------

Например, получить действующие тэги интерфейса vmk0 можно следующей командой:

vi-admin@vMA51:~> esxcli –server vcenter51 –vihost pod23-esx-01a.pml.local –username root network ip interface tag get -i vmk0
Tags: Management

Аналогично можно использовать действия add и remove. Таблица соответствия типов трафика VMkernel и их названий в виде тэгов:

Тип трафика Имя тэга в ESXCLI
Management Management
vMotion VMotion
Fault Tolerance faultToleranceLogging
vSphere Replication vSphereReplication

За одну команду интерфейсу vmk можно поставить или снять только один тэг.


Таги: VMware, vSphere, ESXi, CLI, Networking

Виртуальный распределенный коммутатор IBM System Networking Distributed Switch 5000V для VMware vSphere 5.


Не все знают, что в качестве распределенного коммутатора с расширенной функциональностью для инфраструктуры VMware vSphere существует не только устройство Cisco Nexus 1000V. Есть также и виртуальное устройство от IBM, которое называется System Networking Distributed Switch 5000V (DVS 5000V).

Это тоже программный распределенный коммутатор, который поставляется в виде 2 компонентов:

  • Host Module (он же Data Path Module, DPM) - модуль, поставляемый в zip-формате (Offline Bundle) для хостов VMware ESXi 5.x, позволяющий контролировать состояние виртуальных коммутаторов в пределах хоста.
  • Controller - виртуальный модуль (Virtual Appliance) в формате OVA, позволяющий централизованно управлять сетевой инфраструктурой виртуализации через хостовые модули.

vDS от IBM так же, как и Nexus 1000V, интегрирован с VMware vCenter и отображается как обычный Distributed Virtual Switch в интерфейсе vSphere Client. При этом он обладает следующими расширенными возможностями:

  • Поддержка технологии Private VLAN для разделения трафика ВМ
  • Поддержка списков контроля доступа (ACL) для контроля трафика ВМ
  • Поддержка технологий зеркалирования портов (Port Mirroring): локально (SPAN) и удаленной (ERSPAN)
  • Поддержка техники мониторинга трафика sFlow (похожа на NetFlow)
  • Управление трафиком и статистика на базе стандарта IEEE 802.1Qbg (Edge Virtual Bridging, EVB)
  • Поддержка технологий Static Port Aggregation и Dynamic Port Aggregation
  • Поддержка логирования Syslog и по SNMP

С точки зрения управления таким распределенным коммутатором DVS 5000V оно построено на базе операционной системы IBM NOS (Network Operating System) и предоставляет следующие интерфейсы:

  • Telnet
  • SSH
  • SNMP
  • TACACS+
  • RADIUS
  • Интерфейс командной строки (CLI)

Более подробно о виртуальном модуле IBM DVS 5000V можно прочитать в даташите, а также в руководстве пользователя.


Таги: IBM, vDS, VMware, vSphere, Networking, ESXi

Новое в сетевом взаимодействии VMware vSphere 5 - Link Layer Discovery Protocol (LLDP).


Мы уже писали о  полезных нововведениях, касающихся сетевого взаимодействия, доступных в распределенном коммутаторе VMware vSphere Distributed Switch (vDS), которые облегчают жизнь сетевым администраторам. В частности, рассмотрели механизм Netflow и его поддержку в vSphere 5.

Напомним, что посредством vDS доступны следующие новые возможности, которые описаны в документе "What's New in VMware vSphere 5.0 Networking":

  • Поддержка Netflow версии 5 - возможность просмотра трафика между виртуальными машинами (ВМ-ВМ на одном или разных хостах, а также ВМ-физический сервер) посредством сторонних продуктов, поддерживающих Netflow.
  • Поддержка зеркалирования портов Switch Port Analyzer (аналог технологии SPAN в коммутаторах Cisco) - возможность дублировать трафик виртуальной машины (а также VMkernel и физических адаптеров) на целевую машину (Port Mirroring), которая может реализовывать функционал системы обнаружения или предотвращения вторжений (IDS/IPS).
  • Поддержка открытого стандарта Link Layer Discovery Protocol (LLDP, в реализации 802.1AB) - это механизм обнаружения соседних сетевых устройств и сбора информации о них для решения различных проблем сетевыми администраторами. Ранее поддерживался только протокол CDP (Cisco Discovery Protocol), поддержка которого есть не во всех устройствах.
  • Улучшения механизма Network I/O Control - пулы ресурсов для сетевого трафика и поддержка стандарта 802.1q. Опредлеямые пользователем пулы для различных типов трафика позволяют приоритезировать и ограничивать пропускную способность канала для них посредством механизма shares и limits.

Сегодня мы рассмотрим поддержку открытого стандарта Link Layer Discovery Protocol (LLDP) (то есть, вендоронезависимого), который позволяет обнаруживать соседние с серверами ESXi коммутаторы и собирать о них информацию для последующего анализа.

Ранее можно было использовать только протокол CDP (Cisco Discovery Protocol), что сужало применение данной возможности. Теперь в настройках vDS у нас есть выбор LLDP или CDP:

По умолчанию, при создании распределенного коммутатора vDS, включен протокол CDP, поэтому для включения LLDP его надо переопределить в настройках. В поле Operation есть три режима работы:

  • Listen - ESXi обнаруживают и отображают информацию о непосредственно подключенном физическом коммутаторе, но информация о самом vDS не предоставляется администратору физического коммутатора.
  • Advertise - ESXi, наоборот, рассказывают о vDS физическому коммутатору, но не собирают информацию о нем.
  • Both - обе предыдущих опции: vDS и физический коммутатор получают информацию друг о друге.

Чтобы посмотреть статистику, собранную с помощью LLDP, нужно нажать на синюю иконку с информацией для выбранного dvSwitch:

Эта информация позволяет проследить физическую коммутацию кабелей с хоста ESXi на порты физического коммутатора, без необходимости идти в серверную и смотреть, как там все подключено.

Источник: http://rickardnobel.se/archives/644.


Таги: VMware, vSphere, Networking, dvSwitch, vDS, ESXi, LLDP

Новое в сетевом взаимодействии VMware vSphere 5 - поддержка мониторинга Netflow.


Как известно, в VMware vSphere 5 появилось несколько полезных нововведений, касающихся сетевого взаимодействия, доступных в распределенном коммутаторе VMware vSphere Distributed Switch (vDS), которые облегчают жизнь сетевым администраторам. В частности, посредством dvSwitch доступны следующие новые возможности, которые описаны в документе "What's New in VMware vSphere 5.0 Networking":

  • Поддержка Netflow версии 5 - возможность просмотра трафика между виртуальными машинами (ВМ-ВМ на одном или разных хостах, а также ВМ-физический сервер) посредством сторонних продуктов, поддерживающих Netflow.
  • Поддержка зеркалирования портов Switch Port Analyzer (аналог технологии SPAN в коммутаторах Cisco) - возможность дублировать трафик виртуальной машины (а также VMkernel и физических адаптеров) на целевую машину (Port Mirroring), которая может реализовывать функционал системы обнаружения или предотвращения вторжений (IDS/IPS).
  • Поддержка открытого стандарта Link Layer Discovery Protocol (LLDP, в реализации 802.1AB) - это механизм обнаружения соседних сетевых устройств и сбора информации о них для решения различных проблем сетевыми администраторами. Ранее поддерживался только протокол CDP (Cisco Discovery Protocol), поддержка которого есть не во всех устройствах.
  • Улучшения механизма Network I/O Control - пулы ресурсов для сетевого трафика и поддержка стандарта 802.1q. Опредлеямые пользователем пулы для различных типов трафика позволяют приоритезировать и ограничивать пропускную способность канала для них посредством механизма shares и limits.

Все эти новые возможности мы разберем в следующих заметках, а сегодня сосредоточимся на механизме Netflow и его поддержке в vSphere 5. NetFlow — сетевой протокол, предназначенный для учёта сетевого трафика, разработанный компанией Cisco Systems. Является фактическим промышленным стандартом и поддерживается не только оборудованием Cisco, но и многими другими устройствами.

Для сбора информации о трафике по протоколу NetFlow требуются следующие компоненты:

  • Сенсор. Собирает статистику по проходящему через него трафику. Обычно это L3-коммутатор или маршрутизатор, хотя можно использовать и отдельно стоящие сенсоры, получающие данные путем зеркалирования порта коммутатора. В нашем случае это распределенный коммутатор vDS.
  • Коллектор. Собирает получаемые от сенсора данные и помещает их в хранилище.
  • Анализатор. Анализирует собранные коллектором данные и формирует пригодные для чтения человеком отчёты (часто в виде графиков).

NetFlow дает возможность сетевому администратору мониторить сетевые взаимодействия виртуальных машин для дальнейших действий по обнаружению сетевых вторжений, отслеживания соответствия конфигураций сетевых служб и анализа в целом. Кроме того, данная возможность полезна тогда, когда требуется отслеживать поток трафика от приложений внутри виртуальной машины с целью контроля производительности сети и целевого использования трафика.

Синяя линия на картинке показывает настроенный виртуальный коммутатор, который посылает данные Netflow на стороннюю машину (коллектор), которая подключена к хост-серверу VMware ESXi через физический коммутатор. Коллектор уже передает данные анализатору. Netflow может быть включен на уровне отдельной группы портов (dvPortGroup), отдельного порта или аплинка (Uplink).

Для начала настройки Netflow нужно зайти в свойства коммутатора vDS (он должен быть версии 5.0.0 или выше):

Здесь мы указываем IP-адрес коллектора, куда будут отправляться данные, его порт, а также единый IP-адрес коммутатора vDS, чтобы хосты не представлялись отдельными коммутаторами для коллектора.

Включить мониторинг Netflow можно в свойствах группы портов на vDS в разделе Monitoring:

Далее в эту группу портов включаем одну из виртуальных машин:

Теперь можно использовать один из продуктов для сбора и анализа трафика Netflow, например, Manage Engine Netflow Analyzer. Пример статистики, которую собирает этот продукт по протоколам (в данном случае большинство трафика - http):

Netflow можно использовать для различных целей мониторинга, например, в инфраструктуре VMware View, где присутствуют сотни виртуальных машин, можно сгруппировать трафик по группам и смотреть, сколько трафика выжирается видеосервисами (Youtube, к примеру), так как это может сильно влиять на производительность сети в целом:

Применений Neflow на самом деле уйма, поэтому его поддержка в VMware vSphere 5 может оказаться вам очень полезной.


Таги: VMware, vSphere, Netflow, Networking, Обучение, ESXi, vDS

Порты для серверов VMware vSphere / ESXi / vCenter, View и других продуктов VMware.


Раньше блоггеры публиковали диаграммы портов и соединений для VMware vSphere и других продуктов по отдельности, о которых мы писали тут и тут. Для VMware vSphere 5 список портов стал настолько обширен (из-за увеличения количества компонентов), что блоггеры уже перестали рисовать картинки и диаграммы.

Напомним, что последнюю версию схемы портов для VMware vSphere 4.1 можно скачать вот тут:

Теперь же сетевым администраторам и администраторам ИБ нужно запомнить вот эту ссылку на статью: KB 1012382, где приведены порты, используемые не только VMware vSphere 5, но и другими продуктами VMware: View, SRM, Converter и пр. Там в таблице конечно мешанина, но ничего другого пока нет:

Для каждого порта приведены комментарии - зачем он нужен и когда используется. Обратите внимание, что порты для vSphere Client указаны внизу статьи.


Таги: VMware, vSphere, Ports, View, SRM, Blogs, Network

Приходите на вебинар "Защита виртуальных машин от сетевых угроз с помощью межсетевого экрана TrustAccess".


Как вы знаете, компания Код Безопасности, выпускающая продукт номер 1 для защиты виртуальных сред vGate R2 (читаем тут и тут), выпускает еще несколько программных и аппаратных решений для защиты физической и виртуальной инфраструктуры (см., например, тут).

Один из таких продуктов, интересных вам - это Security Code TrustAccess, который позволяет организовать распределенный межсетевой экран (МЭ) с централизованным управлением, предназначенный для защиты серверов и рабочих станций локальной сети от несанкционированного доступа и разграничения сетевого доступа к информационным системам предприятия, в том числе в инфраструктурах виртуализации (а также трафика между машинами в рамках одного хост-сервера).

Надо сказать, что TrustAccess - это один из тех продуктов, которые позволят защитить виртуальную инфраструктуру vSphere, в которой обрабатываются персональные данные, согласно требованиям закона ФЗ 152. То есть его можно и нужно использовать совместно с продуктом vGate.

Чтобы понять как все это делать, приходите на вебинар "Защита виртуальных машин от сетевых угроз с помощью межсетевого экрана TrustAccess", который пройдет 30 ноября в 11:00 по московскому времени:


Таги: Security Code, Network, Security, vGate, TrustAccess, Webinar

Jumbo Frames для виртуальных машин в vSphere 5 и StarWind Enterprise.


Многие из вас используют продукт номер 1 для создания отказоустойчивых хранилищ StarWind Enterprise, позволяющий предоставлять общие хранилища для виртуальных машин через iSCSI. Это очень хорошая технология для небольших компаний и филиалов, использующих VMware vSphere, но не могущих себе позволить полноценную систему хранения с дублированными аппаратными компонентами. Напомним, что скоро продукт будет доступен для двухузловой конфигурации Microsoft Hyper-V, а также выйдет версия StarWind 5.8, где обещают еще больше нововведений.

Некоторые пользователи применяют доступ к таргетам iSCSI для StarWind изнутри виртуальных машин (например, можно использовать бесплатное издание StarWind). Однако с VMware vSphere 5 и адаптером vmxnet3 обнаружилась интересная проблема - согласно KB 2006277, драйвер vmxnet3 из комплекта vSphere 5 некорректно работает с большими кадрами Jumbo Frames. Это приводит к деградации производительности и потере сетевого соединения.

Какие есть выходы:

  • Использовать драйвер vmxnet3 из комплекта VMware Tools для версии vSphere 4.x (можно загрузить тут)
  • Использовать виртуальный сетевой адаптер vmxnet2 (Enhanced) или E1000 из комплекта vSphere 5

Надо отметить, что при соединении серверов ESXi 5 с хранилищами StarWind с настроенными Jumbo Frames полностью поддерживается. Также все работает и в конфигурации с томами RDM для виртуальных машин в режиме физической и виртуальной совместимости.

Компания VMware работает над решением проблемы для адаптера vmxnet3 и Jumbo Frames при работе из гостевой ОС. Спасибо Константину Введенскому за новость.


Таги: StarWind, VMware, Bugs, Enterprise, iSCSI, VMachines, vSphere, Network

Как работает кластер VMware vSphere Storage Appliance (VSA), и как он реагирует на отключение сети. Часть1.


Мы уже писали о новом продукте VMware vSphere Storage Appliance (VSA), который позволяет создать кластер хранилищ на базе трех серверов (3 хоста ESXi 5 или 2 хоста ESXi 5 + физ. хост vCenter), а также о его некоторых особенностях. Сегодня мы рассмотрим, как работает кластер VMware VSA, и как он реагирует на пропадание сети на хосте (например, поломка адаптеров) для сети синхронизации VSA (то есть та, где идет зеркалирование виртуальных хранилищ).


Таги: VMware, VSA, vSphere, Обучение, ESXi, Storage, HA, Network

VMworld 2011. Анонсы - день второй.


На проходящей конференции VMworld 2011 в Лас-Вегасе за прошедший день было сделано несколько интересных анонсов. Три из них кажутся наиболее важными.

1. Проект VMware Appblast.

Это новый проект VMware, который позволит открывать виртуализованные с помощью ThinApp приложения в любом веб-браузере, совместимом с HTML 5 и Java. Совместно с VMware Horizon App Manager, технология VMware Appblast позволит организовать доставку приложений упакованных ThinApp на любое устройство пользователя, включая планшеты iPad или коммуникаторы на базе Android.

2. Технология сетевого взаимодействия VXLAN (Virtual eXtensible LAN).

Это уровень абстракции Layer 2 для доступа к виртуальным машинам вне зависимости от их расположения. Технология, разработанная совместно с компанией Cisco, использует технологию инкапсуляции "MAC-in-UDP" для создания схемы взаимодействия виртуальных машин, которые могут перемещаться между разными датацентрами со своими физическими сетями и адресацией. В случае применения VXLAN ничего не нужно будет менять с точки зрения сетевой идентификации ВМ в случае ее перезда, например, в другой датацентр (к примеру, сервис-провайдера).

Более подробно о VXLAN вы можете прочитать здесь.

3. Проект VMware Octopus.

Многие знают, что такое сервис Dropbox. Это облачное хранилище данных, но относительно которого есть сомнения в надежности и безопасности. VMware Octopus - это некий аналог Dropbox, т.е. онлайн-хранилище данных, которое позволит крупным предприятиям организовать облачное хранение данных с необходимым уровнем доступности, надежности и безопасности.

У этого проекта есть веб-сайт, на котором можно зарегистрироваться для раннего участия в бете сервиса. Более подробно про проект написано тут.

Скоро об этом обо всем - подробнее.


Таги: VMware, VMworld, Networking, vSphere, Octopus, VXLAN, AppBlast

Новые возможности VMware vSphere 5.0 - официально.


Компания VMware в июле 2011 года объявила о доступности новых версий целой линейки своих продуктов для облачных вычислений, среди которых находится самая технологически зрелая на сегодняшний день платформа виртуализации VMware vSphere 5.0.

Мы уже рассказывали об основном наборе новых возможностей VMware vSphere 5.0 неофициально, но сейчас ограничения на распространение информации сняты, и мы можем вполне официально рассказать о том, что нового для пользователей дает vSphere 5.


Таги: VMware, vSphere, Update, Release, ESXi, Enterprise, Storage DRS, Storage VMotion, vMotion, Network, vMachines, DRS, Auto Deploy, VMFS, Storage, HA, Licensing, Price

1 | 2    >   >>
Реклама

Advertisement

Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
StarWind VMware Microsoft IT-Grad VMFS RVTools Citrix PowerCLI Veeam 5nine VM Guru Oracle Red Hat Parallels Azure KVM vGate VeeamOn Security Code 1cloud Cloud Docker Storage Offtopic NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo Nutanix vRealize VirtualBox Symantec Gartner Softline EMC Login VSI Xen Enterprise Teradici Amazon NetApp VDI Linux Hyper-V IBM Cisco Google VSI HP Security Windows vCenter VMachines Webinar View VKernel Events Hardware Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs Sun VMC Xtravirt Novell vSphere IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V Horizon Client Host Client VMDK App Volumes vROPs VTL vCloud Update iSCSI Labs IaaS SDDC vCSA NSX Virtual Appliance Backup VSA Whitepaper PowerShell Fusion Appliance DRS VUM Manager VVols V2V Tools Workstation Cache VMworld SRM Support Обучение XenDesktop Web Client Mobile OpenStack Automation Replication Desktop Log Insight Fault Tolerance DR Photon Vanguard SaaS Connector HA SSO Event Free Datacenter SQL VSAN Workspace Lifecycle Sponsorship Finance FT Cloud Computing Converter XenApp esxtop Snapshots VCP Auto Deploy SMB RDM Mirage XenClient MP Video Operations SC VMM Certification SSD VDP Partners PCoIP RHEV Performance Award Network AWS USB Licensing Logs Server Demo Visio Intel vCHS Calculator Бесплатно Nested vExpert Beta SAN Exchange MAP ONE DaaS Networking vNetwork Monitoring VPLEX UCS SDK Poster VSPP SDRS Receiver vMotion VDI-in-a-Box Deduplication Forum Reporter vShield ACE Go nworks iPad XCP Data Recovery Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V VirtualCenter NFS ThinPrint Plugin Troubleshooting DPM Director Book Memory Upgrade API SIOC Flex Mac Bug Open Source SSH Air VAAI Chargeback Heartbeat Android MSCS Ports SVMotion Storage DRS CLI Bugs Composer
Интересные плакаты:

Постер VMware vSphere PowerCLI 6.3:

Постер VMware ESXi 5.1:

Постер VMware Hands-on Labs 2015:

Постер VMware Platform Services Controller 6.0:

Постер VMware vCloud Networking:

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Постер VMware vCenter Server Appliance:

Порты и соединения VMware vSphere 6:

Порты и соединения VMware Horizon 7:

Порты и соединения VMware NSX:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

Постер Veeam Backup & Replication v8 for VMware:

Постер Microsoft Windows Server 2012 Hyper-V R2:

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Проектирование инфраструктуры виртуализации VMware vSphere 4.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Сравнение Oracle VirtualBox и VMware Workstation.

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные программы для VMware ESX / ESXi в среде Virtual Infrastructure / vSphere (часть 2).

Отличия VMware ESXi 4 free (бесплатного), ESXi 4 и ESX 4 в составе VMware vSphere.

Новые возможности VMware vSphere 5.0 - официально.

Все ресурсы о виртуализации:
Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Купить:

VMware vSphere 6


Veeam Backup 8


Полезные ресурсы:


Видео компании VMware

Видео про Citrix Xen

Видео о виртуализации Microsoft

Утилиты для виртуальных машин Microsoft.

Книги на английском языке

Блоги на английском языке

Блоги на русском языке

Агрегация статей в твиттере VMC:


Copyright VM Guru 2006 - 2017, Александр Самойленко. Правила перепечатки материалов.