Новости Статьи VMware Veeam StarWind Microsoft ИТ-ГРАД Citrix Symantec 5nine События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Виртуализация vSphere, Hyper-V, XenServer и Red Hat

Более 4250 заметок о виртуализации и виртуальных машинах VMware, Microsoft, Citrix, Red Hat

VM Guru | Ссылка дня: Сколько стоят артисты на пати VMworld?

Вышел VMware ESXi Embedded Host Client 1.23 - новые возможности.


Одновременно с релизом тонкого клиента для управления виртуальной инфраструктурой VMware vSphere Client 3.19 компания VMware выпустила и обновление веб-клиента для управления отдельными хост-серверами ESXi Embedded Host Client 1.23. Напомним, что прошлая его версия 1.21 вышла 2 месяца назад - в середине июня.

Клиент для ESXi получил следующие новые возможности (в основном, это исправления ошибок):

  • Отображение списка виртуальных машин в настройках автостарта для хост-сервера.
  • Пофикшен баг с выбором роли в Internet Explorer 11.
  • Портлет с информацией о разделах теперь работает корректно.
  • Улучшенная обработка разделов неизвестных типов.
  • Исправлена проблема с дробным числом ядер на процессор в настройках ВМ (ха-ха-ха, ну и баг!).
  • Несколько исправлений различных мастеров.
  • Убрано неубираемое ранее оповещение при импорте ВМ о том, что она содержит floppy drive.
  • Поправлено скрытое выделение непоказываемых объектов, когда пользователь нажимает Select All в отфильтрованном списке ВМ (тоже детский баг!).
  • Обработка виртуальных модулей OVA при отсутствующем поле Description (и этот!).
  • Теперь доступные сетевые физические интерфейсы NIC отображаются корректно.
  • При форматировании тома VMFS дефолтно выбирается последняя версия файловой системы.
  • Добавлено несколько обновлений безопасности.

Скачать новую версию VMware ESXi Embedded Host Client 1.23 можно по этой ссылке (надо отметить, что через функцию Update в клиенте из состава vSphere 6.5 обновления видно не будет).


Таги: VMware, ESXi, Client, Update

Отчет Principled Technologies - VMware vSphere производительнее, чем RedHat Enterprise Virtualization.


На днях вышел интересный отчет компании Principled Technologies, специализирующейся, в том числе, на всякого рода тестировании аппаратно-программных сред. В документе "VMware vSphere memory overcommitment delivered greater VM density than Red Hat Virtualization" рассказывается о том, что на одном и том же оборудовании с помощью гипервизора ESXi можно запустить больше виртуальных машин, чем на гипервизоре KVM платформы RHEV.

Понятное дело, что исследование ангажированное (хотя бы, если посмотреть на заголовок), но поскольку таких документов не так много, мы решили обратить на него внимание.

Для тестирования использовался стоечный сервер Lenovo x3650 M5, на котором в виртуальных машинах работала СУБД Microsoft SQL Server 2016 с нагрузкой типа OLTP. В качестве основного показателя производительности использовался OPM (orders per minute), отображающий количественную оценку исполненных транзакций.

Если не использовать техники Memory Overcommit, то результат выполнения на 15 виртуальных машинах одного хоста в числе OPM примерно одинаковый на обоих гипервизорах:

А вот когда происходит увеличение числа виртуальных машин, то vSphere показывает себя значительно лучше:

Крестиками отмечены машины, которые на RHV просто не запустились, консоль продукта выдала вот такую ошибку:

Несмотря на включение техник оптимизации памяти в Red Hat Virtualization Manager (RHV-M), таких как memory ballooning и kernel shared memory, шестнадцатая виртуальная машина все равно отказывалась запускаться на KVM:

Ну а на vSphere продолжали наращивать число ВМ, пока не уперлись в недостаток ресурсов:

Получилось, что с техниками overcommit на vSphere получилось запустить 24 виртуальных машины, а на RHV - всего 15 штук. По итогу сделали вывод, что на VMware vSphere в 1,6 раза можно запустить больше виртуальных машин:

Не сказать, что это объективное тестирование, но очевидно, что ESXi в данном случае работает лучше KVM с точки зрения всяких оптимизаций памяти и прочих ресурсов ВМ.


Таги: VMware, Red Hat, Performance, RHV, vSphere, ESXi, KVM

Вышел VMware vSphere 6.5 Update 1 - новые возможности.


Спустя почти 9 месяцев с момента выпуска платформы VMware vSphere 6.5, компания VMware анонсировала первый пакет ее обновления - VMware vSphere 6.5 Update 1. Но в таком долгом сроке обновления есть и большой плюс - ведь наверняка на этот раз QA-отдел VMware успел хорошо проверить новый релиз, поэтому критических багов после обновления вылезти не должно (их, кстати, согласно списку Release Notes было немало исправлено). Тем не менее, как обычно мы советуем вам подождать недельку другую перед обновлением на новую версию:)

Давайте посмотрим, что нового появилось в VMware vSphere 6.5 Update 1:

1. vSphere Client теперь поддерживает 90% рабочих процессов.

Последний релиз vSphere Client на базе технологии HTML5 поддерживает практически все рабочие процессы, за исключением некоторых нечасто используемых операций. Совсем немного осталось до стопроцентного покрытия (хотя нам это говорили уже несколько месяцев назад). Надо отметить, что теперь полностью поддерживаются операции с Virtual Distributed Switch (VDS).

2. vCenter Server Foundation теперь поддерживает 4 хоста ESXi вместо трех.

Это сделано по просьбам клиентов, имеющих небольшую инфраструктуру и требующих одну лицензию на vCenter на четное число хостов.

3. Расширенная поддержка сторонних компонентов.

VMware поработала с основными партнерами, решения которых дополняют инфраструктуру vSphere, и выработала подход, который позволит избежать проблем совместимости различных версий платформы в будущем с такими компонентами, как Security Key Management, Proactive HA и т.п.

4. Расширенная поддержка vSphere 6.5 General Support.

VMware решила расширить поддержку платформы vSphere 6.5 до 5 лет, что означает, что она закончится 15 ноября 2021 года.

5. Апгрейд на vSphere 6.5 U1 c vSphere 6.0 U3.

VMware полностью поддерживает рабочий процесс обновления последней версии vSphere 6.0 U3 предыдущего поколения на актуальную версию vSphere 6.5 Update 1. То есть, теперь нет необходимости промежуточного обновления на vSphere 6.5.

6. Обновления драйверов.

Следующие драйвера устройств были обновлены в составе гипервизора ESXi 6.5 Update 1:

  • Cavium qlnativefc driver
  • VMware nvme driver
  • Intel i40en driver with Lewisburg 10G NIC Support
  • Intel ne1000 driver with Lewisburg 1G NIC Support
  • Intel igbn driver
  • Intel ixgben driver
  • Broadcom ntg3 driver

7. Улучшения максимумов vCenter.

Теперь у vCenter следующие максимально поддерживаемые параметры (vSphere Domains - это SSO-домены):

  • Maximum vCenter Servers per vSphere Domain: 15 (было 10)
  • Maximum ESXi Hosts per vSphere Domain: 5000 (было 4000)
  • Maximum Powered On VMs per vSphere Domain: 50,000 (было 30,000)
  • Maximum Registered VMs per vSphere Domain: 70,000 (было 50,000)

8. Другие улучшения vCenter.

  • Интерфейс установщика vCenter Server Appliance (vCSA) доступен для Microsoft Windows 2012 x64, Microsoft Windows 2012 R2 x64, Microsoft Windows 2016 x64 и macOS Sierra.
  • TcServer заменен на Tomcat 8.5.8.
  • Поддержка кастомизации гостевой ОС Ubuntu 17.04.
  • Возможность использования vSphere Update Manager для обновления кластеров vSAN 6.6.1.

  • Поддержка внешних СУБД Microsoft SQL Server 2016, Microsoft SQL Server 2016 SP1 и Microsoft SQL Server 2014 SP2.

Кстати, это последний релиз который поддерживает сторонние виртуальные распределенные коммутаторы, такие как IBM DVS 5000v, HPE 5900v или Cisco Nexus 1000v. В следующем релизе их больше нельзя будет использовать, поэтому осваивайте vDS от VMware. Более подробная информация об этом приведена в KB 2149722.

Скачать VMware vSphere 6.5 Update 1 можно по этой ссылке. Ну и еще несколько полезных ссылок для продуктов, которые были обновлены одновременно с основной платформой:


Таги: VMware, vSphere, Update, ESXi, vCenter

VMware vSphere VMkernel Observations (VOBs) - как создавать кастомные алармы для различных событий (alarms).


В VMware vSphere есть механизм для создания и анализа кастомных алармов - VMkernel Observations (VOBs). VOB'ы - это системные события, которые можно использовать для пользовательских алармов в целях отладки различных аспектов виртуальной инфраструктуры (сетевого взаимодействия, кластеров vSAN, производительности и т.п.).

Чтобы добавить такой аларм, нужно знать его уникальный идентификатор (ID), ассоциированный с конкретным типом события. Эти события и их ID можно посмотреть в следующем файле на хосте ESXi:

/usr/lib/vmware/hostd/extensions/hostdiag/locale/en/event.vmsg

Если же такой аларм срабатывает, то он записывается в следующий лог-файл:

/var/log/vobd.log

Для того, чтобы создать кастомный аларм на основе VOB, нужно при создании нового аларма выбрать пункт "specific event occuring on this object":

И далее добавить соответствующий идентификатор, например, такой:

esx.problem.vob.vsan.pdl.offline

Событий, для которых можно создать кастомные алармы, очень много. Вот некоторые из них:

VOB ID VOB Description
esx.audit.vsan.clustering.enabled VSAN clustering services have been enabled.
esx.clear.vob.vsan.pdl.online VSAN device has come online.
esx.clear.vsan.clustering.enabled VSAN clustering services have now been enabled.
esx.clear.vsan.vsan.network.available VSAN now has at least one active network configuration.
esx.clear.vsan.vsan.vmknic.ready A previously reported vmknic now has a valid IP.
esx.problem.vob.vsan.lsom.componentthreshold VSAN Node: Near node component count limit.
esx.problem.vob.vsan.lsom.diskerror VSAN device is under permanent error.
esx.problem.vob.vsan.lsom.diskgrouplimit Failed to create a new disk group.
esx.problem.vob.vsan.lsom.disklimit Failed to add disk to disk group.
esx.problem.vob.vsan.pdl.offline VSAN device has gone offline.
esx.problem.vsan.clustering.disabled VSAN clustering services have been disabled.
esx.problem.vsan.lsom.congestionthreshold VSAN device Memory/SSD congestion has changed.
esx.problem.vsan.net.not.ready A vmknic added to VSAN network configuration doesn't have valid IP. Network is not ready.
esx.problem.vsan.net.redundancy.lost VSAN doesn't haven any redundancy in its network configuration.
esx.problem.vsan.net.redundancy.reduced VSAN is operating on reduced network redundancy.
esx.problem.vsan.no.network.connectivity VSAN doesn't have any networking configuration for use.
esx.problem.vsan.vmknic.not.ready A vmknic added to VSAN network configuration doesn't have valid IP. It will not be in use.
ad.event.ImportCertEvent Import certificate success
ad.event.ImportCertFailedEvent Import certificate failure
ad.event.JoinDomainEvent Join domain success
ad.event.JoinDomainFailedEvent Join domain failure
ad.event.LeaveDomainEvent Leave domain success
ad.event.LeaveDomainFailedEvent Leave domain failure
com.vmware.vc.HA.CreateConfigVvolFailedEvent vSphere HA failed to create a configuration vVol for this datastore and so will not be able to protect virtual machines on the datastore until the problem is resolved. Error: {fault}
com.vmware.vc.HA.CreateConfigVvolSucceededEvent vSphere HA successfully created a configuration vVol after the previous failure
com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent Host complete datastore failure
com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent Host complete network failure
com.vmware.vc.VmCloneFailedInvalidDestinationEvent Cannot complete virtual machine clone.
com.vmware.vc.VmCloneToResourcePoolFailedEvent Cannot complete virtual machine clone.
com.vmware.vc.VmDiskConsolidatedEvent Virtual machine disks consolidation succeeded.
com.vmware.vc.VmDiskConsolidationNeeded Virtual machine disks consolidation needed.
com.vmware.vc.VmDiskConsolidationNoLongerNeeded Virtual machine disks consolidation no longer needed.
com.vmware.vc.VmDiskFailedToConsolidateEvent Virtual machine disks consolidation failed.
com.vmware.vc.datastore.UpdateVmFilesFailedEvent Failed to update VM files
com.vmware.vc.datastore.UpdatedVmFilesEvent Updated VM files
com.vmware.vc.datastore.UpdatingVmFilesEvent Updating VM Files
com.vmware.vc.ft.VmAffectedByDasDisabledEvent Fault Tolerance VM restart disabled
com.vmware.vc.guestOperations.GuestOperation Guest operation
com.vmware.vc.guestOperations.GuestOperationAuthFailure Guest operation authentication failure
com.vmware.vc.host.clear.vFlashResource.inaccessible Host's virtual flash resource is accessible.
com.vmware.vc.host.clear.vFlashResource.reachthreshold Host's virtual flash resource usage dropped below the threshold.
com.vmware.vc.host.problem.vFlashResource.inaccessible Host's virtual flash resource is inaccessible.
com.vmware.vc.host.problem.vFlashResource.reachthreshold Host's virtual flash resource usage exceeds the threshold.
com.vmware.vc.host.vFlash.VFlashResourceCapacityExtendedEvent Virtual flash resource capacity is extended
com.vmware.vc.host.vFlash.VFlashResourceConfiguredEvent Virtual flash resource is configured on the host
com.vmware.vc.host.vFlash.VFlashResourceRemovedEvent Virtual flash resource is removed from the host
com.vmware.vc.host.vFlash.defaultModuleChangedEvent Default virtual flash module is changed to {vFlashModule} on the host
com.vmware.vc.host.vFlash.modulesLoadedEvent Virtual flash modules are loaded or reloaded on the host
com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent Virtual NIC entered passthrough mode
com.vmware.vc.npt.VmAdapterExitedPassthroughEvent Virtual NIC exited passthrough mode
com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent FT Disabled VM protected as non-FT VM
com.vmware.vc.vcp.FtFailoverEvent Failover FT VM due to component failure
com.vmware.vc.vcp.FtFailoverFailedEvent FT VM failover failed
com.vmware.vc.vcp.FtSecondaryRestartEvent Restarting FT secondary due to component failure
com.vmware.vc.vcp.FtSecondaryRestartFailedEvent FT secondary VM restart failed
com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent Need secondary VM protected as non-FT VM
com.vmware.vc.vcp.TestEndEvent VM Component Protection test ends
com.vmware.vc.vcp.TestStartEvent VM Component Protection test starts
com.vmware.vc.vcp.VcpNoActionEvent No action on VM
com.vmware.vc.vcp.VmDatastoreFailedEvent Virtual machine lost datastore access
com.vmware.vc.vcp.VmNetworkFailedEvent Virtual machine lost VM network accessibility
com.vmware.vc.vcp.VmPowerOffHangEvent VM power off hang
com.vmware.vc.vcp.VmRestartEvent Restarting VM due to component failure
com.vmware.vc.vcp.VmRestartFailedEvent Virtual machine affected by component failure failed to restart
com.vmware.vc.vcp.VmWaitForCandidateHostEvent No candidate host to restart
com.vmware.vc.vm.VmStateFailedToRevertToSnapshot Failed to revert the virtual machine state to a snapshot
com.vmware.vc.vm.VmStateRevertedToSnapshot The virtual machine state has been reverted to a snapshot
com.vmware.vc.vmam.AppMonitoringNotSupported Application Monitoring Is Not Supported
com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent vSphere HA detected application heartbeat status change
com.vmware.vc.vmam.VmAppHealthStateChangedEvent vSphere HA detected application state change
com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent vSphere HA detected application heartbeat failure
esx.audit.agent.hostd.started VMware Host Agent started
esx.audit.agent.hostd.stopped VMware Host Agent stopped
esx.audit.dcui.defaults.factoryrestore Restoring factory defaults through DCUI.
esx.audit.dcui.disabled The DCUI has been disabled.
esx.audit.dcui.enabled The DCUI has been enabled.
esx.audit.dcui.host.reboot Rebooting host through DCUI.
esx.audit.dcui.host.shutdown Shutting down host through DCUI.
esx.audit.dcui.hostagents.restart Restarting host agents through DCUI.
esx.audit.dcui.login.failed Login authentication on DCUI failed
esx.audit.dcui.login.passwd.changed DCUI login password changed.
esx.audit.dcui.network.factoryrestore Factory network settings restored through DCUI.
esx.audit.dcui.network.restart Restarting network through DCUI.
esx.audit.esxcli.host.poweroff Powering off host through esxcli
esx.audit.esxcli.host.reboot Rebooting host through esxcli
esx.audit.esximage.hostacceptance.changed Host acceptance level changed
esx.audit.esximage.install.novalidation Attempting to install an image profile with validation disabled.
esx.audit.esximage.install.securityalert SECURITY ALERT: Installing image profile.
esx.audit.esximage.profile.install.successful Successfully installed image profile.
esx.audit.esximage.profile.update.successful Successfully updated host to new image profile.
esx.audit.esximage.vib.install.successful Successfully installed VIBs.
esx.audit.esximage.vib.remove.successful Successfully removed VIBs
esx.audit.host.boot Host has booted.
esx.audit.host.maxRegisteredVMsExceeded The number of virtual machines registered on the host exceeded limit.
esx.audit.host.stop.reboot Host is rebooting.
esx.audit.host.stop.shutdown Host is shutting down.
esx.audit.lockdownmode.disabled Administrator access to the host has been enabled.
esx.audit.lockdownmode.enabled Administrator access to the host has been disabled.
esx.audit.maintenancemode.canceled The host has canceled entering maintenance mode.
esx.audit.maintenancemode.entered The host has entered maintenance mode.
esx.audit.maintenancemode.entering The host has begun entering maintenance mode.
esx.audit.maintenancemode.exited The host has exited maintenance mode.
esx.audit.net.firewall.config.changed Firewall configuration has changed.
esx.audit.net.firewall.disabled Firewall has been disabled.
esx.audit.net.firewall.enabled Firewall has been enabled for port.
esx.audit.net.firewall.port.hooked Port is now protected by Firewall.
esx.audit.net.firewall.port.removed Port is no longer protected with Firewall.
esx.audit.net.lacp.disable LACP disabled
esx.audit.net.lacp.enable LACP eabled
esx.audit.net.lacp.uplink.connected uplink is connected
esx.audit.shell.disabled The ESXi command line shell has been disabled.
esx.audit.shell.enabled The ESXi command line shell has been enabled.
esx.audit.ssh.disabled SSH access has been disabled.
esx.audit.ssh.enabled SSH access has been enabled.
esx.audit.usb.config.changed USB configuration has changed.
esx.audit.uw.secpolicy.alldomains.level.changed Enforcement level changed for all security domains.
esx.audit.uw.secpolicy.domain.level.changed Enforcement level changed for security domain.
esx.audit.vmfs.lvm.device.discovered LVM device discovered.
esx.audit.vmfs.volume.mounted File system mounted.
esx.audit.vmfs.volume.umounted LVM volume un-mounted.
esx.clear.coredump.configured A vmkcore disk partition is available and/or a network coredump server has been configured.  Host core dumps will be saved.
esx.clear.coredump.configured2 At least one coredump target has been configured. Host core dumps will be saved.
esx.clear.net.connectivity.restored Restored network connectivity to portgroups
esx.clear.net.dvport.connectivity.restored Restored Network Connectivity to DVPorts
esx.clear.net.dvport.redundancy.restored Restored Network Redundancy to DVPorts
esx.clear.net.lacp.lag.transition.up lag transition up
esx.clear.net.lacp.uplink.transition.up uplink transition up
esx.clear.net.lacp.uplink.unblocked uplink is unblocked
esx.clear.net.redundancy.restored Restored uplink redundancy to portgroups
esx.clear.net.vmnic.linkstate.up Link state up
esx.clear.scsi.device.io.latency.improved Scsi Device I/O Latency has improved
esx.clear.scsi.device.state.on Device has been turned on administratively.
esx.clear.scsi.device.state.permanentloss.deviceonline Device that was permanently inaccessible is now online.
esx.clear.storage.apd.exit Exited the All Paths Down state
esx.clear.storage.connectivity.restored Restored connectivity to storage device
esx.clear.storage.redundancy.restored Restored path redundancy to storage device
esx.problem.3rdParty.error A 3rd party component on ESXi has reported an error.
esx.problem.3rdParty.information A 3rd party component on ESXi has reported an informational event.
esx.problem.3rdParty.warning A 3rd party component on ESXi has reported a warning.
esx.problem.apei.bert.memory.error.corrected A corrected memory error occurred
esx.problem.apei.bert.memory.error.fatal A fatal memory error occurred
esx.problem.apei.bert.memory.error.recoverable A recoverable memory error occurred
esx.problem.apei.bert.pcie.error.corrected A corrected PCIe error occurred
esx.problem.apei.bert.pcie.error.fatal A fatal PCIe error occurred
esx.problem.apei.bert.pcie.error.recoverable A recoverable PCIe error occurred
esx.problem.application.core.dumped An application running on ESXi host has crashed and a core file was created.
esx.problem.boot.filesystem.down Lost connectivity to the device backing the boot filesystem
esx.problem.coredump.capacity.insufficient The storage capacity of the coredump targets is insufficient to capture a complete coredump.
esx.problem.coredump.unconfigured No vmkcore disk partition is available and no network coredump server has been configured.  Host core dumps cannot be saved.
esx.problem.coredump.unconfigured2 No coredump target has been configured. Host core dumps cannot be saved.
esx.problem.cpu.amd.mce.dram.disabled DRAM ECC not enabled. Please enable it in BIOS.
esx.problem.cpu.intel.ioapic.listing.error Not all IO-APICs are listed in the DMAR. Not enabling interrupt remapping on this platform.
esx.problem.cpu.mce.invalid MCE monitoring will be disabled as an unsupported CPU was detected. Please consult the ESX HCL for information on supported hardware.
esx.problem.cpu.smp.ht.invalid Disabling HyperThreading due to invalid configuration: Number of threads: {1} Number of PCPUs: {2}.
esx.problem.cpu.smp.ht.numpcpus.max Found {1} PCPUs but only using {2} of them due to specified limit.
esx.problem.cpu.smp.ht.partner.missing Disabling HyperThreading due to invalid configuration: HT partner {1} is missing from PCPU {2}.
esx.problem.dhclient.lease.none Unable to obtain a DHCP lease.
esx.problem.dhclient.lease.offered.noexpiry No expiry time on offered DHCP lease.
esx.problem.esximage.install.error Could not install image profile.
esx.problem.esximage.install.invalidhardware Host doesn't meet image profile hardware requirements.
esx.problem.esximage.install.stage.error Could not stage image profile.
esx.problem.hardware.acpi.interrupt.routing.device.invalid Skipping interrupt routing entry with bad device number: {1}. This is a BIOS bug.
esx.problem.hardware.acpi.interrupt.routing.pin.invalid Skipping interrupt routing entry with bad device pin: {1}. This is a BIOS bug.
esx.problem.hardware.ioapic.missing IOAPIC Num {1} is missing. Please check BIOS settings to enable this IOAPIC.
esx.problem.host.coredump An unread host kernel core dump has been found.
esx.problem.hostd.core.dumped Hostd crashed and a core file was created.
esx.problem.iorm.badversion Storage I/O Control version mismatch
esx.problem.iorm.nonviworkload Unmanaged workload detected on SIOC-enabled datastore
esx.problem.migrate.vmotion.default.heap.create.failed Failed to create default migration heap
esx.problem.migrate.vmotion.server.pending.cnx.listen.socket.shutdown Error with migration listen socket
esx.problem.net.connectivity.lost Lost Network Connectivity
esx.problem.net.dvport.connectivity.lost Lost Network Connectivity to DVPorts
esx.problem.net.dvport.redundancy.degraded Network Redundancy Degraded on DVPorts
esx.problem.net.dvport.redundancy.lost Lost Network Redundancy on DVPorts
esx.problem.net.e1000.tso6.notsupported No IPv6 TSO support
esx.problem.net.fence.port.badfenceid Invalid fenceId configuration on dvPort
esx.problem.net.fence.resource.limited Maximum number of fence networks or ports
esx.problem.net.fence.switch.unavailable Switch fence property is not set
esx.problem.net.firewall.config.failed Firewall configuration operation failed. The changes were not applied.
esx.problem.net.firewall.port.hookfailed Adding port to Firewall failed.
esx.problem.net.gateway.set.failed Failed to set gateway
esx.problem.net.heap.belowthreshold Network memory pool threshold
esx.problem.net.lacp.lag.transition.down lag transition down
esx.problem.net.lacp.peer.noresponse No peer response
esx.problem.net.lacp.policy.incompatible Current teaming policy is incompatible
esx.problem.net.lacp.policy.linkstatus Current teaming policy is incompatible
esx.problem.net.lacp.uplink.blocked uplink is blocked
esx.problem.net.lacp.uplink.disconnected uplink is disconnected
esx.problem.net.lacp.uplink.fail.duplex uplink duplex mode is different
esx.problem.net.lacp.uplink.fail.speed uplink speed is different
esx.problem.net.lacp.uplink.inactive All uplinks must be active
esx.problem.net.lacp.uplink.transition.down uplink transition down
esx.problem.net.migrate.bindtovmk Invalid vmknic specified in /Migrate/Vmknic
esx.problem.net.migrate.unsupported.latency Unsupported vMotion network latency detected
esx.problem.net.portset.port.full Failed to apply for free ports
esx.problem.net.portset.port.vlan.invalidid Vlan ID of the port is invalid
esx.problem.net.proxyswitch.port.unavailable Virtual NIC connection to switch failed
esx.problem.net.redundancy.degraded Network Redundancy Degraded
esx.problem.net.redundancy.lost Lost Network Redundancy
esx.problem.net.uplink.mtu.failed Failed to set MTU on an uplink
esx.problem.net.vmknic.ip.duplicate A duplicate IP address was detected on a vmknic interface
esx.problem.net.vmnic.linkstate.down Link state down
esx.problem.net.vmnic.linkstate.flapping Link state unstable
esx.problem.net.vmnic.watchdog.reset Nic Watchdog Reset
esx.problem.ntpd.clock.correction.error NTP daemon stopped.  Time correction out of bounds.
esx.problem.pageretire.platform.retire.request Memory page retirement requested by platform firmware.
esx.problem.pageretire.selectedmpnthreshold.host.exceeded Number of host physical memory pages selected for retirement exceeds threshold.
esx.problem.scratch.partition.size.small Size of scratch partition is too small.
esx.problem.scratch.partition.unconfigured No scratch partition has been configured.
esx.problem.scsi.apd.event.descriptor.alloc.failed No memory to allocate APD Event
esx.problem.scsi.device.close.failed Scsi Device close failed.
esx.problem.scsi.device.detach.failed Device detach failed
esx.problem.scsi.device.filter.attach.failed Failed to attach filter to device.
esx.problem.scsi.device.io.bad.plugin.type Plugin trying to issue command to device does not have a valid storage plugin type.
esx.problem.scsi.device.io.inquiry.failed Failed to obtain INQUIRY data from the device
esx.problem.scsi.device.io.invalid.disk.qfull.value Scsi device queue parameters incorrectly set.
esx.problem.scsi.device.io.latency.high Scsi Device I/O Latency going high
esx.problem.scsi.device.io.qerr.change.config QErr cannot be changed on device. Please change it manually on the device if possible.
esx.problem.scsi.device.io.qerr.changed Scsi Device QErr setting changed
esx.problem.scsi.device.is.local.failed Plugin's isLocal entry point failed
esx.problem.scsi.device.is.pseudo.failed Plugin's isPseudo entry point failed
esx.problem.scsi.device.is.ssd.failed Plugin's isSSD entry point failed
esx.problem.scsi.device.limitreached Maximum number of storage devices
esx.problem.scsi.device.state.off Device has been turned off administratively.
esx.problem.scsi.device.state.permanentloss Device has been removed or is permanently inaccessible.
esx.problem.scsi.device.state.permanentloss.noopens Permanently inaccessible device has no more opens.
esx.problem.scsi.device.state.permanentloss.pluggedback Device has been plugged back in after being marked permanently inaccessible.
esx.problem.scsi.device.state.permanentloss.withreservationheld Device has been removed or is permanently inaccessible.
esx.problem.scsi.device.thinprov.atquota Thin Provisioned Device Nearing Capacity
esx.problem.scsi.scsipath.badpath.unreachpe vVol PE path going out of vVol-incapable adapter
esx.problem.scsi.scsipath.badpath.unsafepe Cannot safely determine vVol PE
esx.problem.scsi.scsipath.limitreached Maximum number of storage paths
esx.problem.scsi.unsupported.plugin.type Storage plugin of unsupported type tried to register.
esx.problem.storage.apd.start All paths are down
esx.problem.storage.apd.timeout All Paths Down timed out, I/Os will be fast failed
esx.problem.storage.connectivity.devicepor Frequent PowerOn Reset Unit Attention of Storage Path
esx.problem.storage.connectivity.lost Lost Storage Connectivity
esx.problem.storage.connectivity.pathpor Frequent PowerOn Reset Unit Attention of Storage Path
esx.problem.storage.connectivity.pathstatechanges Frequent State Changes of Storage Path
esx.problem.storage.iscsi.discovery.connect.error iSCSI discovery target login connection problem
esx.problem.storage.iscsi.discovery.login.error iSCSI Discovery target login error
esx.problem.storage.iscsi.isns.discovery.error iSCSI iSns Discovery error
esx.problem.storage.iscsi.target.connect.error iSCSI Target login connection problem
esx.problem.storage.iscsi.target.login.error iSCSI Target login error
esx.problem.storage.iscsi.target.permanently.lost iSCSI target permanently removed
esx.problem.storage.redundancy.degraded Degraded Storage Path Redundancy
esx.problem.storage.redundancy.lost Lost Storage Path Redundancy
esx.problem.syslog.config System logging is not configured.
esx.problem.syslog.nonpersistent System logs are stored on non-persistent storage.
esx.problem.vfat.filesystem.full.other A VFAT filesystem is full.
esx.problem.vfat.filesystem.full.scratch A VFAT filesystem, being used as the host's scratch partition, is full.
esx.problem.visorfs.failure An operation on the root filesystem has failed.
esx.problem.visorfs.inodetable.full The root filesystem's file table is full.
esx.problem.visorfs.ramdisk.full A ramdisk is full.
esx.problem.visorfs.ramdisk.inodetable.full A ramdisk's file table is full.
esx.problem.vm.kill.unexpected.fault.failure A VM could not fault in the a page. The VM is terminated as further progress is impossible.
esx.problem.vm.kill.unexpected.forcefulPageRetire A VM did not respond to swap actions and is forcefully powered off to prevent system instability.
esx.problem.vm.kill.unexpected.noSwapResponse A VM did not respond to swap actions and is forcefully powered off to prevent system instability.
esx.problem.vm.kill.unexpected.vmtrack A VM is allocating too many pages while system is critically low in free memory. It is forcefully terminated to prevent system instability.
esx.problem.vmfs.ats.support.lost Device Backing VMFS has lost ATS Support
esx.problem.vmfs.error.volume.is.locked VMFS Locked By Remote Host
esx.problem.vmfs.extent.offline Device backing an extent of a file system is offline.
esx.problem.vmfs.extent.online Device backing an extent of a file system came online
esx.problem.vmfs.heartbeat.recovered VMFS Volume Connectivity Restored
esx.problem.vmfs.heartbeat.timedout VMFS Volume Connectivity Degraded
esx.problem.vmfs.heartbeat.unrecoverable VMFS Volume Connectivity Lost
esx.problem.vmfs.journal.createfailed No Space To Create VMFS Journal
esx.problem.vmfs.lock.corruptondisk VMFS Lock Corruption Detected
esx.problem.vmfs.lock.corruptondisk.v2 VMFS Lock Corruption Detected
esx.problem.vmfs.nfs.mount.connect.failed Unable to connect to NFS server
esx.problem.vmfs.nfs.mount.limit.exceeded NFS has reached the maximum number of supported volumes
esx.problem.vmfs.nfs.server.disconnect Lost connection to NFS server
esx.problem.vmfs.nfs.server.restored Restored connection to NFS server
esx.problem.vmfs.resource.corruptondisk VMFS Resource Corruption Detected
esx.problem.vmsyslogd.remote.failure Remote logging host has become unreachable.
esx.problem.vmsyslogd.storage.failure Logging to storage has failed.
esx.problem.vmsyslogd.storage.logdir.invalid The configured log directory cannot be used.  The default directory will be used instead.
esx.problem.vmsyslogd.unexpected Log daemon has failed for an unexpected reason.
esx.problem.vpxa.core.dumped Vpxa crashed and a core file was created.
hbr.primary.AppQuiescedDeltaCompletedEvent Application consistent delta completed.
hbr.primary.ConnectionRestoredToHbrServerEvent Connection to VR Server restored.
hbr.primary.DeltaAbortedEvent Delta aborted.
hbr.primary.DeltaCompletedEvent Delta completed.
hbr.primary.DeltaStartedEvent Delta started.
hbr.primary.FSQuiescedDeltaCompletedEvent File system consistent delta completed.
hbr.primary.FSQuiescedSnapshot Application quiescing failed during replication.
hbr.primary.FailedToStartDeltaEvent Failed to start delta.
hbr.primary.FailedToStartSyncEvent Failed to start full sync.
hbr.primary.HostLicenseFailedEvent vSphere Replication is not licensed replication is disabled.
hbr.primary.InvalidDiskReplicationConfigurationEvent Disk replication configuration is invalid.
hbr.primary.InvalidVmReplicationConfigurationEvent Virtual machine replication configuration is invalid.
hbr.primary.NoConnectionToHbrServerEvent No connection to VR Server.
hbr.primary.NoProgressWithHbrServerEvent VR Server error: {reason.@enum.hbr.primary.ReasonForNoServerProgress}
hbr.primary.QuiesceNotSupported Quiescing is not supported for this virtual machine.
hbr.primary.SyncCompletedEvent Full sync completed.
hbr.primary.SyncStartedEvent Full sync started.
hbr.primary.SystemPausedReplication System has paused replication.
hbr.primary.UnquiescedDeltaCompletedEvent Delta completed.
hbr.primary.UnquiescedSnapshot Unable to quiesce the guest.
hbr.primary.VmLicenseFailedEvent vSphere Replication is not licensed replication is disabled.
hbr.primary.VmReplicationConfigurationChangedEvent Replication configuration changed.
vim.event.LicenseDowngradedEvent License downgrade
vim.event.SystemSwapInaccessible System swap inaccessible
vim.event.UnsupportedHardwareVersionEvent This virtual machine uses hardware version {version} which is no longer supported. Upgrade is recommended.
vprob.net.connectivity.lost Lost Network Connectivity
vprob.net.e1000.tso6.notsupported No IPv6 TSO support
vprob.net.migrate.bindtovmk Invalid vmknic specified in /Migrate/Vmknic
vprob.net.proxyswitch.port.unavailable Virtual NIC connection to switch failed
vprob.net.redundancy.degraded Network Redundancy Degraded
vprob.net.redundancy.lost Lost Network Redundancy
vprob.scsi.device.thinprov.atquota Thin Provisioned Device Nearing Capacity
vprob.storage.connectivity.lost Lost Storage Connectivity
vprob.storage.redundancy.degraded Degraded Storage Path Redundancy
vprob.storage.redundancy.lost Lost Storage Path Redundancy
vprob.vmfs.error.volume.is.locked VMFS Locked By Remote Host
vprob.vmfs.extent.offline Device backing an extent of a file system is offline.
vprob.vmfs.extent.online Device backing an extent of a file system is online.
vprob.vmfs.heartbeat.recovered VMFS Volume Connectivity Restored
vprob.vmfs.heartbeat.timedout VMFS Volume Connectivity Degraded
vprob.vmfs.heartbeat.unrecoverable VMFS Volume Connectivity Lost
vprob.vmfs.journal.createfailed No Space To Create VMFS Journal
vprob.vmfs.lock.corruptondisk VMFS Lock Corruption Detected
vprob.vmfs.nfs.server.disconnect Lost connection to NFS server
vprob.vmfs.nfs.server.restored Restored connection to NFS server
vprob.vmfs.resource.corruptondisk VMFS Resource Corruption Detected

Ну а вот так вот будет выглядеть сработавший кастомный аларм в интерфейсе VMware vSphere Web Client:


Таги: VMware, vSphere, Troubleshooting, ESXi

Использование кластеров VMware HA/DRS с разными версиями ESXi.


Спустя 8 лет, опять поднимем тему использования кластеров VMware HA/DRS, в которых, по каким-либо причинам, оказались разные версии хост-серверов VMware ESXi. Такой режим работы кластеров допускается со стороны VMware, но при определенных условиях.

Первая и самая важная вещь - совместимость виртуального аппаратного обеспечения виртуальных машин (Virtual Hardware Version), которое увеличивает свою версию с каждым мажорным релизом ESXi. Правило тут простое - более новые версии ESXi могут запускать и исполнять виртуальные машины более старых версий, а вот старые хосты ESXi более новое для себя "виртуальное железо" не запустят.

Данный момент проясняет табличка из KB 2007240:

Обратите внимание, что, например, ВМ с версией HW 11 вы не запустите на ESXi 5.5. Поэтому выход такой - не обновлять старое виртуальное аппаратное обеспечение виртуальных машин, даже если они переехали за счет vMotion на хосты с более новой версией HW.

Второй момент - VMware Tools. Тут уже проще - старую версию тулзов можно эксплуатировать на новых хостах, как и новую на старых - обратная совместимость тоже есть. Убедиться в этом можно с помощью онлайн-утилиты VMware Product Interoperability Matrices, где в поле "Select a Solution" надо выбрать VMware Tools, а в поле "Add Platform/Solution" - платформу VMware vSphere Hypervisor (ESXi):

Но обратная совместимость тоже не бесконечная - VMware Tools версии 10.1.5, как мы видим, не получится использовать на VMware vSphere 5.1 Update 3.

Кстати, чтобы обновить VMware Tools, можно переместить ВМ с помощью vMotion на хост ESXi с более высокой версией и выбрать пункт "Install/Upgrade VMware Tools" в vSphere Web Client.

Второй способ обновления VMware Tools - это просто скачать их по ссылке с официального репозитория для вашей гостевой ОС:

https://packages.vmware.com/tools/esx/index.html

Ну и третий, заключительный, но самый важный момент при использовании смешанных кластеров (VMware их называет mixed clusters) - это возможности VMware HA, DRS, FT и прочих функций, которые предоставляет соответствующая версия ПО от VMware.

Например, в версии vSphere 6.5 появилось много нового с точки зрения технологии HA (к примеру, механизм Admission Control стал рассчитывать параметры для несбалансированных кластеров автоматически).

Поэтому самый простой и эффективный выход - это смешанные кластеры не создавать, а создать два разных кластера - для старых и для новых хост-серверов. Да, это может вам стоить в каком-то случае на один хост больше, но это того стоит.


Таги: VMware, Cluster, vSphere, ESXi, VMachines, Tools, Hardware, Compatibility

Онлайн-библиотека шаблонов "вложенных гипервизоров" - Nested VMware ESXi 6.x Content Library.


Некоторые из вас знают, что известный блоггер Вильям Лам в числе прочего занимается виртуальным модулем Nested VMware ESXi, то есть готовой к импорту на ESXi виртуальной машиной с этим же гипервизором внутри. Это может пригодиться, например, для создания виртуальных тестовых лабораторий с несколькими гипервизорами на базе одного физического сервера.

Так вот недавно Вильям опубликовал в облаке Amazon S3 стороннюю библиотеку контента (Content Library), где выложены и будут обновляться виртуальные модули Nested VMware ESXi версий 6.x.

Для закачки контента библиотеки вам понадобится зайти в раздел Content Libraries в клиенте vSphere Client:

И далее нужно указать следующий URL подписки на контент:

https://download3.vmware.com/software/vmw-tools/lib.json

После того, как библиотека добавится, вы увидите следующие 2 образа (как видно из скриншота выше, не обязательно скачивать их сразу, их можно загрузить по мере необходимости):

Первый - это виртуальный модуль ESXi 6.5d с поддержкой VMware vSAN, а второй - это ESXi 6.0 Update 3. Вещь полезная и удобная, а главное, что Вильям обещает обновлять данные образы.


Таги: VMware, Nested, ESXi, Cloud

Новый VMware ESXi Embedded Host Client 1.21 - новые возможности.


Не так давно мы писали о новой версии клиента для управления виртуальной инфраструктурой VMware vSphere Client 3.15 и забыли упомянуть, что тогда же вышла и обновленная версия клиента для управления отдельными хост-серверами - VMware ESXi Embedded Host Client 1.21. Напомним, что о прошлой версии Host Client 1.17 мы писали в марте этого года.

Посмотрим на новые возможности ESXi Embedded Host Client 1.21, которых не так уж и мало:

  • Возможность увеличить размер датастора путем увеличения размера существующего экстента за счет использования доступного пространства на этом LUN.
  • Был улучшен датастор браузер - теперь корректно обрабатываются операции копирования и перемещения при действиях с дисками VMDK.
  • Корректная обработка горячего изменения сетевых адаптеров ВМ с MAC-адресами, назначенными сервером vCenter. Это предотвращает перегенерацию MAC-адресов при изменении портгрупп.
  • При добавлении новых дисков их тип выставляется как "Thick", чтобы соответствовать поведению сервера vCenter в этом же рабочем процессе.
  • Обработка отсутствующих данных о сертификатах в разделе Host -> Manage -> Security -> Certificates.
  • В разделе изменения или добавления виртуального коммутатора vSwitch теперь есть данные о статусе и скорости соединения.
  • Имя ВМ теперь отображается в самом начале в заголовке консоли и на вкладках.
  • Улучшено изменение разрешения при вписывании консоли в текущее окно.
  • В Firefox в неактивных полях ввода текст теперь более читаемый.
  • Теперь демон hostd определяет имя файла создаваемых виртуальных дисков.
  • Теперь нет ограничения по числу дисков, которые могут быть у виртуальной машины.
  • Предотвращение замены регулярного выражения для неопределенного свойства OVA-модуля.
  • Добавлена поддержка добавления пермиссий для групп.
  • Исправлена ошибка для ситуации, когда диски ВМ размещались на некорректном датасторе.

Загрузить ESXi Embedded Host Client 1.21 в виде VIB-пакета можно по этой ссылке. Установить его очень просто - выполните следующую команду (VIB-файл должен лежать у вас по указанному пути):

esxcli software vib install -v /tmp/esxui.vib

Удаляется клиент вот таким образом:

esxcli software vib remove -n esx-ui

Список поддерживаемых браузеров на данный момент таков:


Таги: VMware, ESXi, Host Client, Update

Обновления кастомных OEM-образов VMware ESXi (Cisco, Dell, HPE) и визуализация полученных различий.


Многие пользователи виртуальной инфраструктуры VMware vSphere часто используют кастомизированные образы гипервизора VMware ESXi, который распространяется OEM-производителями оборудования, например, HP. Эти образы включают в себя специфические драйвера устройств, которые, зачастую, отсутствуют в стандартном комплекте поставки ESXi (это и понятно, так как нельзя поддерживать все устройства всех производителей в одном образе).

Между тем, многие администраторы обновляют такие образы достаточно редко - иногда по полгода ждут пока OEM-вендор выпустит очередную версию образа и накатывают его. Но ведь бывают критические обновления безопасности ESXi, которые нужно установить как можно скорее. Для этого нужно знать, как выглядит процедура обновления кастомного образа vSphere.

Во-первых, нужно понимать, что основные номера билдов и даты релиза гипервизора указаны в статье KB 2143832. А патчи в виде VIB-пакетов можно скачать с портала MyVMware здесь.

Во-вторых, есть утилита PowerCLI Image Builder (о ней мы писали вот тут), которая позволяет поддерживать актуальное состояние образа ESXi с точки зрения последних обновлений, но в то же время сохранять специфический контент кастомных образов.

Ну и, в-третьих, для тех, кто умеет пользоваться утилитой, есть простая команда, которая позволяет склонировать существующий профиль образа и обновить его пакеты, накатив последние патчи ESXi:

Set-ESXImageProfile $ClonedProfile -SoftwarePackage (Get-ESXSoftwarePackage -Newest)

Также у VMware есть скрипты PowerCLI, которые демонстрируют более тонкий подход к обновлению образов ESXi. Но надо отметить, что они официально не поддерживаются со стороны техподдержки VMware.

Итак, первый скрипт - esxi-image-creator.ps1 - представляет собой обертку к Image Builder и дает некоторые дополнительные возможности, которые часто требуются для кастомных образов ESXi. Например, он позволяет монтировать depot-файлы и включать или исключать VIB-пакеты из состава образов. Также там есть такие расширенные настройки, как указание билдов по датам выпуска, а не по номерам и т.п. Итоговый образ можно собрать в формате ISO или ZIP.

Второй скрипт - esxi-image-comparator.ps1 - показывает различия между двумя профилями образов ESXi. Эти различия можно показать в консоли или графическом интерфейсе, а также экспортировать в CSV-файл для последующего анализа.

Как видно из картинки, в процессе работы скрипта можно в интерактивном режиме включать или исключать профили для сравнения.

Вот пример использования утилиты при обновлении кастомного образа Cisco для ESXi 5.5 (обновление U3b от декабря 2015) с последними патчами VMware и обновленными драйверами Cisco для устройств enic и fnic. При этом исключается VIB-пакет tools-light для оптимизации использования с Auto Deploy:

esxi-image-creator.ps1 -NewProfileName Cisco_5.5_OEM_with_express_patch_11 -WriteZip -Files Vmware-ESXi-5.5.0-3248547-Custom-Cisco-5.5.3.2-Bundle.zip,ESXi550-201703001.zip,enic-2.3.0.13-offline_bundle-5367272.zip,fnic_driver_1.6.0.28_ESX55-offline_bundle-4179470.zip

Ну а вот так выглядит результат сравнения обновленного профиля с исходным:

Еще один пример - включение в образ Dell ESXi 6.0U3, который уже был обновлен Dell, патча patch 7a (5224934) с пакетами VIB для NSX и удаление VMware Tools для использования с Auto Deploy.

esxi-image-creator.ps1 -NewProfileName Dell_6.0_OEM_5224934_with_NSX -Files VMware-VMvisor-Installer-6.0.0.update03-5224934.x86_64-Dell_Customized-A01.zip,vxlan.zip,vShield-Endpoint-Mux-6.5.0esx60-4885300.zip -Acceptance PartnerSupported

Результат:

А вот пример генерации образа для HPE Proliant, содержащего последние обновления из репозитория HP, а также последние обновления оффлайн-бандла ESXi 6.5:

Add-EsxSoftwareDepot http://vibsdepot.hpe.com/index-ecli-650.xml
esxi-image-creator.ps1 -LeaveCurrentDepotsMounted -NewProfileName ESXi_6.5.0d_with_HPE_drivers -Files ESXi650-201704001.zip -Acceptance PartnerSupported

Вот полученный результат:

Надо отметить, что не следует использовать публичный репозиторий VMware image profile repository для создания кастомных образов, так как он содержит много различных версий и модификаций, что может привести к созданию образа, который невозможно будет использовать.

Но зато вот такая команда позволит сформировать таблицу с отличиями каждого из релизов VMware ESXi:

Add-EsxSoftwareDepot https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml

esxi-image-comparator.ps1 | Export-Csv all_profiles.csv

Мораль поста такова - нужно пользоваться, по-возможности, кастомными образами ESXi от OEM-производителей, но не забывать накатывать обновления (особенно security patches) от обычных образов VMware ESXi, создаваемых VMware.


Таги: VMware, ESXi, Update, HP, Cisco, Dell, Hardware, PowerCLI

Утилита VMware Tools Client для взаимодействия с виртуальными машинами не через сеть.


Как знают некоторые администраторы VMware vSphere, среди интерфейсов vSphere API есть механизм взаимодействия с виртуальными машинами через VMware Tools, который называется VMware vSphere Guest API.

Утилита VMware Tools Client, написанная Pierre Laine, позволяет подключиться к виртуальной машине через этот интерфейс, загружать/скачивать с нее файлы и скрипты и исполнять их. Это может оказаться полезным, когда вы потеряли сетевой доступ к виртуальной машине (например, внутри гостевой ОС что-то отвалилось).

VMware Tools Client соединяется с сервером vCenter, получает его иерархию через vCenter Inventory Service, после чего можно работать с виртуальными машинами для следующих целей:

  • Выполнение в гостевой ОС отдельных команд (например, пинг из ВМ) или скриптов
  • Загрузка, сохранение и удаление скриптов на ВМ (а также любых других файлов)
  • Загрузка скрипта из файла

Утилита кроссплатформенная с интерфейсом на JavaFX, поэтому может быть запущена на Linux/Windows системах. Также она не требует установки. На данный момент она находится в бете версии 0.2. В составе идет база данных SQLLite, в которой хранятся логины/пароли от vCenter и виртуальных машин. Скачать VMware Tools Client можно по этой ссылке.


Таги: VMware, vSphere, API, Tools, ESXi, VMachines

Вышел кастомизированный образ HPE Customized ESXi May 2017.


Оказывается, еще в начале мая компания HP совместно с VMware выпустила кастомизированный образ гипервизора vSphere - HPE Customized ESXi May 2017, предназначенного для установки на серверы HP.

Этот релиз для многих администраторов является важным событием, так как прошлый кастомизированный образ HPE Custom ESXi от ноября 2016 года содержал в себе некоторые проблемы, касающиеся драйверов и работы с хранилищами (в частности, наблюдалась низкая скорость записи на локальные диски). Возможно, в этом релизе данные проблемы решены, по крайней мере новый набор драйверов должен улучшить некоторые вещи.

HPE Customized ESXi May 2017 доступен для скачивания по этой ссылке. Предыдущие образы (для более ранних версий гипервизора) можно также скачать с сайта VMware по этим ссылкам:

Номера билдов и их содержимое приведены вот в этом документе HPE (там же есть ссылки на соответствующие драйвера и офлайн бандлы ESXi). Ну а руководство по кастомизированным билдам HPE Custom ESXi находится вот тут.


Таги: HP, ESXi, Update, VMware, vSphere, Hardware, Storage, Bugs

Что такое безопасная загрузка (Secure Boot) в VMware ESXi 6.5, и как она работает.


Некоторые из вас помнят, что в VMware vSphere 6.5 одной из новых возможностей гипервизора ESXi 6.5 стала функция его безопасной загрузки (Secure Boot). Об этом мы уже упоминали в посте с видеороликами о новых возможностях vSphere 6.5:

Суть механизма безопасной загрузки в vSphere 6.5 заключается в том, что загрузка подписанного кода гипервизора ESXi контролируется со стороны UEFI firmware, а также не разрешается исполнение неподписанных пакетов.

UEFI (Unified Extensible Firmware Interface) - это замена традиционному BIOS в серверах и настольных ПК. Механизм Secure Boot - это один из "протоколов" UEFI, который предоставляет возможности контроля загрузки подписанного кода за счет хранения цифровых сертификатов, которые хранятся в микрокоде (firmware) компьютера (signature database). Это все позволяет убедиться в том, что некий root kit не будет присутствовать в составе загружаемых компонентов и не предоставит доступ злоумышленнику на самом низком уровне.

Большинство UEFI содержит набор сертификатов по умолчанию типа x509 Microsoft UEFI Public CA, а также позволяет устанавливать собственные сертификаты дополнительно. Надо отметить, что эти сертификаты поставляются производителем серверов и обновляются вместе с его микрокодом.

Для обеспечения безопасной загрузки используются следующие компоненты:

  • Загрузчик ESXi (boot loader) - он убеждается в том, что цифровая сигнатура кода не была изменена. Загрузчик подписан сертификатом Microsoft UEFI Public CA. Он также содержит VMware public key, с помощью которого проверяются компоненты VM Kernel, Secure Boot Verifier, а также пакеты VIB.
  • Ядро VM Kernel - это также подписанная часть кода. Первое, что делает VM Kernel, это запускает Secure Boot Verifier.
  • Secure Boot Verifier - он также хранит VMware public key и проверяет аутентичность всех VIB-пакетов, которые загружаются во время загрузки ESXi.
  • VIB-пакеты (vSphere Installation Bundles) - эти пакеты, помимо реализуемых ими сервисов, содержат файл XML descriptor и файл цифровой подписи (digital signature file). Во время загрузки ESXi в памяти создается "карта" содержимого каждого из VIB-пакетов, соответственно не требуется проверять каждый из его файлов, а достаточно проверить подпись пакета целиком (это быстрее работает).

Вот как выглядит процесс загрузки хоста ESXi с точки зрения Secure Boot:

  • Включение питания.
  • UEFI Firmware валидирует загрузчик ESXi Boot Loader на предмет соответствия сертификату Microsoft внутри микрокода UEFI.
  • ESXi Boot Loader валидирует компонент VM Kernel на предмет соответствия сертификату в Boot Loader.
  • VM Kernel запускает компонент Secure Boot Verifier.
  • Secure Boot Verifier валидирует каждый VIB-пакет на соответствие сертификату VMware, который находится в хранилище Secure Boot Verifier.
  • Запускаются необходимые сервисы управления (DCUI, hostd и т.п.).

При апгрейде VMware ESXi прошлых версий с помощью ESXCLI происходит обновление сигнатур VIB-пакетов, но Boot Loader остается прежним, поэтому когда вы включите Secure Boot - возникнет ошибка. Как следствие - нужно будет переустановить ESXi.

Если вы обновляете ESXi из ISO-образа, то для некоторых старых VIB-пакетов сигнатуры могут не обновиться (например, кастомные драйвера, которые вы устанавливали отдельно), что приведет к неудаче при безопасной загрузке. То есть для нормального обновления из ISO нужно, чтобы все VIB-пакеты в этом образе обновили все предыдущие VIB. Надо отметить, что VIB-пакеты уровня Community supported не поддерживаются для безопасной загрузки (так как они не подписаны).

В составе VMware vSphere 6.5 есть специальный скрипт, который проверяет возможность безопасного апгрейда прошлой версии платформы.

Сначала надо проверить, что серверы поддерживают UEFI secure boot. Далее надо убедиться, что все ваши VIB-пакеты имеют хотя бы уровень Partner Supported, и у вас нет Community Supported пакетов.

Если вы обновили хост на ESXi 6.5, то можно выполнить следующий скрипт для проверки возможности включения Secure Boot:

/usr/lib/vmware/secureboot/bin/secureBoot.py -c

Результатом будет строчка "Secure Boot can be enabled" или "Secure boot CANNOT be enabled".

Если вы включите Secure Boot в микрокоде сервера, но у вас есть неподписанные пакеты, то при загрузке сервера вы увидите розовый экран и сообщение о том, что нельзя проверить подписи VIB-пакетов:

Чтобы выйти из этой ситуации, надо выключить безопасную загрузку, удалить неподписанные VIB-пакеты и снова включить ее.

Еще одна фишка включенной функции Secure Boot - это то, что вы не сможете установить неподписанные VIB-пакеты с опцией force подобным образом:

"esxcli install software –d /drive/badvib.zip –force –<b>no</b>-sig-check"

Если говорить о модуле TPM, то он тут не участвует, и мало того - TPM 2.0 вообще не поддерживается со стороны VMware vSphere 6.5.

Ну и последнее. Если вы хотите использовать Secure Boot вместе с механизмом vSphere Auto Deploy, то вы должны добавить сертификат VMware в список UEFI firmware whitelist (DB). Это требуется потому, что только ESXi Boot Loader подписан сертификатом Microsoft, а часть кода PXE-загрузчика, которая грузится до Boot Loader, подписана сертификатом VMware. Более подробно об этом написано в KB 2148532.


Таги: VMware, vSphere, Security, ESXi, Blogs

Как получить информацию о графическом процессоре ESXi с помощью PowerCLI.


Эта статья предназначена в помощь администраторам VDI, которые обновили свои хосты ESXi, оснащенные картами GRID vGPU, до vSphere версии 6.5. Как сказано Джереми Майном в этом форуме NVIDIA, vSphere 6.5 и драйвер GRID от ноября 2016 требует изменения режима GPU с «Shared» (vSGA) на «Shared Direct» (vGPU) через веб-клиент для включения поддержки режима vGPU виртуальными машинами...


Таги: VMware, PowerCLI, ESXi, vSphere, vGPU, NVIDIA

Доступен для скачивания VMware vSAN 6.6, а также соответствующие обновления ESXi 6.5d и vCenter 6.5d.


Недавно мы писали об анонсированных новых возможностях продукта для организации кластеров хранилищ VMware vSAN 6.6, а вчера он стал официально доступен для скачивания. Так как VMware vSAN работает в рамках инфраструктуры серверной виртуализации VMware vSphere, были также выпущены обновления ESXi 6.5d и vCenter 6.5d, поддерживающие vSAN 6.6.

Обратите внимание, что VMware Horizon 7.1 уже поддерживает VMware vSAN 6.6.

Напомним также, что совсем недавно выходил апдейт VMware vCenter 6.5c, в котором была исправлена уязвимость компонента Apache BlazeDS. Что касается обновления ESXi 6.5d, то оно включает в себя поддержку vSAN 6.6, исправления некоторых ошибок а также отображения статусов VMware vSAN health checks в интерфейсе клиента ESXi Host Client (он же Embedded Host Client).

Загрузить VMware vSAN 6.6 в составе платформы VMware vSphere 6.5 и ее компонентов можно по этой ссылке.

Ну и одновременно с этими релизами была выпущена также обновленная версия платформы VMware vSphere Integrated Containers 1.1.

Давайте посмотрим на новые возможности VIC 1.1:

  • Унифицированный OVA-установщик для всех трех компонентов решения.
  • Возможность апгрейда с версии 1.0.
  • Официальная поддержка vSphere Integrated Containers Management Portal.
  • Унифицированный пользовательский интерфейс для vSphere Integrated Containers Registry и vSphere Integrated Containers Management Portal.
  • Отдельный плагин для HTML5 vSphere Client (он же vSphere Client теперь).
  • Поддержка Docker Client 1.13 и Docker API версии 1.25.
  • Поддержка использования компонента Notary совместно с vSphere Integrated Containers Registry.
  • Поддержка дополнительных команд Docker, которые можно найти в документации.

Загрузить VMware vSphere Integrated Containers 1.1 можно по этой ссылке.


Таги: VMware, vSAN, Update, ESXi, vCenter, VIC, Docker

VMware Log Browser Plugin - как включить и начать использовать.


Не все знают, что в VMware vSphere Web Client есть удобное средство для просмотра основных логов VMware vSphere на хостах с поиском по ним, которе можно использовать для анализа и разрешения возникающих в виртуальной инфраструктуре проблем.

Чтобы его запустить, в VMware vSphere 5.5 надо выбрать пункт Log Browser в навигаторе:

Однако в VMware vSphere 6.0 и 6.5 этот плагин был отключен, в связи с чем его нет в данном меню. Но достаточно его включить, чтобы можно было использовать это удобное средство анализа лог-файлов.

Чтобы сделать это на VMware vCenter Server Appliance (vCSA) нужно:

  • Зайдите в оболочку vCenter Server Appliance Bash Shell под администратором.
  • Перейдите к файлу манифеста, который по умолчанию расположен вот в этой директории: /usr/lib/vmware-vsphere-client/plugin-packages/logbrwoser.
  • Переименуйте файл plugin-package.xml.unused в plugin-package.xml и сохраните его у себя.
  • Из vSphere Web Client перезапустите службу VMware Service Lifecycle Manager API.

На VMware vCenter для Windows процедура выглядит следующим образом:

  • Перейдите к файлу манифеста, который по умолчанию расположен вот в этой директории: C:\ProgramData\VMware\vCenterServer\runtime\vsphere-client\plugin-packages\logbrowser.
  • Переименуйте файл plugin-package.xml.unused в plugin-package.xml и сохраните его у себя.
  • Из vSphere Web Client перезапустите службу VMware Service Lifecycle Manager API.

После этого пункт Log Browser появится на вкладке Monitor клиента vSphere Web Client.


Таги: VMware, vSphere, Logs, ESXi

Вышел VMware ESXi Embedded Host Client 1.17 - новые возможности, но в основном исправления ошибок.


Компания VMware на сайте проекта VMware Labs обновила свой тонкий клиент для управления отдельными хостами ESXi - VMware ESXi Embedded Host Client 1.17. Напомним, что о версии 1.16 клиента мы писали вот тут.

В новой версии Host Client 1.17 появилась пара новых возможностей и достаточно много исправлений ошибок и улучшений:

  • Поддержка доступа пользователей к отдельным ВМ на хосте. Эта полезная фича позволяет выдать пользователю права только на одну или несколько машин, предоставляя доступ только к их консолям.
  • Добавлены последние локализации и переводы интерфейса.
  • Пофикшено отображение информации PCI-утройств.
  • Пофикшен баг с несохраняющимися настройками для ESXi 5.5.
  • Пофикшены вылеты при логине через Google Chrome.
  • Пофикшен компонент обновления VIB-пакетов, когда используется прокси-сервер.
  • Добавлен ворнинг, когда текущая версия клиента отличается от установленной на хосте (старая закэшировалась в браузере).
  • Пофикшены ошибки сценария запуска, которые приводили к ошибкам при обновлении VIB-пакетов на работающем хосте.
  • Улучшения в конфигурации автостарта ВМ - возможность сделать настройки на уровне отдельной ВМ, что делает более понятным весь механизм.
  • Пофикшен диалог с запросом прав в Safari.
  • Пофикшены ошибки при загрузке/выгрузке файлов со спецсимволами.
  • Улушена валидация полей в настройках ВМ.
  • Оптимизации в представлении Navigator при загрузке объектов.
  • Пофикшены ошибки в дропдауне выбора числа ядер на сокет при использовании гипертрейдинга.
  • Доступен выбор контроллера USB 3.0, даже если гостевая ОС его не поддерживает.
  • Улучшенный механизм сообщений об ошибках при неудачной загрузке OVA-файлов.
  • Разрешена загрузка OVF, если параметр компрессии выставлен в identity.
  • Пофикшено оповещение о переименовании датастора.

Несмотря на то, что новых возможностей мало, рекомендуется поставить обновление VMware Embedded Host Client 1.17, чтобы получить исправления довольно серьезных ошибок. Скачать продукт можно по этой ссылке.


Таги: VMware, Host Client, Update, ESXi

Проблемы с производительностью хранилищ VMware ESXi 6.5 - медленно копируются файлы, и долго устанавливается гостевая ОС в виртуальной машине.


На интересную проблему обратил внимание Anthony Spiteri в своем блоге - у него после развертывания платформы VMware ESXi 6.5 на сервере с SSD-дисками ISO-образ Windows 2016 полчаса заливался на датастор (интересно, что нам некоторые читатели писали о подобной проблеме). Потом он создал новую виртуальную машину и поставил устанавливаться Windows, а ESXTOP показывал скорость записи 10-20 МБ/с, в то время как она должна была быть на уровне 400-500 МБ/с.

Он стал ковырять проблему дальше и раскопал драйвер, который используется для SATA-контроллера:

Далее он проверил, какие драйверы подсистемы хранения сейчас загружены и используются. Оказалось их два: приведенный выше драйвер и нативный драйвер VMware:

[root@LAB-ESXI-01:~] esxcli software vib list | grep ahci
sata-ahci 3.0-22vmw.650.0.0.4564106 VMW VMwareCertified 2016-11-16
vmw-ahci 1.0.0-32vmw.650.0.0.4564106 VMW VMwareCertified 2016-11-16

Далее он решил отключить нативный драйвер VMware с помощью следующей команды:

[root@LAB-ESXI-01:~] esxcli system module set --enabled=false --module="vmw_ahci"
[root@LAB-ESXI-01:~] esxcli system module list | more

Name Is Loaded Is Enabled
----------------------------- --------- ----------
vmkernel true true
chardevs true true
user true true
....

....
vmkapi_v2_1_0_0_vmkernel_shim true true
vmkusb true true
igbn true true
vmw_ahci true false
iscsi_trans true true
iscsi_trans_compat_shim true true
vmkapi_v2_2_0_0_iscsiInc_shim true true

Как видим, он затем вывел список системных модулей и увидел, что нативный драйвер отключен. После того, как он перезагрузил хост ESXi, все стало летать - гостевая ОС установилась за 5 минут, а тесты внутри ВМ показали высокую скорость чтения-записи.


Таги: VMware, ESXi, Performance, Storage

Как включить общий доступ на запись для одного VMDK с двух ВМ на разных VMware ESXi.


В среде VMware vSphere есть возможность использования одного виртуального диска VMDK на запись несколькими виртуальными машинами, размещенными на разных хостах VMware ESXi. Например, это необходимо для построения кластеров Oracle RAC, а также для работы технологии VMware Fault Tolerance.

Этот режим называется Multi-Writer VMDK, чтобы его включить, нужно (если у вас vSphere 6.0 Update 1 и выше) зайти в vSphere Web Client и выбрать пункт "Edit Settings" для витуальной машины. Далее идем в Virtual Hardware -> выбираем диск, для которого нужно включить multi-writer flag, и в поле Sharing выбираем режим Multi-Writer:

Если у вас более старая версия VMware ESXi, то чтобы включить Multi-Writer VMDK надо определить диск VMDK, например, "SCSI0:1" и в Configuration Parameters виртуальной машины (то есть в ее vmx-файл) внести поле с именем "scsi0:1.sharing" со значением "multi-writer":

Когда вы включаете кластер непрерывной доступности ВМ VMware Fault Tolerance, режим Multi-Writer VMDK включается автоматически.

У этого режима есть некоторые ограничения, связанные с одновременной работой с одним виртуальным диском нескольких машин (соответственно, такие же ограничения есть и у VMware FT, и у кластеров Oracle RAC на базе ВМ):

Действия или возможности Поддерживается Не поддерживается Комментарий
Включение, выключение и перезагрузка ВМ
 
Приостановка ВМ (Suspend)

Горячее добавление виртуальных дисков (Hot add)
Только для уже существующих адаптеров
Горячее удаление устройств (Hot remove)

Горячее расширение виртуального диска

Присоединение и отсоединение устройств

Снапшоты
Решения для резервного копирования используют снапшоты через механизм vStorage APIs, соответственно такие решения (например, Veeam Backup and Replication) также не поддерживаются для этого режима.
Снапшоты ВМ с типом диска independent-persistent
Поддерживается в vSphere 5.1 update 2 и более поздних версиях
Клонирование ВМ

Горячая миграция хранилищ Storage vMotion
Не поддерживаются и shared, и non-shared диски, так как требуется приостановка ВМ во время миграции хранилищ.
Технология Changed Block Tracking (CBT)

Техника vSphere Flash Read Cache (vFRC)
Может привести к повреждению данных.
vMotion
       

       

       
Поддерживается только для Oracle RAC и ограничена 8 хостами ESXi.
   

Таги: VMware, VMDK, FT, vSphere, ESXi

Интересная утилита для устранения проблем в инфраструктуре VMware vSphere - Runecast Analyzer.


Дункан Эппинг рассказал про довольно интересную штуку для среды VMware vSphere - Runecast Analyzer. Эта утилита, поставляемая в виде виртуального модуля, позволяет просканировать хост-серверы ESXi на предмет соответствия текущего состояния хостов (конфигурация, уровень обновлений) некоторым проблемным моментам, описанным в базе знаний VMware KB.

После развертывания модуля Runecast нужно указать параметры доступа к VMware vCenter, после чего просто нажать кнопку Analyze Now. В результате будет выведен отчет о проблемах, разделенных по разным уровням критичности:

На вкладке KBs discovered (куда можно "провалиться" по клику в соответствующую категорию на дэшборде) показан детальный отчет обо всех проблемах. Если конкретная KB не имеет к вашей инфраструктуре отношения, или вы готовы с этим жить - можно просто нажать кнопку Ignore:

Каждый элемент можно раскрыть в более детальном виде и увидеть все параметры хоста/виртуальных машин, относящиеся к проблеме:

Также есть представление, в котором можно производить анализов логов (Verbose Dashboards), там можно искать по ключевому слову в конкретном файле журнала, чтобы обнаружить источник возникшей проблемы:

Скачать пробную версию Runecast Analyzer 1.5 на 30 дней можно по этой ссылке.


Таги: VMware, vSphere, Troubleshooting, VMachines, ESXi

Как сделать VMFS UNMAP через PowerCLI в VMware vSphere.


Как некоторые знают, в VMware vSphere 6.5 появилась (а точнее вернулась снова) возможность Automatic VMFS UNMAP - возврат дискового пространства виртуальной машины (ее VMDK) на сторону дискового массива средствами VAAI (vStorage API for Array Integration). Если раньше эта возможность требовала выполнения различных команд, то теперь управление этой штукой доступно из GUI, а возврат дисковых блоков происходит автоматически. Работает UNMAP только для "тонких" (Thin Provisioned) LUN, на которых размещаются тома VMFS.

Из GUI vSphere Web Client можно управлять только UNMAP'ом для томов VMFS 6, для пятой версии файловой системы это нужно делать вручную с помощью ESXCLI. Кроме того, механизм UNMAP работает в асинхронном режиме, а иногда хочется почистить хранилища от неиспользуемых блоков прямо сейчас.

Поэтому весьма кстати, что на сайте EnterpriseDaddy обнаружился полезный PowerCLI-скрипт, который возвращает дисковое пространство в LUN для заданного хранилища хоста ESXi.

Эта функция принимает на вход имя хоста ESXi и Datastore, а также отключает таймаут на исполнение операций, так как возврат дискового пространства LUN может занять часы.

Function Perform-VMFSUnmap {
[CmdletBinding()]
param(
[Parameter(
Mandatory=$true)]
[String[]]$Datastore,
[String]$ESXiHost
)
Set-PowerCLIConfiguration -WebOperationTimeoutSeconds -1 -Scope Session -Confirm:$false
$ESXHost = Get-VMHost $ESXiHost
$DatastoreName = Get-Datastore $Datastore
Write-Host 'Using ESXCLI and connecting to $VMHost' -ForegroundColor Green
$esxcli = Get-EsxCli -VMHost $ESXHost
Write-Host 'Unmapping $Datastore on $VMHost' -ForegroundColor Green
$esxcli.storage.vmfs.unmap($null,$DatastoreName,$null)
}

Ну а вот так надо запускать этот сценарий:

Perform-VMFSUnmap -ESXiHost ESXi65-A.lab.local -Datastore ISOs


Таги: VMFS, Storage, VMware, vSphere, ESXi, PowerCLI

Вышли обновления VMware vSphere 6.0 Update 3: vCenter 6.0 Update 3 и ESXi 6.0 Update 3.


Не секрет, что многие крупные предприятия до сих пор используют платформу виртуализации VMware vSphere 6.0, так как обновление на версию 6.5 требует времени, привлечения ресурсов, а иногда и денег, если планируется продление поддержки, апгрейд на старшее издание или покупка дополнительных лицензий.

Поэтому VMware продолжает поддерживать таких клиентов, для которых и было выпущено обновление VMware vSphere 6.0 Update 3, включающее в себя как обновление управляющего сервера vCenter 6.0 Update 3, так и хост-серверов - ESXi 6.0 Update 3.

Напомним, что обновления Update 2 основной продуктовой линейки vSphere были выпущены год назад.

Что нового в VMware vCenter 6.0 Update 3:

  • Поддержка протокола Transport Layer Security (TLS) версий TLSv 1.0, TLSv 1.1 и TLSv 1.2, которая включена по умолчанию и доступна к настройке в vCenter Server 6.0 Update 3.
    • VMware Syslog Collector на vCenter Server Appliance поддерживает только TLSv1.0.
    • Для настройки TLSv 1.0, TLSv 1.1 и TLSv 1.2 смотрите KB 2148819.
    • Для продуктов с поддержкой TLSv1.1 и TLSv1.2 смотрите KB 2145796.
    • TLS configuration script доступен для загрузки с этой страницы.
    • Об известных проблемах с протоколом TLS написано в KB 2148819.
  • Поддержка новых баз данных: vCenter Server теперь поддерживает новую СУБД - Microsoft SQL Server 2012 Service Pack 3.
  • Изменения в интерфейсах командной строки при развертывании виртуального модуля vCSA (об этом написано в статье Command-Line Deployment and Upgrade of VMware vCenter Server Appliance).
  • Теперь поддерживается миграция с vCenter Server Windows 5.5.x на виртуальный модуль vCenter Server Appliance 6.0 Update 3 на базе Linux (мастер миграции доступен на приветственном экране vCSA).
  • Обновления в Operating System customization для гостевых ОС Windows и Linux с точки зрения таймзон - там теперь поддерживаются самые последние изменения.
  • Компонент Platform Services Controller для vCenter Server Appliance теперь устанавливается с 4 ГБ памяти по умолчанию при свежей установке и при апгрейде с PSC 5.5.
  • Функции Transmission Control Protocol (TCP) over User Datagram Protocol (UDP) для Kerberos. Для их поддержки нужно вывести и ввести vCenter в домен заново (это только для vCSA, для vCenter for Windows это будет работать само).
  • Вышло обновление механизма репликации VMware vSphere Replication 6.1.2, которое совместимо с vCenter 6.0 Update 3. Там предоставляются возможности апгрейда с vSphere Replication 5.8.1.3 на vSphere Replication 6.1.2, а также гостевая ОС модуля vSphere Replication Appliance была обновлена до SLES 12 SP1.

А вот что нового появилось в VMware ESXi 6.0 Update 3:

  • Обновленный ESXi Host Client: VMware ESXi 6.0 Update 3 включает в себя ESXi Host Client версии 1.14.0. Он как бы поддерживается в производственной среде в отличие от того, что выложен на VMware Labs.
  • Поддержка TLSv 1.0, TLSv 1.1 и TLSv 1.2.
  • Производительность кластеров vSAN:
    • Улучшения управления логами и хранилищами, что позволяет более эффективно хранить файлы журнала. Это существенно улучшает производительность для нагрузок, требовательных к операциям записи.
    • Более эффективное управление большими файлами и дестейджингом файлов на capacity tier из кэша.
    • Улучшения блока кода по работе с контрольными суммами.

Кроме этого обновились компоненты виртуальной инфраструктуры vSphere PSC HA configuration Scripts 6.0.3 и VMware vSphere Big Data Extensions 2.3.2.

Скачать VMware vSphere 6.0 Update 3 можно по этой ссылке.


Таги: VMware, vSphere, Update, ESXi, vCenter

Новое на VMware Labs: утилита VMware IOInsight для получении детальной информации о взаимодействии ВМ с хранилищами.


На сайте проекта VMware Labs появилась действительно достойная внимания утилита - IOInsight, доступная в виде готового к развертыванию виртуального модуля на платформе vSphere. Она позволяет детально взглянуть на характеристики взаимодействия виртуальных машин с хранилищами и провести анализ метрик ввода-вывода на уровне отдельных VMDK-дисков.

Все это позволит принимать решения о тюнинге производительности и планировании емкостей по пропускной способности на основе данных, выводимых в графиках и отчетах:

В решении каких проблем может помочь IOInsight:

  • Самостоятельная оптимизация производительности и планирование хранилищ пользователями vSphere.
  • Отчет из IOInsight может помочь при обращении в техподдержку VMware, что ускорит решение проблемы.
  • Сотрудники VMware Engineering могут подсказать решения по оптимизации ваших продуктов.

IOInsight собирает все метрики с хостов ESXi по вводу-выводу и представляет их в агрегированном виде для анализа. При этом в отчете IOInsight нет никакой чувствительной информации о приложениях и системах, так что можно смело отдавать его сотрудникам VMware.

Кроме того, предполагается, что администраторы и разработчики сами будут писать плагины к IOInsight, поскольку в состав решения включены SDK и development guide (как видите на картинке, два плагина уже есть). Руководство для обычных пользователей доступно вот тут.

Лучшие практики по использованию IOInsight:

  • 2-4 виртуальных процессора на виртуальный модуль (vCPU)
  • 2 ГБ и более оперативной памяти
  • Желательно разместить IOInsight в той же сети, что и хосты, которые планируется мониторить
  • Нужно выбирать не более 8 VMDK, чтобы не было слишком высокой нагрузки
  • Рекомендуемый период анализа данных - 10-30 минут
  • Cache Simulation analyzer создает нагрузку на процессор, поэтому его нужно запускать для 1 или 2 симулируемых конфигураций кэша (не более)

Утилита IOInsight работает, начиная с версии VMware vSphere 5.5, а скачать ее можно по этой ссылке.


Таги: VMware, Labs, Storage, Performance, ESXi, vSphere, VMDK

Как контролировать максимально разрешённое количество VMware VM снапшотов с помощью PowerCLI.


Шесть лет назад, признанный VMware guru William Lam написал отличную статью на эту тему. Сегодня мы автоматизируем его решение с помощью PowerCLI. Прошу любить и жаловать функцию Set-MaxSnapshotNumber из моего PowerCLI Vi-Module модуля. Функция может выполнять следующие 3 действия...


Таги: PowerCLI, vSphere, Snapshots, VMachines, PowerShell, ESXi

Что происходит с хостом VMware ESXi если его вывести из окружения VMware vCenter?


Иногда бывает необходимо на какое-то время вывести хост-сервер VMware ESXi из-под управления центрального сервера VMware vCenter. Обычно это связано с ошибками на хосте или переводом его на другой vCenter.

Между тем, этот процесс приводит к потере следующей информации с хоста:

  • Данные о производительности хоста
  • Пермиссии, заданные на уровне хоста
  • Алармы созданные для хоста пользователями
  • Кастомные атрибуты (их значения)
  • Ассоциация виртуальных машин с политиками резервирования ресурсов (Reservation Policies)
  • Шаблоны будут разрегистрированы
  • Все виртуальные сервисы (vApp) на хосте будут возвращены в ресурсные пулы
  • Будут удалены ассоциации тэгов с датасторов, которые видны только хосту, который вы убираете из vCenter

При удалении хоста из vCenter об этом всем выводится предупреждение:


Таги: VMware, ESXi, vCenter, VMachines

Обновился VMware vSphere Client (бывший vSphere HTML5 Web Client) и ESXi Embedded Host Client.


Компания VMware на днях выпустила обновления своих клиентов для управления виртуальной инфраструктурой - VMware vSphere Client 3.1 (бывший vSphere HTML5 Web Client - управление всей платформой vSphere) и ESXi Embedded Host Client 1.16 (управление отдельными хостами ESXi через веб-интерфейс).

Давайте посмотрим, что нового появилось в VMware vSphere Client 3.1 (о версии 3.0 мы писали вот тут):

  • Представление Cluster > Monitor > Storage Overview, которое показывает данные о хранилище хостов в кластере в агрегированном виде. Теперь становится несложно понять, когда хост отличается от стандартной конфигурации кластера.
  • Представление Host Cache Configuration в режиме read-only.
  • Можно редактировать настройки исполнения Storage DRS и расширенные настройки (advanced settings).
  • Поддержка перетаскивания виртуальной машины драгэнддропом в виртуальный датацентр.
  • Поддержка перетаскивания шаблона виртуальной машины драгэнддропом в виртуальный датацентр или папку.
  • Перетаскивание машины и шаблона работает из списка в дереве инвентори в центральной области.
  • Удаление глобальных тэгов и категорий.
  • Действие Mount/Unmount на странице VMFS > Configure > Connectivity and Multipathing.
  • При создании новой ВМ есть опция клонирования существующей.
  • При клонировании ВМ можно задать ее политику хранения.

А вот что нового в ESXi Embedded Host Client 1.16 (о версии 1.13 мы писали вот тут, версий 14 и 15 не было):

  • Добавление RDM-дисков виртуальной машине!
  • Решена проблема с удалением USB-устройств от ВМ.
  • Добавлена возможность показа метрик отдельной ВМ на графиках производительности хоста.
  • Обработка случайных двойных кликов в меню.
  • Добавлена настройка шаринга виртуальных дисков.
  • Поправлена ошибка в обновлении списка ВМ при применении фильтров.
  • Обработка XML при развертывании из OVF-шаблона.
  • Добавлен чекбокс, который позволяет не включать ВМ после создания (чтобы отредактировать настройки).
  • Поправлены ошибки с настройками автостарта ВМ, SR-IOV и устройств PCI.
  • Отображение информации Cisco Discovery Protocol на странице физического NIC. Там же показываются и обнаруженные подсети.

Скачать VMware vSphere Client 3.1 можно по этой ссылке, а ESXi Embedded Host Client 1.16 - по этой.


Таги: VMware, vSphere, Client, ESXi, Update

Как скопировать файлы виртуальных машин на USB-флешку с хоста ESXi и обратно.


Иногда в виртуальной инфраструктуре VMware vSphere возникает необходимость скопировать большой объем данных с хоста VMware ESXi. Например, нужно что-то загрузить на изолированный от общей сети хост или забрать виртуальные машины на флешке для переезда на другую инфраструктуру. Через USB сделать это гораздо быстрее, чем ждать пока все это пройдет по небыстрой сети предприятия. Вильям Лам сделал на этот счет полезную инструкцию.

Скопировать файлы с и на ESXi можно как на USB-накопитель в формате FAT32, так и в формате NTFS. Но сначала надо остановить службу USB Arbitrator Service, которая отвечает за проброс USB-устройств в виртуальные машины (passthrough). Делается это следующей командой:

/etc/init.d/usbarbitrator stop

Теперь можно воткнуть флешку, убедиться, что она примонтировалась (она должна быть в списке хранилищ по адресу /vmfs/volumes/) и выполнить следующую команду для копирования файла с USB-устройства в формате FAT32 на хост ESXi:

/bin/mcopy -i "/dev/disks/${USB_KEY}:2" ::/MyFile /tmp/MyFile

Ну а вот так можно скопировать файл в обратную сторону - с хоста ESXi на USB-накопитель:

/bin/mcopy -i "/dev/disks/${USB_KEY}:2" /tmp/MyFile ::/MyFile

Минус тут в том, что для FAT32 размер файла на USB-устройстве может быть не более 2 ГБ, поэтому для перемещения виртуальной машины ее диск придется разбить на кусочки. Для этого в Linux и Mac OS существует следующая команда (размер кусочка указывается в байтах, в данном случае - 1 ГБ):

split -b 1073741824 [FILE-TO-BE-SPLIT]

После того, как файлы будут перемещены, их можно склеить следующей командой, указав имена кусочков через *:

cat [SPLITTED-FILES]* > [ORIGINAL-FILE-NAME]

Для файловой системы NTFS можно воспользоваться утилитой ntfscat для копирования файлов. Если вы хотите скопировать файл с USB-устройства на хост ESXi нужно выполнить следующу команду:

/bin/ntfscat -f /dev/disks/${USB_KEY}:2 MyFile > /tmp/MyFile


Таги: VMware, ESXi, USB

PowerShell и putty – лучше вместе.


PowerShell функция Connect-VMHostPutty из моего PowerCLI Vi-Module модуля поможет вам открывать несколько SSH-сессий putty к хостам ESXi без ввода пароля. Функция на самом деле не требует, чтобы на вашем компьютере был установлен VMware PowerCLI. Всё, что нужно - это PowerShell версии 3.0 или выше. Это очень короткая и простая функция всего с двумя параметрами и только один из них обязательный...


Таги: VMware, PowerShell, PowerCLI, ESXi

Настройка ESXi Dump Collector на VMware vCenter Server Appliance для удаленного сбора дампов.


Некоторые из вас знают, что в VMware vSphere есть механизм удаленного сбора дампов с серверов VMware ESXi, которые иногда выпадают в "розовый экран смерти" с диагностической информацией в случае критической ошибки.

Для сбора диагностической информации используется специальная служба ESXi dump collector service, которая принимает дамп хост-сервера по сети. Но сначала эту службу надо включить на сервере VMware vCenter (в частности, на vCenter Server Appliance). Для этого надо в vSphere Web Client пойти сюда:

Home > Administration > System Configuration > Services > VMware vSphere ESXi Dump Collector > Start

Кроме этого, нужно задать порт для приема дампов, а также надо сконфигурировать максимальный размер репозитория в гигабайтах, задав параметр Repository max size.

Теперь надо сконфигурировать параметры отправки кордампов через сеть на хостах ESXi. Сначала выполним следующую команду для проверки текущего статуса:

esxcli system coredump network get

Зададим сетевые параметры отправки дампов :

esxcli system coredump network set -- interface -name vmk0 -- server -ipv4 172.20.10.94 --server -port 6500

И включим службу сбора дампов:

esxcli system coredump network set --enable true

Проверим параметры отправки:

Теперь можно выполнить следующую команду для проверки параметров:

esxcli system coredump network check

Теперь, чтобы проверить, что vCenter Server Appliance принимает дампы, надо открыть следующий файл:

/var/log/vmware/netdumper/netdumper.log

Мы увидим там примерно следующую картину:

Теперь принудительно отправим ESXi в розовый экран командой CrashMe и заглянем в этот же файл еще раз:

Мы видим, что теперь появилась запись о дампе var/core/netdumps/ffff/172/20/10/52/zdump_ffff.172.20.10.52-2017-01-05-09_53-0. Откроем этот файл и увидим содержание дампа, появляющегося при крэше ESXi:


Таги: VMware, ESXi, vCSA, Logs, Troubleshooting

Экскурсия по VMware Image Builder - как создать кастомный образ VMware ESXi.


До выхода новой версии платформы виртуализации VMware vSphere 6.5, механизмы AutoDeploy и Image Builder можно было использовать только с консольным фреймворком PowerCLI. Теперь же у Image Builder / AutoDeploy появилось собственное GUI в vSphere Web Client, с помощью которого можно удобно создавать кастомные образы VMware ESXi.

Но сначала нужно включить службу ImageBuilder Service. Для этого в веб-клиенте идем в Administration -> System Configuration -> Services > выбираем ImageBuilder Service и из меню Actions выбираем Start. После этого Image Builder будет доступен для использования:

Слева есть менюшка Auto Deploy:

Выбираем ее:

На вкладке Software Depots добавляем новый Depot:

Импортируем в него образ VMware ESXi:

Например, VMware-ESXi-6.5.0-4564106-depot.zip (оригинальный образ ESXi 6.5)... Читать статью далее


Таги: VMware, ESXi, ImageBuilder, AutoDeploy, Update

VMware vSphere Update Manager 6.5 теперь вшит в виртуальный модуль vCenter Server Appliance 6.5 - как это работает?


Недавно мы писали о новых возможностях VMware vSphere 6.5, где, в частности, мы рассказывали о том, что VMware vSphere Update Manager 6.5 (VUM) теперь интегрирован с vCenter Server Appliance (vCSA). Но надо отметить, что VUM теперь не просто интегрирован, а является неотъемлемой частью vCSA, что делает его очень удобным в использовании.

Его не нужно устанавливать, его можно сразу же начать применять для обновлений хостов ESXi, виртуальных машин и виртуальных модулей (Virtual Appliances):

Пройти все шаги по обновлению хостов ESXi кластера VMware HA/DRS с помощью Update Manager можно в специальном кликабельном демо (feature walkthrough) - "vSphere Update Manager Overview & Cluster Upgrade".

Давайте пройдем этот процесс по шагам:

1. Кликнем на вкладку Update Manager в vSphere Client:

2. Здесь мы видим основное представление Update Manager. Нажимаем кнопку "Go to Admin View":

3. Мы видим настройки механизма Update Manager.

Первым делом нужно будет создать базовый уровень по обновлениям хоста ESXi (Host baseline). Идем в раздел Host Baselines....читать статью далее ->>


Таги: VMware, VUM, Update, vSphere, Upgrade, ESXi, vCSA

Вышла релизная версия VMware ESXi Embedded Host Client 1.13.


Недавно мы писали о том, что некоторое время назад компания VMware выпустила окончательную релизную версию VMware vSphere HTML5 Web Client (он же сейчас называется просто vSphere Client), а на днях VMware зарелизила и финальную версию клиента для управления отдельными хост-серверами через браузер - VMware ESXi Embedded Host Client 1.13.

Теперь Embedded Host Client будет входить в состав VMware ESXi 5.5, ESXi 6.0 и ESXi 6.5, о чем есть соответствующая пометка на VMware Labs (напомним, он распространяется в виде VIB-пакета). Далее апдейты клиентов будут выходить, как и прежде, на страничке в Labs.

Последний раз мы писали о версии ESXi Embedded Host Client 1.10 - давайте посмотрим, что нового появилось в этом средстве с тех пор:

  • Поддержка удаления USB-контроллеров из ВМ
  • Обновление метрик хранилищ при загрузке и обновлении страницы Summary
  • Нотификация на странице Summary, когда у хоста истекла лицензия
  • Улучшенное отображение информации от Hardware sensors, также появилось время их последнего обновления
  • Ссылка на имя хоста/IP-адрес в списке ВМ, а также в заголовке VM Summary
  • Пофикшены вылеты в IE 10
  • Обновлены средства локализации (русского, традиционно, нет)
  • Улучшено отображение графиков производительности сети
  • Показ ошибки при попытке загрузить файл более 4 ГБ на датастор (IE)
  • Игнорирование отсутствующих датасторов, например, недоступных NFS-дисков
  • При генерации саппорт-бандла с диагностической информацией - сессия не отваливается
  • В разделе Host -> Monitor -> Hardware появилась информация о состоянии хоста (Hardware health)
  • Hardware sensors теперь могут быть упорядочены по состоянию, то есть красные - в самом верху списка
  • Новые раскладки клавиатуры в консоли (French, Swiss-French, Swiss-German)
  • Добавлены датасторы в список ВМ на хосте
  • Добавлена поддержка pre-defined OVF-свойств в мастер развертывания OVA-модулей
  • Поправлена ошибка редактирования CD-ROM, когда его нет в наличии на хосте
  • Поправлены баги при сохранении настроек Host Client
  • Поправлены вылеты в VM editor в Safari
  • Поправлена ошибка с обновлением страницы Physical NIC summary
  • Несколько других минорных исправлений

Скачать VMware ESXi Embedded Host Client 1.13 можно по этой ссылке.


Таги: VMware, ESXi, Host Client, Update, vSphere, VMachines

1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34    >   >>
Реклама

Advertisement

Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

27/08/2017:  VMware VMworld 2017
11/09/2017:  VMware VMworld Europe 2017
26/10/2017:  VeeamON Forum Russia 2017

Быстрый переход:
VMware IT-Grad Veeam StarWind Microsoft Parallels IaaS Citrix 5nine HP VeeamON VMFS RVTools PowerCLI VM Guru Oracle Red Hat Azure KVM vGate VeeamOn Security Code 1cloud Cloud Docker Storage Offtopic NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo Nutanix vRealize VirtualBox Symantec Gartner Softline EMC Login VSI Xen Enterprise Teradici Amazon NetApp VDI Linux Hyper-V IBM Cisco Google VSI Security Windows vCenter VMachines Webinar View VKernel Events Hardware Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs Sun VMC Xtravirt Novell vSphere IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V vSAN Backup Horizon SRM Client App Volumes Performance Workstation Manager Labs Nested vCloud AWS Log Insight XenDesktop VSA vNetwork SSO DRS LSFS Workspace Host Client VMDK vROPs VTL Update iSCSI SDDC vCSA NSX Agent Virtual Appliance Whitepaper PowerShell Fusion Appliance VUM VVols V2V Tools Cache VMworld Support Обучение Web Client Mobile OpenStack Automation Replication Desktop Fault Tolerance DR Photon Vanguard SaaS Connector HA Event Free Datacenter SQL VSAN Lifecycle Sponsorship Finance FT Cloud Computing Converter XenApp esxtop Snapshots VCP Auto Deploy SMB RDM Mirage XenClient MP Video Operations SC VMM Certification SSD VDP Partners PCoIP RHEV vMA Award Network USB Licensing Logs Server Demo Visio Intel vCHS Calculator Бесплатно vExpert Beta SAN Exchange MAP ONE DaaS Networking Monitoring VPLEX UCS SDK Poster VSPP SDRS Receiver vMotion VDI-in-a-Box Deduplication Forum Reporter vShield ACE Go nworks iPad XCP Data Recovery Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V VirtualCenter NFS ThinPrint Troubleshooting Air API CLI Plugin DPM Director Book Memory Upgrade SIOC Flex Mac Bug Open Source SSH VAAI Chargeback Heartbeat Android MSCS Ports SVMotion Storage DRS Bugs Composer
Интересные плакаты:

Постер VMware vSphere PowerCLI 6.3:

Постер VMware ESXi 5.1:

Постер VMware Hands-on Labs 2015:

Постер VMware Platform Services Controller 6.0:

Постер VMware vCloud Networking:

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Постер VMware vCenter Server Appliance:

Порты и соединения VMware vSphere 6:

Порты и соединения VMware Horizon 7:

Порты и соединения VMware NSX:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

Постер Veeam Backup & Replication v8 for VMware:

Постер Microsoft Windows Server 2012 Hyper-V R2:

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Бесплатные утилиты для виртуальных машин на базе VMware ESX / ESXi.

Сравнение Oracle VirtualBox и VMware Workstation.

Проектирование инфраструктуры виртуализации VMware vSphere 4.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Как использовать возможности VMware vSphere Management Assistant (vMA).

Бесплатные программы для VMware ESX / ESXi в среде Virtual Infrastructure / vSphere (часть 2).

Отличия VMware ESXi 4 free (бесплатного), ESXi 4 и ESX 4 в составе VMware vSphere.

Новые возможности VMware vSphere 5.0 - официально.

Все ресурсы о виртуализации:
Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Купить:

VMware vSphere 6.5


Veeam Backup 9.5


Полезные ресурсы:


Видео компании VMware

Видео про Citrix Xen

Видео о виртуализации Microsoft

Утилиты для виртуальных машин Microsoft.

Книги на английском языке

Блоги на английском языке

Блоги на русском языке

Агрегация статей в твиттере VMC:


Copyright VM Guru 2006 - 2017, Александр Самойленко. Правила перепечатки материалов.