Софт

Virtual Machine Manager

Рейтинг: 4.0/5.0 (746 проголосовавших)

Категория: Linux

Описание

Virtual Machine Manager - скачать бесплатно русскую версию Virtual Machine Manager для Linux

Virtual Machine Manager Основная информация о программе

Virtual Machine Manager (virt-manager for short package name) is a desktop application for managing virtual machines. It presents a summary view of running domains and their live performance & resource utilization statistics.
A detailed view presents graphs showing performance & utilization over time. Ultimately it will allow creation of new domains, and configuration & adjustment of a domain's resource allocation & virtual hardware. Finally an embedded VNC client viewer presents a full graphical console to the guest domain.
The application logic is written in Python, while the UI is constructed with Glade and GTK+, based on mockups provided by UI interaction designers. The libvirt Python bindings are used to interacting with the underlying hypervisor.
This enables the application to be written independant of any particular hypervisor technology, although Xen is the current primary platform. When libvirt is ported to additional hypervisors minimal effort will be required to update the management UI.

Специальные требования

· python >= 2.4 - virt-manager is written in Python!
· pygtk2 >= 1.99.12-6 - the Python GTK2 bindings are used for the UI
· gnome-python2-gconf >= 1.99.11-7 - GConf stores application preferences
· libvirt-python >= 0.1.4 - libVirt is for talking to Xen and other virtualization backends
· dbus-python >= 0.61 - optionally expose a service on the bus for control of the UI
· gnome-python-desktop >= 2.15.4 - optionally store VNC server passwords in GNOME keyring
· libxml2-python >= 2.6.23 - used to parse XML from libvirt
· vte >= 0.12.2 - for displaying / interacting with the serial console
· xeninst >= 0.93.0 - python library for assisting in creating VMs

Что нового в этой версии?

· This release adds support for managing virtual machines running under the QEMU or KVM virtualization platforms. · It has a workaround for the 'dual cursor' problem in the guest console by grabbing the pointer and hiding the local cursor. · The progress feedback display when installing new guest virtual machines has been improved. Смотреть всю историю изменений

Virtual machine manager:

  • скачать
  • скачать
  • Другие статьи, обзоры программ, новости

    System Center Virtual Machine Manager 2012: Управление виртуализацией

    System Center Virtual Machine Manager 2012: Управление виртуализацией

    Основа и предназначение виртуализации серверов заключается в абстрагировании рабочих нагрузок от базовой аппаратной инфраструктуры. Она также позволяет объединять ваши виртуальные машины (ВМ) в единую среду, в которой размещаются ВМ, где работают базовые бизнес-службы. Виртуальная инфраструктура состоит из вычислительных и сетевых ресурсов, а также ресурсов хранения.

    Диспетчер Microsoft System Center Virtual Machine (VMM) 2008 R2 позволял в определенной мере управлять базовой инфраструктурой, но ее инициализацию приходилось делать извне. Большой шаг вперед, совершенный в VMM 2012 заключается в том, что он способен осуществлять сквозное управление всей инфраструктурой. Следующий этап развития VMM представлен первым пакетом исправлений. (В этой статье рассказывается о второй версии для сообщества пользователей VMM 2012 SP1 CTP 2, поэтому до момента финального выпуска ситуация может еще немного поменяться.)

    В Hyper-V 3.0 в Windows Server 2012 появилось много новой и важной функциональности, поэтому в VMM 2012 расширилось функциональность, относящаяся к System Center 2012 SP1 (рис. 1 ). Речь идет о совместимости с Windows Server 2012 и SQL Server 2012, а также много других улучшений. В целом первый пакет исправлений обеспечивает возможность компонентов System Center работать в среде Windows Server 2012, а также управлять машинами под управлением Windows Server 2012 и поддерживать базы данных SQL Server 2012.

    Рис. 1. У консоли VMM 2012 SP1 привычный вид и поведение System Center

    VMM 2012 SP1 может управлять узлами и кластерами Hyper-V, а также VMware ESX/ESXi 3.5 и 4.1. vCenter Server 4.1 (вскоре ожидается поддержка vSphere 5), а теперь еще и Citrix XenServer 6.0. Таким образом можно использовать одно решение для управления всеми своими узлами виртуализации. Эта поддержка также распространяется на службы, работающие на многих виртуальных машинах на различных платформах. Подобная конфигурация возникает в ситуации, когда потребности в сетевой функциональности и производительности значительно разнятся.

    Используя на своих новых физических серверах контроллеры BMC (Baseboard Management Controllers), которые обычно известны под именами DRAC (Dell Remote Access Card), iLO (HP Integrity Integrated Lights-Out) и IBM Integrated Management Module (IMM), можно предоставлять VMM 2012 список серверов или IP-адресов, загружать эти машины, разворачивать образы Windows Server 2008 R2 в виде виртуальных дисков (VHD), включать роль Hyper-V role, а также настраивать загрузку с виртуального диска VHD. VMM 2012 SP 1 теперь аналогичным образом умеет разворачивать и объединять в кластеры Windows Server 2012.

    Для этого требуется существующий сервер WDS (Windows Deployment Server), на котором VMM 2012 SP1 разместит провайдер среды предварительного выполнения (PXE) (он должен быть первым в списке), который обеспечивает реакция на запросы на загрузку. Процесс установки продолжается, если физический серверу разрешено развертывание. PXE-запросы с других машин перенаправляются на следующий провайдер в WDS. Это означает, что для узлов Hyper-V не требуется отдельный сервер развертывания.

    Контроллеры BMC должны поддерживать Intelligent Platform Management Interface (IPMI) 1.5 или 2.0. Это сейчас самый популярный протокол, используемый HP iLO/iLO 2, Dell DRAC и Cisco Unified Computing System (UCS). На будущее Microsoft делает ставку на поддержку архитектуры SMASH 1.0 (System Management Architecture for Server Hardware) вместо WS-MAN (Web Services for Management), потому что SMASH предоставляет более обширную информацию. Также планируется поддержка DCMI 1.0 (Data Center Management Interface).

    Если для образа WinPE нужны особые драйверы, их можно внедрить в пользовательский образ, хранящийся в библиотеке. Для обеспечения необходимых Windows драйверов на узле needs VMM 2012 SP1 перенаправляет прямые запросы plug-and-play на нужные драйверы в библиотеке. Профиль узла, создаваемого для группы узлов, содержит базовые параметры, такие как домен, к котором надо подключиться. Больше параметров можно настроить средствами WSIM (Windows System Image Manager) и модифицировать файл unattend.xml во время развертывания.

    При устранении неполадок развертывания с нуля нужно помнить, что все попытки загрузки с использованием PXE (удачные и неудачные) регистрируются в журнале событий VMM 212 SP1. Также у загрузки образа WinPE на узлы есть 10-минутный таймаут. С ним можно столкнуться, если на сервере много сетевых карт и все они пытаются выполнить загрузку средствами PXE.

    Если нужно сконфигурировать тома RAID или перед установкой обновить микропрограммы, это можно сделать с помощью расширений GCE (Generic Command Executions), которые могут выполнить любой сценарий. Есть также выполняемые после установки GCE, которые можно использовать для таких вещей, как создания групп сетевых карт в Windows Server 2008 R2. Если в вашей среде несколько DNS-серверов, не забудьте учесть задержку репликации между ними или заранее подготовьте имена хостов. Развертывание потерпит сбой, если разрешение имен DNS не будет работать.

    Еще одно обстоятельство, которое надо учесть, — дисковое пространство. При загрузке с VHD операционная система Windows создает на физическом диске страничный файл, размер которого равен объему оперативной памяти на машине. При развертывании динамический VHD увеличится до полного размера, поэтому позаботьтесь, чтобы на ваших узлах было достаточно дискового пространства для всех этих операций.

    Естественно, что использование VMM 2012 SP1 для настройки совершенно новых узлов не является единственно возможным вариантом (рис. 2 ). Если у вас уже есть надежная инфраструктура для этого на основе MDT (Microsoft Deployment Toolkit) или System Center Configuration Manager, нет ничего плохого в использовании этих инструментариев. При создании виртуального диска VHD, который планируется использовать для развертывания узлов в начальном состоянии, лучше всего использовать MDT, потому что в нем процесс создания базового образа лучше стандартизован.

    Рис. 2. Добавление в VMM 2012 SP1 одного или более узлов выполняется просто

    Объединять эти новые узлы Hyper-V в кластеры можно средствами VMM 2012 SP1. В VMM 2012 обнаружение оборудования средствами BMC выполнялось недостаточно глубоко. VMM 2012 SP1 предлагает больше полезной информации, особенно для сетевых карт. VMM 2012 SP1 выполняет поиск оборудования путем загрузки узлов с использованием образа VMM WinPE, сбора данных, включения новой функциональности, которая называется Consistent Device Naming и возвращения информации в VMM 2012 SP1. Если материнская плата оборудована несколькими сетевыми картами, проще назначить карте правильный тип сети в профиле узла.

    Есть еще одна замечательная функциональность, облегчающая задачу добавления узлов в кластер в дальнейшем. Это можно делать с применением функции развертывания исходного состояния системы. Готовые узлы можно просто перетаскивать и опускать в существующий кластер. Вам достаточно указать некоторые сведения в появившемся окне — остальное VMM 2012 SP1 сделает самостоятельно.

    Кластерная мощь

    Кластеризация узлов — основополагающий элемент современного виртуализованного центра обработки данных (ЦОД). Она обеспечивает высокую доступность в случае незапланированных простоев. При отказе отдельных узлов имеющиеся виртуальные машины можно автоматически перезапускать на других узлах. Кластеризация также обеспечивает удобное администрирование во время плановых простоев, позволяя переносить ВМ между узлами перед отключением или установкой исправлений на узлы.

    Во многих средах также используется кластеризация гостевых систем, то есть когда ВМ объединяются в кластеры. В Windows Server 2012 появилась функциональность «развязки», то есть можно настроить систему так, чтобы конкретные две ВМ не работали на одном узле. При этом пропадают преимущества кластеризации гостевых систем. VMM 2012 SP1 поддерживает это, а также расширение этой функциональности на некластеризованные, автономные узлы, которыми он тоже управляет.

    При возникновении сбоя на узле щелкните его значок в консоли правой кнопкой и выберите Properties. В открывшемся окне вы должны увидеть причину проблемы. Есть даже удобная кнопка Repair all, по щелчку которой будет выполнена попытка исправить ситуацию (рис. 3 ).

    Рис. 3. Кнопка Repair all иногда оказывается полезной для устранения неполадок узла

    Когда возникала проблема с узлом в VMM 2008 R2, однним из способов в ее устранения и обновления базы данных последней информацией было удаление, а затем повторное добавление узла в VMM. Если сделать это в VMM 2012 по отношению к виртуальным машинам, которые выполняют роль службы для узла, вы потеряете указатели на эту службу. Единственный способ — мигрировать эти ВМ на другой узел перед операцией удаления-добавления.

    Другой популярной неполадкой являются проблемы со связью между VMM 2012 и его агентами. Причиной могут быть не только узлы, но и серверы библиотек, серверы обновления, а также ВМ, которые входят в состав служб. Этот трафик по умолчанию проходит через HTTP-порт 5985, поэтому нужно проверить правила брандмауэра (рис. 4 ). Полный список портов, используемых в VMM 2012, см. в статье «Ports and Protocols for VMM » библиотеки TechNet.

    Рис. 4. Установщик VMM 2012 SP1 информирует о портах, используемых каждым компонентом

    После создания всех узлов и кластеров важно обеспечить поддержание инфраструктуры в актуальном состоянии. VMM 2012 предоставляет функциональность установки пакетов исправление с учетом особенностей кластеров. При этом все ВМ «вживую» мигрируются на другие узлы, после чего на узел устанавливаются исправления и он перезагружается. После подтверждения работоспособности узла процесс повторяется на следующем узле.

    Нужно установить сервер обновлений WSUS (Windows Server Update Services) или использовать один из серверов, интегрированных в Configuration Manager. Нужно также обновить базовые планы и проверить выбранные хосты на предмет соответствия этим планам. После этого можно инициировать установку последних обновлений.

    WSUS-сервер можно установить на сервере VMM 2012, но рекомендуется размещать его на отдельной машине. А вот консоль WSUS нужно установить на каждом сервере VMM 2012. Если какой-то пакет исправлений создает проблемы на части узлов, его можно не устанавливать. С Windows Server 2012 платформа обогатилась встроенным поддерживающим кластеры обновлением. Интересно увидеть, переложит ли VMM 2012 SP1 соответствующие операции на ОС или эта функциональность будет реализована в самом VMM.

    Виртуальные сети

    В VMM 2012 SP1 теперь поддерживается концепция логических сетей. Это означает, что несколько ЦОД могут объединяться в одну сеть, скажем «corpnet». ВМ будут автоматически подключаться к правильным подсетям и виртуальным ЛС. Это позволяет лучше управлять базовой сетью и сетевыми подключениями ВМ.

    В крупных средах все равно придется прибегать к виртуальным ЛС для отделения виртуальных машин друг от друга и от узлов. Это может создавать дополнительную нагрузку в плане управления. Теоретический предел количества виртуальных ЛС составляет 4095, но большинство коммутаторов поддерживают 1000—1500 ВЛС. Одна из самых замечательных новых возможностей Hyper-V, которые появятся в Windows Server 2012, виртуализация сети. Она может заменить собой виртуальные ЛС.

    С точки зрения IP-адресов, у каждой ВМ есть клиентский адрес (Customer Address) и адрес провайдера (Provider Address). Первый «видит» ВМ, а второй используется в физической сети. Эта функциональность поддерживает несколько сценариев. Станет намного проще переносить локальные ВМ между локальными ресурсами и мощностями хостинг-провайдера без изменения IP-адресов. Также упрощается изоляция в сценариях со многими арендаторами.

    В сущности несколько ВМ, работающих на одном узле, могут иметь один IP-адрес, не видя друг друга. В интерфейсе VMM 2012 SP1 появились две новые панели, предназначенные для управления виртуализацией сети, а также новым логическим коммутатором, который также является новинкой Windows Server 2012. Он позволяет централизовать параметры коммутатора Hyper-V, не прибегая к ручному управлению параметрами коммутатора на каждом узле (подобно тому как работает распределенный коммутатор в VMware).

    Также новой в VMM 2012 SP1 является возможность расширять консоль VMM за счет использования подключаемых модулей. Это придаст VMM дополнительный вес как единому средству управления виртуальными ЦОД.

    Управление подсистемой хранения

    Еще одно различие между VMM 2008 R2 и VMM 2012 заключается в возможности управлять подсистемой хранения, где располагаются виртуальные машины. При интеграции с сетями SAN (Storage Area Network) VMM 2012 обеспечивает настоящие возможности сквозного управления VHD-диском каждой ВМ. Набор ПО, обеспечивающего эту интеграцию, базируется на спецификации SMI-S (Storage Management Initiative Specification). SMI-S была создана для VMM 2012 и перенесена в Windows Server 2012 под именем Windows Storage Management API (SMAPI). Windows Server 2012 сможет самостоятельно обеспечивать невиданный ранее уровень интеграции хранилища SAN (на базе как iSCSI, так и Fibre Channel).

    Эта функциональность не является заменой средств управления, предоставляемых поставщиком SAN. Это способ, позволяющий рабочим нагрузкам Windows Server 2012 эффективно и автоматизировано работать с общим хранилищем. Хотя в VMM 2012 сохранилась совместимость с VDS (Virtual Disk Service) более ранних версий, в VMM 2012 SP1 на смену этому интерфейсу придет SMI-S. Если у вас есть сети SAN, использующие старый драйвер VDS, учтите это при планировании обновления.

    По умолчанию VMM 2012 обновляет данные, предоставляемые SAN, каждые 24 часа. Так как LUN и другие параметры хранилища обычно управляются из вне VMM, а также средствами консоли, эта информация может устареть. По этим причинам может потребоваться настроить более частое обновление.

    Это может создавать ненужную нагрузку на некоторые SAN, поэтому в VMM 2012 SP1 появилась концепция уведомления. Она позволяет SAN и VMM знать о возникновении изменений. Поэтому периода обновления по умолчанию достаточно.

    Помимо SAN на основе iSCSI и Fibre Channel, VMM 2012 SP1 также поддерживает хранилища SAS (Serial Attached SCSI). Они популярны в небольших средах. Список поддерживаемых SAN вы найдете в статье «Configuring Storage Overview » в библиотеке TechNet. В серии SAN-сетей Dell EqualLogic PS iSCSI используются динамические хранилища, с которым VMM 2012 раньше не приходилось работать. В выпуске VMM 2012 SP1 эта проблема устранена.

    Одной из задач нового сервера Hyper-V в Windows Server 2012 была виртуализация крупных рабочих нагрузок. Один из компонентов решения этой задачи — новый формат виртуальных жестких дисков VHDX, который поддерживает диски размером до 64 ТБ. VHDX также отличается повышенной надежностью и позволяет утилитам Microsoft и сторонних производителей записывать управляющую информацию на дисковый файл.

    Еще одно серьезное улучшение в Windows Server 2012 Hyper-V заключается в возможности запускать ВМ с общих сетевых ресурсов, поддерживающих протокол SMB 3.0. Раньше это было невозможно. Эта функциональность поддерживается в выпуске VMM 2012 SP1. Однако не поддерживается конфигурация, в которой узел Hyper-V одновременно является файловым сервером, на котором размещается общая папка с VHD-файлами.

    VMM 2012 поддерживает классификацию хранилищ по характеристикам ввода/вывода (рис. 5 ). Например, бронзовыми могут быть более медленные диски SATA в более старых SAN, серебряными — диски SAS массива поновее, а золотыми — твердотельные накопители. Это позволяет адекватно назначать плату. Эту классификацию можно также применять к общему сетевому ресурсу, поддерживающему SMB 3.0.

    Рис. 5. Можно задать различные уровни качества хранилищ и использовать эти классификации в других местах VMM 2012 SP1

    Интеллектуальное размещение, алгоритм, определяющий рейтинг узлов по шкале от одного до пяти для оптимизации размещения, теперь дополнительно учитывает классификацию хранилища. Облака в VMM 2012 SP1 можно ограничивать, чтобы ВМ разворачивались столько в хранилищах определенной классификации.

    Признаком хорошей интеграции с SAN является быстрая подготовка ВМ, при которой используются механизмы копирования самого хранилища SAN. Это избавляет от необходимости переносить крупные VHD- и VHDX-файлы по сети. В VMM 2012 эта функциональность реализована через поддерживающие копирование шаблоны SAN, но ограничена только одной ВМ на LUN. Windows Server 2012 поддерживает разгруженную передачу данных. или ODX, в сетях SAN и это означает, что теперь можно быстро создавать множественные ВМ на каждый LUN.

    Еще одно огромное преимущество нового Hyper-V — встроенная динамическая миграция хранилища. ВМ можно перемещать между узлами без прерывания ее работы в то время, когда ее VHD-файл располагается в общем хранилище в кластере (как в Hyper-V в 2008 R2). ВМ можно также переносить между узлами вместе с файлами их жестких дисков независимо от состояния подключения.

    Общее хранилище при этом не обязательно. В сущности, для поддержки миграции в рамках кластера, в или из кластера или между кластерами требуется только сетевое подключение. Можно также выполнять миграцию между автономными узлами. VMM 2012 SP1 будет поддерживать все эти сценарии на узлах с Windows Server 2012 Hyper-V.

    Устранение неполадок структуры Fabric

    Существует два важных инструмента для устранения общих неполадок в VMM 2012. Virtual Machine Manager Configuration Analyzer умеет сканировать серверы с ролями VMM, а также серверы узлов. При этом инструмент выявляет места неоптимальной настройки путем проверки конфигурации на соответствие ряду правил.

    Для сбора подробной информации о состоянии системы и конфигурации лучше всего подходит Microsoft Product Support Reporting Tool. Инструмент учитывает конкретные сценарии, которые планируется реализовать. Он может даже проверять физические компьютеры, которые планируется превратить в виртуальные. Для случаев, когда нужно импортировать или экспортировать виртуальные машины из VMM, предлагается новый новый модуль Windows PowerShell, который называется Open Virtualization Format .

    В производственных экземплярах VMM 2012 случалась неполадка, которая заключалась в рассинхронизации базы данных VMM 2012 и состояния инфраструктуры. Это происходило из-за использования для внесения изменений диспетчера Hyper-V или диспетчера кластера, а не средств VMM 2012. Выпущенный в в июне 2012 года инструмент VM Recovery Tool помогает разрешить эти проблемы, но было бы лучше, если бы его включили в поддерживаемую часть продукта.

    Высокая доступность

    Для обеспечения надежного управления и синхронизации инфраструктуры, управляемой VMM 2012, нужно, чтобы VMM 2012 был всегда доступен. В VMM 2012 SP1 появилась концепция простого добавления дополнительных серверов VMM 2012 SP1 в кластерную конфигурацию «active-passive». В связке с кластеризованными базами данных SQL Server и кластерами файловых серверов, хранящих общие библиотеки VMM, это позволяет создать более устойчивую инфраструктуру управления.

    В целом VMM 2012 SP1 представляется богатой и функциональной платформой для управления инфраструктурой виртуализации. В этом выпуске есть ряд действительно полезных усовершенствований. Развернув VMM 2012 SP1 (и остальные компоненты System Center 2012 SP1) вместе с Windows Server 2012 Hyper-V, вы сможете получить мощную и гибкую платформу частного облака.

    Нашли ошибку в тексте? Сообщите о ней автору: выделите мышкой и нажмите CTRL + ENTER

    Virt-manager (Форум)

    Есть проблема с временем реакции.

    Например, при перемещении курсора клавишами приходится дожидаться реакции на каждое нажатие на клавишу, иначе курсор пропускает нажатия и не перемещается. Я, конечно, понимаю, что такая многослойная интерфейсная структура, которая используется при работе с виртуальными машинами (да еще с сетевой прокладкой), сильно замедляет передачу информации. Но не до такой же степени.

    В качестве guest machine используется Windows XP. Что интересно, когда у меня эта же виртуальная машина работала под Debian 7, задержки срабатывания конечно были, но не столь сильными. Но после того, как был установлен Debian 8, положение стало просто катастрофическим.

    Первой мыслью было, что по каким-то причинам в новом окружении Windows XP стала некорректно обрабатывать нажатия на клавиши. После этого были внесены соответствующие правки в реестр, но успеха это не принесло.

    Следующей мыслью было предположение, что сервер VNC по каким-то причинам стал медленнее работать под Debian 8. Был использован сервер spice и драйвер QXL. Результаты если и были, то крайне незначительными.

    Третьей мыслью было предположение, что тормозит обмен по сети. Был установлен драйвер NetKVM/: Virtio Network driver. Проверка скорости на Speedtest.net by Ookla дала скорость 30 мб/с, т. е. ту скорость, которую дает провайдер. Таким образом, с сетевым интерфейсом вроде все в порядке.

    Для проверки под Windows была написана программа, обновляющая графический экран 300 раз, и было определено время ее исполнения. На виртуальной машине время работы программы было 14-18 с в полноэкранном режиме и 12-14 с в окне. Для сравнения, та же программа под обычной Windows 7 выполняется за 5-7 с. Т.е. виртуализация тормозит конечно работу, но не столь катастрофически.

    Да, чуть не забыл. В процессе всех экспериментов один раз удалось добиться нормального времени реакции. Но после перезагрузки виртуальной машины эффект не воспроизвелся.

    Вопрос классический — что делать?

    Всего хорошего. V. G.

    Приветы гурам и проч шаманам ЛОРа! суть вопроса в след. имею рабочую связку mint 17.3 и виртуалки win7 с проброшеной в нее видеокартой. Изображение виртуалки выводится на телевизор через hdmi, соответственно при загрузке виртуалки в окне virt-manager на хосте изображение становится статичным на этапе черного экрана с появляющимися из темноты флажками win7, далее вывод изображениея переключается на телевизор а окно virt-manager'а становится виртуальным тачпадом. Вопрос собственно такой - можно ли продублировать изображение с проброшенной в гостя видеокарты на хост? в принципе большой разницы нету будет ли это окно того же virt-manager'а или какая ни будь сторонняя приблуда типа spice-viewer'а

    Буду блогадарен за любые советы\помощь в данном вопросе. Если нужны какие либо доп. данные или выхлопы из терминала- не проблема)

    Привет зашедшим.
    Пытаюсь использовать qemu/kvm через virt-manager. В конфигурации (гуевой) ставлю 'Copy host CPU configuraton', в итоге определяется как Westmere (а у меня i5-4200M CPU @ 2.50GHz).
    Производительность очень низкая, и размазанное отображение (в виртуалбоксе есть гостевые драйверы, а как тут нужное [1366x768] разрешение поставить?).
    Или virtual manager не алё, надо через консоль?
    p.s. гость - вин 7

    Собственно проблема весьма необычная - у меня при работе с вирт-менеджером скачет чувствительность мыши, т.е. я «освобождаю ее от захвата» и хренакс - она летает как бешеная, снова захватываю/освобождаю - вроде все опять норм.

    Система Ubuntu 14.04; Virtual Machine Manager 0.9.5, версия спайса ХЗ какая.

    Привет, лоровчане.
    Экспериментирую с использованием на рабочих ноутах KVM'а вместо VirtualBox'а. В качестве хостов - Ubuntu 14.04 и Debian testing со свежими на данный момент qemu 2.5 и virt-manager 1.2, гости - вёнды XP.
    Всё чудесно и пока устраивает, кроме двух вещей:

    1. Сетевая конфигурация гостей. Хочу, чтобы в kvm'е была возможность подключать их мостом к «железным» интерфейсам wlan и eth, чтобы гость видел всех и все видели гостя в локалке. В виртуалбоксе есть возможность сделать такое в пару кликов через гуй. В virt-manager'е же выбирается только macvtap, который через wlan в упор не хочет работать, да к тому же не позволяет гостю с хостом видеть друг друга.
    Есть ли в KVM возможность создать для виртуализованных машин бридж-подключение, не прибегая к конфигурированию интерфейсов через networking в /etc/network/interfaces ?

    2. Графика в KVM'е (через spice) заметно дёрганная по сравнению с тем же VBox, нет ощущения localhost'а. Если, например, быстро потаскать любое окно, то хорошо видна задержка. QXL драйвер установлен и дело точно не в производительности самого железа.
    Это поправимо? И если нет, то можно ли ожидать прогресса в будущем?

    Добрый день, уважаемые линуксисты и сочувствующие. Назрел вопрос - насколько qemu-kvm годна на десктопе в качестве замены virtualbox? Достали уже косяки с vbox при обновлении. Сценарий применения - linux-хост, гостевая win, изредка используется для запуска специфичных прог, типа офиса. Слышал про virt-manager, насколько он хорош? Можно ли использовать только его в качестве гуя, не обращаясь к консольке? Как там со звуком, 3d-ускорением, сложно ли сделать папку обмена?

    Всем доброго здоровья!
    Итак имеем:
    Ubuntu 14.04.4 x64
    hen-hypervisor-4.4
    virt-manager (0.9.5 и 1.3.2)
    libvirt (1.2.2, 1.2.8)
    Подключение к Xen происходит вроде как нормально, но никаких VM не появляется (даже Dom0). При создании новой VM, на финальном этапе появляется ошибка:

    Пробовал и от юзера, и от рута. При этом сам Xen работает отлично, но мне позарез нужен GUI к нему (точнее заказчику).

    Имеются взятые из Интернета и переделанные немного под себя правила iptables, обеспечивающие запрет трафика при отключении VPN. Всё работает, как нужно.
    Понадобилось перевести виртуальную машину с VirtualBox на QEMU/KVM, решил использовать libvirt и virt-manager. Но появилась проблема - с моими правилами iptables гостевая ОС не получает доступа к Интернету. Насколько я понял, libvirt создаёт свои правила, но, видимо, мои запреты (кажется, по части FORWARD) всё-равно мешают. Я по-разному пытался сделать, в итоге добился появления Интернета на госте через удаление правила :FORWARD DROP [0:0]. Но в этом случае, при отключении VPN на хосте, на хосте соединение пропадает, но гость продолжает иметь доступ к Интернету напрямую, что меня не устраивает. Хотелось-бы, чтобы гость не мог этого сделать, но имел доступ лишь при включенном на хосте VPN. Ниже приведу правила iptables.

    Мои запрещающие правила:

    X.X.X.X здесь - адрес VPN-сервера.

    Вот вывод iptables -S со всеми правилами в сумме - моими, и теми, которые добавляются libvirt:

    С ними Интернета на госте нет совсем.
    Помогите, пожалуйста, сделать так, чтобы гость всё-таки имел доступ в Интернет, но только пока на хосте включен VPN.

    Есть виртуальная машина, созданная при помощи virt-mamager, в которой крутится 64-битная Windows 7. В качестве звукового устройства в virt-manager указан ich6. Гостевая система корректно определила звуковое устройство и установила для него драйвера. Но звука от гостя на хосте нет, также не работает микрофон. При этом при проигрывании звука на госте, виндовый микшер показывает активность.

    Пробовал гуглить, но нахожу только старые темы, где народ жалуется на отсутствие драйверов для ac97 под 64-разрядную Windows 7.

    У кого-нибудь получилось завести звук и микрофон в гостевой Windows? Поделитесь, пожалуйста рецептом.

    ОС Debian 8 (Jessie) 64bit с последними обновлениями, ядро 4.2.6-3

    bpo8+2 из backports. QEMU 2.1.2, virt-mananer 1.0.1

    Virtual Machine Manager

    Virtual Machine Manager

    System Center 2012 Virtual Machine Manager помогает расширить применение текущих решений центра обработки данных и имеющихся навыков, позволяя предоставлять инфраструктуру как службу уже сегодня.

    Гибкая и недорогая инфраструктура

    Группировка и динамическое выделение ресурсов центра обработки данных. Решение System Center 2012 Virtual Machine Manager позволяет группировать и виртуализировать вычислительные и сетевые ресурсы, а также ресурсы хранилищ, создавая матрицу центра обработки данных для выделения ее ресурсов различным бизнес-подразделениям. Эти ресурсы могут включать несколько центров обработки данных, инфраструктур (например, Microsoft и VMware) и поставщиков служб. С помощью VMM 2012 можно подготовить серверы без ОС к работе в кластере Hyper-V. Такой подход повышает эффективность центра обработки данных, помогая увеличить рентабельность инвестиций в текущие активы и снизить расходы на управление изолированными специальными решениями.

    Гибкое контролируемое делегирование. Решение System Center 2012 Virtual Machine Manager позволяет выделять сгруппированные ресурсы центра обработки данных логически разделенным облакам, которые соответствуют ИТ-целям бизнес-подразделений. Например, согласно требованиям бизнеса, у ИТ-облаков отдела маркетинга и финансового отдела могут быть разные уровни обслуживания. Администраторы бизнес-подразделений и главного центра обработки данных могут совместно определять необходимые владельцам приложений характеристики, включая уровни обслуживания и масштабирование.

    Самообслуживание инфраструктуры. Решение System Center 2012 Virtual Machine Manager снижает загрузку ИТ-подразделений, обеспечивая самостоятельный доступ пользователей на базе ролей к ресурсам центра обработки данных.

    Принцип ориентации на службы при управлении приложениями

    Благодаря инновационным возможностям подготовки приложений от проектирования до развертывания, доступным в решении System Center 2012 Virtual Machine Manager, данные процессы могут выполняться отдельно от инфраструктуры.

    В частности, шаблоны служб в библиотеке шаблонов Virtual Machine Manager 2012 позволяют проектировать и создавать приложения .Net n-уровня. В решении также реализована поддержка различных типов пакетов, таких как средство веб-развертывания (Майкрософт) для IIS или веб-уровня, Server Application Virtualization (SAV) для бизнес-уровня и приложения уровня данных SQL (DAC) для уровня баз данных.

    Встроенная технология SAV позволяет развертывать в средах частных облаков набор заданных типов приложений без изменения их архитектуры или кода, обеспечивая к ним доступ в различных облаках. А благодаря методам конфигурации и управления на основе образов она также упрощает обслуживание приложений, экономя время и силы сотрудников.

    Управление гетерогенными виртуальными средами

    В решении System Center 2012 Virtual Machine Manager реализовано единое представление для управления виртуализированными средами с несколькими гипервизорами, такими как Windows Server Hyper-V, Citrix XenServer и VMware vSphere. Следовательно, при создании частного облака заказчик сможет использовать уже имеющиеся решения.

    Оптимизация предоставления служб в центре обработки данных

    В решении System Center 2012 Virtual Machine Manager реализованы важные улучшения инфраструктуры, которые помогают оптимизировать обновление и развертывание, а также более эффективно управлять средами, работающими по модели «инфраструктура как служба».

    Динамическая оптимизация рабочих нагрузок дает возможность перераспределять нагрузку на уровне кластеров на основе технологий динамической миграции и улучшенного размещения.

    Интеллектуальное управление питанием позволяет задавать политики управления питанием, которые снижают операционные расходы, оптимизируя энергопотребление в периоды наибольшего и наименьшего использования ресурсов центра обработки данных без перерывов в обслуживании.

    Улучшенная поддержка Windows PowerShell. В решение System Center 2012 Virtual Machine Manager включена обширная поддержка PowerShell — командной оболочки и языка сценариев для администраторов (свыше 170 средств командной строки, единый синтаксис и служебные программы).

    Автоматизация исправления для кластеров Hyper-V улучшает операционную эффективность, не создавая дополнительного риска для сред «инфраструктура как служба».

    Сервер Virtual Machine Manager высокой доступности поддерживает масштабирование в рамках кластеров ресурсов центра обработки данных, обеспечивая надежную поддержку сред типа «инфраструктура как служба».

    Полный список возможностей System Center Virtual Machine Manager 2012


    Управление виртуальной инфраструктурой

    • автоматическая установка и ввод в эксплуатацию «с нуля» серверов для виртуализации на основе Hyper-V;
    • управление гетерогенной виртуальной инфраструктурой, на основе гипервизоров разных производителей: Microsoft Hyper-V, VMware vSphere, Citrix Xen Server;
    • автоматическое обновление физических хостов и виртуальных машин без остановки работы кластера;
    • создание и управление шаблонами виртуальных машин;
    • управление сетевой средой для виртуальной инфраструктуры на основе VLAN, подсетей, пулов IP адресов;
    • интеграция с балансировщиками нагрузки;
    • управление системами хранения данных для виртуальной инфраструктуры на основе обнаружения массивов хранения данных;
    • конфигурирование разделов (LUN), подключение к узлам и кластерам, внедрение виртуальных машин на сконфигурированных разделах;
    • динамическое масштабирование многоуровневых ИТ-сервисов в режиме реального времени на основе технологии Server Application Virtualization (SAV);
    • предоставление доступа на основе ролей с возможностью назначения квот и делегирования;
    • защита физических и виртуальных ресурсов с помощью Data Protection Manager;
    • поддержка стандартов PowerShell, OVF и SMI-S для управления виртуальной средой;
    • управление серверным оборудованием через IPMI, DCMI и SMASH.
    • миграция физических серверов в виртуальную среду;
    • развертывание новых виртуальных машин, управление виртуальными машинами;
    • миграция виртуальных машин между физическими серверами в режиме реального времени;
    • динамическое перераспределение ресурсов в режиме реального времени в соответствии с потребностями инфраструктуры;
    • динамическая оптимизация ресурсов происходит для компонентов ЦПУ, ОЗУ, дисковая система, система сетевого ввода вывода;
    • динамическое управление питанием серверов в режиме реального времени в соответствии с потребностями инфраструктуры;
    • создание и управление многоуровневых сервисов на основе шаблонов;
    • возможность определения настроек для компонентов многоуровневых ИТ-сервисов;
    • возможность определения пороговых значение производительности и правил масштабирования для компонентов многоуровневых ИТ-сервисов;
    • упрощенное обновление и обслуживание многоуровневых ИТ-сервисов на основе технологии Server Application Virtualization (SAV);
    • создание отказоустойчивых конфигураций на уровне узлов, виртуальных машин, операционных систем, приложений;
    • создание частных облаков с выделением ресурсов при помощи простого мастера;
    • создание и управление ИТ-сервисами на основе портала самообслуживания;
    • управление виртуальной инфраструктурой на основе портала самообслуживания;
    • управление ресурсами частного облака вне зависимости от гипервизора (поддерживаются: Microsoft Hyper-V, VMware vSphere, Citrix Xen Server)
    • автоматическое развертывание и динамическое масштабирование многоуровневых сервисов в облаке;
    • возможность самообслуживания запросов на ресурсы и автоматизация их предоставления;
    • делегирование управления на уровне облака;
    • управление квотами для создания виртуальных машин в облаке;
    • управление ИТ-сервисами в частном облаке и публичном облаке Windows Azure при помощи портала System Center App Controller.

    Для получения более подробной информации и/или оформления заказа на товар/услугу, представленную на этой странице, вы можете оставить заявку и мы свяжемся с вами в самое ближайшее время.

    Установка System Center 2012 R2 Virtual Machine Manager

    Установка System Center 2012 R2 Virtual Machine Manager

    Сегодня мы рассмотрим установку System Center 2012 R2 Virtual Machine Manager. Сама процедура установки достаточно проста и не вызывает особых сложностей. Однако в ней есть некоторые тонкие моменты, которые я постараюсь затронуть в данной статье.

    Перед установкой

    Нужно понимать, что Virtual Machine Manager не является единым продуктом, а состоит из нескольких компонентов. Сюда входят сам сервер управления VMM, консоль управления, сервер библиотеки и сервер БД. Также стоит упомянуть о Web-портале самообслуживания, который имеет прямое отношение к VMM, хотя начиная с SP1 входит в состав App Controller и устанавливается отдельно.

    Компоненты VMM могут быть как установлены все вместе, так и разнесены по разным серверам в различных сочетаниях, для распределения нагрузки. Так например, я планирую использовать для установки две машины — одна под сервер управления и библиотеку, другая под базу данных.

    Установка System Center 2012 R2 Virtual Machine Manager возможна на Windows Server 2012\2012 R2 редакций Standart и Datacenter. Также для установки сервера управления требуется установить Windows Assessment and Deployment Kit (ADK).

    В качестве сервера БД для VMM 2012 R2 можно использовать любую 64-разрядную версию SQL Server 2008 R2 SP2\2012\2012 R2 редакций Standart или Enterprise.

    Сервер, на который устанавливается VMM, обязательно должен быть членом домена Active Directory. Если сервер управления и сервер БД находятся в разных доменах Active Directory, то между этими доменами должны быть установлены двусторонние доверительные отношения. Имя сервера не должно превышать 15 символов, и в нем не должно быть дефисов, то есть сервер можно назвать SCVMM. но нельзя SC-VMM.

    И немного об аппаратных требованиях. По документации Microsoft минимальной конфигурацией для развертывания VMM являются 64-разрядный Pentium 4 2,8 ГГц и 2 ГБ ОЗУ. При установке сервера управления на виртуальную машину Hyper-V с использованием динамической памяти, стартовый объем ОЗУ должен быть не меньше 2 ГБ.

    Также для установки VMM потребуется минимум 2 ГБ дискового пространства для установки отдельно от сервера БД, или 80 Гб с учетом БД. Если же сервер управления планируется использовать и как библиотеку, то следует выделить дополнительное место под хранение объектов (виртуальных дисков, ISO-образов и т.п.).

    Более подробно системные требования к компонентам System Center 2012 можно посмотреть здесь. а мы перейдем к установке. Я выбрал сценарий развертывания с раздельным сервером БД, поэтому установка будет производится на две виртуальные машины. Сервер управления будет установлен на машину SC1, а сервер БД — на SC2.

    Установка ADK

    Переходим на SC1 и скачиваем Windows Assessment and Deployment Kit (ADK) for Windows 8.1. Обратите внимание, что по ссылке скачивается небольшой файлик, который затем загружает и устанавливает все остальное. Как вариант, можно предварительно загрузить файлы установки в указанную папку, а потом перенести их на сервер и запустить установку.

    Из всего набора ADK для VMM необходимо установить только Deployment Tools и Windows PE.

    Установка SQL Server

    Коротко об установке сервера БД. Поскольку у меня под рукой оказался дистрибутив SQL Server 2012 SP1, то его и будем устанавливать. Запускаем инсталлятор и выбираем тип установки одиночный сервер (stand-alone).

    Выбираем установку компонентов Database Engine Services и Management Tools — Complete .

    Выбираем установку Default instance с настройками по умолчанию, хотя при желании можно установить и именованный экземпляр SQL Server.

    Обязательным требованием для VMM является использование экземпляра SQL Server без учета регистра символов при сортировке. Поэтому на пункте Server Configuration переходим на вкладку Collation, жмем кнопку Customize и проверяем наличие отсутствия ?? галочки в пункте Case-Sensitive. Это важный момент, изменить порядок сортировки после установки SQL Server крайне сложно.

    Выбираем режим аутентификации Windows authentication mode и добавляем в список администраторов пользователя vmm_admin. Под этим пользователем сервер управления VMM будет подключаться к базе данных.

    И после окончания установки открываем для входящего трафика на файерволле порт 1433 TCP, который использует дефолтный экземпляр SQL Server. Сделать это можно из графической оснастки, либо в командной консоли командой:

    netsh advfirewall firewall add rule name = SQL dir = in protocol = TCP action = allow localport = 1433 profile = any

    Установка Virtual Machine Manager

    Запускаем инсталлятор и жмем Install.

    Выбираем для установки компонент VMM management server .

    Указываем имя пользователя и регистрационные данные. Ключ продукта не обязательно вводить при установке, это можно сделать и потом.

    Соглашаемся с лицензионным соглашением.

    И отказываемся от участия в программе повышения качества обслуживания (CEIP).

    Включаем автоматическое обновление VMM.

    Указываем папку для установки.

    На следующем этапе производится сбор сведений и проверка на соответствие необходимым требованиям. Если система не соответствует требованиям, то установка может быть прервана. В нашем случае выдано предупреждение о недостаточном объеме памяти, что позволяет продолжить установку.

    Дальше идет настройка подключения к базе данных. Выбираем сервер SC2 с портом по умолчанию, указываем учетные данные пользователя vmm_admin, под которыми будет производится подключение к базе. Затем выбираем дефолтный экземпляр сервера и указываем создание новой базы данных.

    Настраиваем учетную запись, под которой будет работать служба VMM. Можно выбрать системный аккаунт Local System, либо указать доменную учетную запись. При выборе надо учитывать, что изменить учетную запись службы VMM после установки будет невозможно, для этого потребуется полная переустановка. Если указывается доменная учетная запись, то она должна входить в группу локальных администраторов на данном компьютере.

    Дальше идет выбор варианта управления ключами. С помощью этих ключей VMM шифрует некоторые данные в базе (напр. учетные записи и пароли RunAs User). При локальном хранении ключей шифрование этих данных будет привязано к конкретному компьютеру, на котором установлена служба VMM, и к учетной записи этой службы. Соответственно при переносе VMM на другой сервер данные будут потеряны.

    Распределенное управление ключами (Distributed Key Management) позволяет сохранить ключи в Active Directory, поэтому в случае переноса службы зашифрованные данные сохраняются и будут доступны с другого компьютера. В этом случае перед установкой VMM необходимо создать в Active Directory специальный контейнер для хранения ключей. Контейнер может быть типа такого ?CN=SCVMM,DC=contoso,DC=com?, создать его можно с помощью редактора ADSIEdit.

    Для production правильно будет создать для VMM в домене управляемую сервисную учетную запись (Managed Service Account), а ключи хранить в Active Directory. Для развертывания в лабораторной среде можно оставить Local System и хранить ключи локально, что я и сделаю.

    Дальше идет настройка портов. Без необходимости их лучше не менять.

    Указываем имя и место для файловой шары под библиотеку. Как вариант, библиотеку VMM можно разместить на отдельном файловом сервере.

    Проверяем суммарную информацию и жмем Install, запуская процесс установки.

    Несколько минут ожидания, и финальный экран с сообщением об успешном завершении установки.

    System Center 2012 R2 Virtual Machine Manager установлен и можно приступать к его использованию — подключать хосты, создавать облака, развертывать сервисы и многое другое. Но обо всем этом я планирую написать в другой раз.