<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Электронный научно-практический журнал «Современные научные исследования и инновации» &#187; Hyper-V</title>
	<atom:link href="http://web.snauka.ru/issues/tag/hyper-v/feed" rel="self" type="application/rss+xml" />
	<link>https://web.snauka.ru</link>
	<description></description>
	<lastBuildDate>Fri, 17 Apr 2026 07:29:22 +0000</lastBuildDate>
	<language>ru</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.2.1</generator>
		<item>
		<title>Исследование виртуализации для построения отказоустойчивых кластеров</title>
		<link>https://web.snauka.ru/issues/2014/04/32958</link>
		<comments>https://web.snauka.ru/issues/2014/04/32958#comments</comments>
		<pubDate>Mon, 07 Apr 2014 08:51:54 +0000</pubDate>
		<dc:creator>Валя Калашник</dc:creator>
				<category><![CDATA[05.00.00 ТЕХНИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[Hyper-V]]></category>
		<category><![CDATA[Virtual PC]]></category>
		<category><![CDATA[VMware]]></category>
		<category><![CDATA[виртуализация]]></category>
		<category><![CDATA[отказоустойчивость кластера]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/?p=32958</guid>
		<description><![CDATA[Необходимыми характеристиками современных компьютерных систем является надежность и отказоустойчивость – работа системы без сбоев в определенных условиях в течение определенного времени. Повышение надежности основано на принципе предотвращения неисправностей путем снижения интенсивности отказов и сбоев за счет применения электронных схем и компонентов с высокой и сверхвысокой степенью интеграции, снижения уровня помех, облегченных режимов работы схем, обеспечение [...]]]></description>
			<content:encoded><![CDATA[<p>Необходимыми характеристиками современных компьютерных систем является надежность и отказоустойчивость – работа системы без сбоев в определенных условиях в течение определенного времени. Повышение надежности основано на принципе предотвращения неисправностей путем снижения интенсивности отказов и сбоев за счет применения электронных схем и компонентов с высокой и сверхвысокой степенью интеграции, снижения уровня помех, облегченных режимов работы схем, обеспечение тепловых режимов их работы, а также за счет совершенствования методов сборки аппаратуры. Отказоустойчивость – это способность вычислительной системы продолжать заданные действия после возникновения неисправностей. Для повышения надежности информационно &#8211; вычислительной системы идеальной схемой являются кластерные системы. Благодаря единому представлению, отдельные неисправные узлы или компоненты кластера могут быть без остановки работы и незаметно для пользователя заменены, что обеспечивает непрерывность и безотказную работу вычислительной системы даже в таких сложных приложениях как базы данных.</p>
<p>Основа надежности кластера &#8211; это некоторое избыточное количество отказоустойчивых узлов, в зависимости от конфигурации кластера и его задач.</p>
<p>Кластерная конфигурация узлов, коммуникационного оборудования и памяти может обеспечить отражение данных, резервирование компонентов самоконтроля и предупреждения, а также совместное использование ресурсов для минимизации потерь при отказе отдельных компонентов.</p>
<p>В современных компьютерных системах для обеспечения необходимого уровня локальной и глобальной отказоустойчивости используют различные методы, от простого дублирования компонентов системы (блоки питания, вентиляторы, зеркалирование дисков) до использования высокодоступных геокластеров.</p>
<p>Основной принцип дизайна высокодоступных кластеров &#8211; устранение нерезервированных точек отказа. В состав кластера входят минимум два узла (сервера). Возобновление обслуживания в случае отказа одного из узлов достигается размещением данных приложений на внешнем хранилище, доступ к которому имеет каждый узел.</p>
<p>Распространенных путей повышения отказоустойчивости два. Во-первых &#8211; повышение надежности отдельных компонентов системы. Например, жесткие диски SAS, предназначенные для серверов и систем хранения данных имеют гораздо больший срок наработки на отказ, чем SATA &#8211; диски, используемые в рабочих станциях. Во-вторых &#8211; избыточность. За счет записи информации одновременно на два диска &#8211; при отказе одного диска информация считывается с другого, и система продолжает работать. Аналогично могут резервироваться другие компоненты: блоки питания, модули памяти и даже &#8211; целые сервера.</p>
<p>Оба метода повышения надежности &#8211; ни в коей мере не являются взаимоисключающими, а наоборот &#8211; взаимодополняющими. Нельзя использовать для критических задач сервер, построенный на типовой элементной базе, используемой для построения рабочих станций, но это не отменяет необходимости и в резервировании наиболее критических и склонных к отказу компонентов: жестких дисков, блоков питания, вентиляторов и т.д. Понятное дело, что повышение надежности автоматически влечет сильное удорожание системы &#8211; как правило &#8211; в разы. Поэтому необходимо найти некую «золотую середину», отталкиваясь от суммы убытков, которые может повлечь за собой выход системы из строя. Например, нет смысла собирать домашний компьютер из серверного аппаратного обеспечения и делать массив RAID1 &#8211; это будет бессмысленной тратой денег, достаточно бэкапа данных. А вот на самолете стоимостью в 250 миллионов долларов &#8211; совсем не помешало бы добавить резервную микросхему стоимостью в 20 долларов. Как уже говорилось, резервироваться могут не только отдельные компоненты, но и целые сервера. Такое резервирование обеспечивает отказоустойчивость кластера. При работе в составе кластера, два (или более) сервера работают как единый «виртуальный сервер», что имеет свой ​​IP-адрес и сетевое имя. Сервера, работающие в кластере, называют «узлами». Сервис, с которым работают пользователи, в определенный момент времени запущен на одном из узлов, который называется «активным узлом». Другой узел играет роль резервного, и называется «пассивным ». Для работы кластера все узлы должны иметь доступ к какому-то общему дисковому ресурсу, который называется «кворум ». На этом ресурсе хранятся файлы конфигурации кластера. В роли «кворума» может выступать любая система хранения данных, поддерживающая интерфейсы iSCSI, SAS, FibreChannel [1]. Все узлы кластера периодически обмениваются особыми пакетами данных, которые называют «heartbeat». Если один из узлов выходит из строя &#8211; он перестает отвечать на heartbeat, и автоматически запускается процесс Failover &#8211; перезапуск сервиса на работоспособном узле. Это как правило происходит довольно быстро &#8211; без времени простоя, или с минимальным временем простоя &#8211; до нескольких минут, вместо нескольких часов при стандартном восстановлении сервера.</p>
<p>В настоящее время одной из технологий обеспечения отказоустойчивости кластерных технологий является виртуализация. В широком смысле слова, виртуализация &#8211; это программная имитация какой-то физической сущности. Например, раздел жесткого диска, видимый в системе как отдельный диск &#8211; это виртуальный диск, аналогично &#8211; эмуляция физического привода CD &#8211; ROM &#8211; программа так и называется &#8211; Virtual CD. Здесь же и дальше будет говориться о виртуализации серверов.</p>
<p>Благодаря виртуализации можно более рационально использовать аппаратные ресурсы серверов. Довольно часто IT &#8211; инфраструктура включает в себя множество серверов, каждый из которых утилизируется не более, чем на 10-15 %. Логично предположить, что если вместо нескольких серверов взять один сервер, пусть даже и немного более мощный, и разместить на нем несколько виртуальных серверов, можно будет хорошо сэкономить.</p>
<p>Во-первых &#8211; экономия на аппаратном обеспечении. Как известно, несколько отдельных серверов стоит заметно, в разы дороже, чем один сервер, но немного более мощный.</p>
<p>Во-вторых &#8211; один сервер занимает меньше места, чем несколько. Это будет особенно актуально для размещения на колокейшн [2], где приходится платить за каждый юнит.</p>
<p>В-третьих &#8211; с помощью виртуализации можно снизить энергопотребление системы. Один сервер, потребляет пусть даже целых два киловатта электроэнергии &#8211; это меньше, чем 10 серверов по киловатту каждый.</p>
<p>Одно из главных преимуществ виртуализации &#8211; удобство администрирования. Виртуальными машинами намного проще управлять, чем физическими серверами. Например, если виртуальная машина вдруг «зависла» &#8211; не обязательно бежать в серверную, чтобы ее перезагрузить, нажав кнопку Reset в консоли. Да и просто, если по какой-то причине машина вдруг стала недоступна, например, по RDP, не важно из-за чего &#8211; из-за «зависания» или ошибочной настройки – всегда можно удаленно зайти на ее консоль, и для этого не надо бежать в серверную или покупать дорогой IP KVM. Так же &#8211; вечная проблема админов &#8211; бэкап. В некоторых случаях, для быстрого восстановления системы нужно делать бэкап всего системного раздела. С виртуальной машиной такой трюк можно проделать значительно проще, быстрее и незаметнее для пользователя: достаточно лишь «бэкапить» файл виртуального диска средствами Volume Shadow Copy. Для восстановления на «голом железе» достаточно будет просто скопировать файлы, и займет это считанные минуты. Полный же бэкап физического сервера занимает больше времени и может привести к состоянию, когда система вообще не работает и необходима перезагрузка.</p>
<p>На ряду с явными преимуществами технология виртуализации имеет также и определенные недостатки. Во-первых, виртуализация по понятным причинам имеет высокие требования к аппаратному обеспечению. Во-вторых &#8211; образуется единая точка отказа &#8211; физический хост. Если на одном хосте будет запускаться сразу несколько виртуальных машин &#8211; то при «падении» хоста &#8211; «упадут» и все виртуальные машины, запущенные на нем, а следовательно &#8211; и все сервисы, которые они предоставляют &#8211; станут недоступны.</p>
<p>Использование отказоустойчивых кластеров при виртуализации позволяет  воспользоваться всеми преимуществами виртуализации, перечисленными ранее, при этом избавившись от главного недостатка &#8211; единой точки отказа. Поскольку хост не один, то в случае отказа одного из хостов виртуальная машина может быть просто перезапущена на другом. Запланированные простои &#8211; например, при техобслуживании серверов &#8211; сводятся к минимуму, а с использованием Live Migration &#8211; вообще к нулю. К сожалению, использование failover clustering приводит к значительному удорожанию системы. Во-первых &#8211; необходимо покупать целых два сервера вместо одного. Во-вторых &#8211; необходимо преобретать систему хранения данных и развертывать SAN (если до этого не было). В-третьих &#8211; Windows Server 2008 Std не поддерживает работу в составе кластера. Придется покупать более дорогие версии &#8211; Ent. и DC. Здесь, правда, есть нюансы. Во-первых &#8211; бесплатный Hyper -V Server, который с версии R2 поддерживает кластеры. Во-вторых &#8211; стоимость версий Ent/DC компенсируется правом использования бесплатных гостевых ОС (до 4 на Ent и без ограничений на один сервер для DC).</p>
<p>Собственно говоря, смысл объединения хостов в кластер состоит в возможности перемещения виртуальных машин с одного хоста на другой. Перемещение может быть как незапланированным &#8211; в случае отказа узла, это и есть Failover, так и запланированным &#8211; если надо по каким-то причинам перенести виртуальную машину на другой узел.</p>
<p>Failover происходит довольно просто: если один из узлов перестает отправлять heartbeat &#8211; виртуальная машина автоматически создается на другом узле и запускается на нем. Разумеется, это будет «холодный пуск», с возможной потерей данных , но это все же произойдет быстрее, чем восстановление физического сервера. Иногда же необходимо в штатном режиме перенести одну или несколько виртуальных машин с одного узла на другой. Например, если необходимо провести обслуживание одного из серверов &#8211; сам сервер нужно отключить, предварительно перенеся виртуальные машины на другой. Для этого используются штатные способы перемещения. Их три:</p>
<ul>
<li>Move – собственно, само перемещение. При этом происходит вывод виртуальной машины в режим Offline – через шатдаун или save state – по выбору, файлы виртуальной машины переносятся на другой узел, затем виртуальная машина удаляется с одного узла, создается на другом и запускается.</li>
<li>Quick Migration – быстрая миграция. При быстрой миграции &#8211; виртуальная машина переводится в режим Save State, происходит перенос, виртуальная машина запускается на другом узле.</li>
</ul>
<p>•  Live Migration позволяет осуществлять перемещение запущенных виртуальных машин прямо «на лету» &#8211; незаметно для пользователя. При использовании Live Migration происходит инкрементное копирование содержимого памяти виртуальной машины на другой узел, и затем &#8211; перенос конфигурации. Процесс переноса происходит за доли секунды, и даже TCP &#8211; соединения не успевают отключиться по таймауту. Пользователи вообще не замечают, что что-то произошло. В настоящее время наиболее употребительным является технология Live Migration.</p>
<p>Для создания виртуальных машин существует целый ряд программнхы продуктов, например, Microsoft Virtual PC и продукция VMWare. Virtual PC &#8211; программный пакет виртуализации для операционной системы Windows, а также программа эмуляции для Mac OS.</p>
<p>Для работы самой виртуальной машины требуется виртуальная среда с Windows XP и установленными Integration Components. Это среда свободна для загрузки, также на виртуальную машину можно установить Windows 7 или Windows Vista, а компоненты интеграции всегда можно установить через меню «Сервис», выбрав соответствующую команду. Virtual PC не совместима с Windows 8. В х64 версии Windows 8 заменена на Hyper -V.</p>
<p>VMware, в отличие от Virtual PC, позволяет эмулировать USB &#8211; порты и SCSI -устройства. Размер виртуальных жестких дисков ограничивается только объемом вашего настоящего винчестера. И в VMware, и в Virtual PC доступны встроенные средства для дефрагментации виртуальных дисков, что позволяет значительно сократить размер файла &#8211; диска. По желанию можно выставить фиксированный размер файла- диска &#8211; в этом случае его размер будет равен объему виртуального винчестера.</p>
<p>В VMware для защиты от неавторизованных пакетов необходимо докупать надстройку vShield App. Бесплатно воспользоваться защитой от нежелательных пакетов и атак можно только в Hyper -V.</p>
<p>Microsoft Hyper &#8211; V &#8211; система аппаратной виртуализации для x64 -систем на основе гипервизора. Возможности, предоставляемые Hyper &#8211; V, в различных версиях несколько отличаются. Так, Hyper &#8211; V Server 2008, по сути, является сильно облегченной версией Win2k8 Standard, в которой удалено практически все, что не касается виртуализации. Оставлены только средства управления гипервизором. Предназначен этот вариант только для &#8220;чистой виртуализации&#8221;, но зато требует на порядок меньше ресурсов, чем тот же Server Core. Он поддерживает (как и Standard) до 4 физических процессоров и до 32 Гб ОЗУ. Возможен запуск до 128 VM, недоступен локальный графический интерфейс управления и отсутствует поддержка кластеров, &#8211; что не позволяет создавать на нем отказоустойчивые решения и реализовать возможность быстрой миграции. Еще одним отличием версий стало количество VM, которые можно запускать без дополнительного лицензирования. В лицензию Standard &#8220;включена&#8221; одна бесплатная VM, в Enterprise &#8211; 4, количество VM в Datacenter &#8211; не ограничено.</p>
<p>Основной минус новой технологии – достаточно высокие требования к процессорам. Поддержка 32-разрядных систем отсутствует. Возможна работа только на 64-разрядных процессорах, поддерживающих технологии Intel VT или AMD-V (прежнее название Pacifica). В BIOS должен быть активизирован механизм защиты исполняемого кода (Intel XD или AMD NX). Сравнение основных характеристик Hyper-V и VMware представлено в таблице 1.</p>
<p style="text-align: left;" align="right">Таблица 1 &#8211; Сравнительная характеристика VMware и Hyper-V</p>
<table border="1" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td width="243">
<p align="center"><strong>Характеристика</strong></p>
</td>
<td width="176">
<p align="center"><strong>VMware vSphere 4</strong></p>
</td>
<td width="210">
<p align="center"><strong>Microsoft WS08R2 Hyper-V R2/SMSD</strong></p>
</td>
</tr>
<tr>
<td width="243">Управление физическими и виртуальными серверами</td>
<td width="176">
<p align="center">недоступно</p>
</td>
<td width="210">
<p align="center">доступно(SMSD)</p>
</td>
</tr>
<tr>
<td width="243">Управление ПО VMware, Microsoft</td>
<td width="176">
<p align="center">недоступно</p>
</td>
<td width="210">
<p align="center">доступно(SMSD)</p>
</td>
</tr>
<tr>
<td width="243">Мониторинг внутри гостевых ОС</td>
<td width="176">
<p align="center">недоступно</p>
</td>
<td width="210">
<p align="center">доступно(SMSD, SCOM)</p>
</td>
</tr>
<tr>
<td width="243">Комплексный мониторинг работы ОС</td>
<td width="176">
<p align="center">недоступно</p>
</td>
<td width="210">
<p align="center">доступно(SMSD, SCOM)</p>
</td>
</tr>
<tr>
<td width="243">Мониторинг работы приложений и служб</td>
<td width="176">
<p align="center">недоступно</p>
</td>
<td width="210">
<p align="center">доступно(SMSD, SCOM)</p>
</td>
</tr>
<tr>
<td width="243">Оптимизация распределения ресурсов на уровне узлов и виртуальных машин</td>
<td width="176">
<p align="center">доступно (DRS)</p>
</td>
<td width="210">
<p align="center">доступно(SMSD, SCOM)</p>
</td>
</tr>
<tr>
<td width="243">Централизованное управление гипервизорами</td>
<td width="176">
<p align="center">доступно (vCenter Server)</p>
</td>
<td width="210">
<p align="center">доступно(SMSD, VMM)</p>
</td>
</tr>
<tr>
<td width="243">Установка обновлений и управления гостевыми ОС</td>
<td width="176">
<p align="center">доступно (Update Maneger)</p>
</td>
<td width="210">
<p align="center">доступно(SMSD, SCOM)</p>
</td>
</tr>
<tr>
<td width="243">Высокая доступность и отказоустойчивость виртуальных машин</td>
<td width="176">
<p align="center">доступно (vCenter Server)</p>
</td>
<td width="210">
<p align="center">доступно (кластеры WS08R2+ VMM)</p>
</td>
</tr>
<tr>
<td width="243">Перенесение виртуальных машин</td>
<td width="176">
<p align="center">доступно (vMotion)</p>
</td>
<td width="210">
<p align="center">доступно (Live Migration)</p>
</td>
</tr>
<tr>
<td width="243">Перенесение хранилища виртуальных машин</td>
<td width="176">
<p align="center">доступно (Storage vMotion)</p>
</td>
<td width="210">
<p align="center">доступно (QSM)</p>
</td>
</tr>
</tbody>
</table>
<p>Вместе с вышеперечисленными характеристиками также существует ряд характеристик, которые следует учитывать при организации виртуализации, а именно:</p>
<p>1) Встроенный бэкап &#8211; данный механизм бесплатно доступен только в Hyper &#8211; V, в VMware &#8211; только начиная с Essentials Plus.</p>
<p>2) Репликация ВМ &#8211; решение для катастрофоустойчивости сценария, когда необходимо иметь возможность поднять актуальные экземпляры ВМ в другом дата- центре. В VMware для реализации этого решения есть отдельный продукт &#8211; Site Recovery Manager (SRM ) &#8211; а он стоит денег. В Hyper &#8211; V 3.0 &#8211; бесплатно.</p>
<p>3) Мониторинг гостевых приложений &#8211; механизм, который следит за состоянием программы или службы внутри ВМ и на основе этих данных может сделать любые действия с ВМ, например, перезапустить ее в случае необходимости. Встроенный функционал для снятия параметров и принятия действий у Hyper-V, в VMware является API &#8211; но нет самого решения для работы с данной функцией.</p>
<p>4) Правила распределения ВМ &#8211; механизм, который позволяет распределять ВМ на кластере так, чтобы они либо никогда не встречались на одном хосте, или наоборот &#8211; никогда не разъезжались между собой. VMware это умеет во всех платных редакциях, где доступно HA , а Hyper-V как всегда &#8211; бесплатно.</p>
<p>Подводя итоги, можно сказать, что для обеспечения отказоустойчивости кластеров целесообразным является использование технологий виртуализации. Для организации виртуализации наиболее эффективными продуктами являются VMware и Hyper -V. При использовании в системе ОС Linux &#8211; более целесообразно использовать VMware, а для систем на базе ОС фирмы Microsoft &#8211; Hyper -V.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2014/04/32958/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
