По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
В этой серии лекций продолжается рассмотрение распределенных плоскостей управления, добавляя к изучению еще три протокола маршрутизации. Два из них являются протоколами состояния канала, а третий – единственный, широко распространенный протокол вектора пути, Border Gateway Protocol (BGP) v4. В этих лекция мы уделим внимание тому, почему каждый из этих протоколов реализован именно так. Очень легко увлечься и запутаться в изучении мельчайших деталей работы протоколов, но нам гораздо важнее помнить о проблемах, для решения которых эти протоколы были разработаны, и о диапазоне возможных решений. Каждый изучаемый вами протокол будет представлять собой комбинацию умеренно ограниченного набора доступных решений: существует очень мало доступных новых решений. Существуют различные комбинации решений, реализованных иногда уникальными способами для решения конкретных наборов проблем. Изучая эти принципы работы протокола, вы должны попытаться выбрать общие решения, которые они реализуют. Затем отразить эти решения обратно в набор проблем, которые должна решить любая распределенная плоскость управления, чтобы устранить проблемы в реальных сетях. Краткая история OSPF и IS-IS Протокол Intermediate System to Intermediate System (IS-IS или IS to IS) был разработан в 1978 году. Open Shortest Path First (OSPF) изначально задумывался как альтернатива IS-IS, предназначенная специально для взаимодействия с сетями IPv4. В 1989 году первая спецификация OSPF была опубликована Internet Engineering Task Force, а OSPFv2, значительно улучшенная спецификация, была опубликована в 1998 году как RFC2328. OSPF, безусловно, был более широко используемым протоколом, причем ранние реализации IS-IS практически не применялись в реальном мире. Были некоторые аргументы за и против, и многие функции были «позаимствованы» из одного протокола в другой (в обоих направлениях). В 1993 году компания Novell, в то время крупный игрок в мире сетевых технологий, использовала протокол IS-IS как основу для замены собственного протокола маршрутизации Netware. Протокол транспортного уровеня Novell, Internet Packet Exchange (IPX), в то время работал на большом количестве устройств, и возможность использования одного протокола для маршрутизации нескольких транспортных протоколов была решающим преимуществом на сетевом рынке (EIGRP, также может маршрутизировать IPX). Этот протокол замены был основан на IS-IS. Чтобы реализовать новый протокол Novell, многие производители просто переписали свои реализации IS-IS, значительно улучшив их в процессе. Это переписывание сделало IS-IS привлекательным для крупных провайдеров Интернет-услуг, поэтому, когда они отказались от протокола RIP, они часто переходили на IS-IS вместо OSPF. Intermediate System to Intermediate System Protocol В протоколе Intermediate System to Intermediate System (IS-IS) маршрутизатор называется Intermediate System (Промежуточной системой (IS), а хост- End System (Конечной системой (ES). Оригинальный дизайн набора состоял в том, чтобы каждое устройство, а не интерфейс, имело один адрес. Службы и интерфейсы на устройстве будут иметь точку доступа к сетевым службам (Network Service Access Point - NSAP), используемую для направления трафика к определенной службе или интерфейсу. Таким образом, с точки зрения IP, IS-IS изначально был разработан в рамках парадигмы маршрутизации хоста. Промежуточные и конечные системы связываются непосредственно с помощью протокола End System to Intermediate System (ES-IS), позволяющего IS-IS обнаруживать службы, доступные в любой подключенной конечной системе, а также сопоставлять адреса нижних интерфейсов с адресами устройств более высокого уровня. Еще один интересный аспект дизайна IS-IS - он работает на канальном уровне. Разработчикам протокола не имело большого смысла запускать плоскость управления для обеспечения доступности транспортной системы через саму транспортную систему. Маршрутизаторы не будут пересылать пакеты IS-IS, поскольку они параллельны IP в стеке протоколов и передаются по локальным адресам связи. Когда была разработана IS-IS, скорость большинства каналов была очень низкой, поэтому дополнительная инкапсуляция также считалась расточительной. Каналы связи также довольно часто выходили из строя, теряя и искажая пакеты. Следовательно, протокол был разработан, чтобы противостоять ошибкам при передаче и потере пакетов. Адресация OSI Поскольку IS-IS был разработан для другого набора транспортных протоколов, он не использует адреса Internet Protocol (IP) для идентификации устройств. Вместо этого он использует адрес взаимодействия открытых систем (Open Systems Interconnect - OSI) для идентификации как промежуточных, так и конечных систем. Схема адресации OSI несколько сложна, включая идентификаторы для органа, распределяющего адресное пространство, идентификатор домена, состоящий из двух частей, идентификатор области, системный идентификатор и селектор услуг (N-селектор). Многие из этих частей адреса OSI имеют переменную длину, что еще больше затрудняет понимание системы. Однако в мире IP используются только три части этого адресного пространства. Authority Format Identifier (AFI), Initial Domain Identifier (IDI), High-Order Domain Specific Part (HO-DSP) и область, где все обрабатывается как одно поле. Системный идентификатор по-прежнему рассматривается как системный идентификатор. N Selector, или NSAP, обычно игнорируется (хотя есть идентификатор интерфейса, который похож на NSAP, используемый в некоторых конкретных ситуациях). Таким образом, промежуточные системные адреса обычно принимают форму, показанную на рисунке 1. На рисунке 1: Точка разделения между системным идентификатором и остальной частью адреса находится в шестом октете или если отсчитать двенадцать шестнадцатеричных цифр с правой стороны. Все, что находится слева от шестого октета, считается частью адреса области. Если N-селектор включен, это один октет или две шестнадцатеричные цифры справа от идентификатора системы. Например, если для адреса A был включен N-селектор, это могло бы быть 49.0011.2222.0000.0000.000A.00. Если в адрес включен N-селектор, вам нужно пропустить N-селектор при подсчете более шести октетов, чтобы найти начало адреса области. A и B находятся в одном домене flooding рассылки, потому что у них одни и те же цифры от седьмого октета до крайнего левого октета в адресе. C и D находятся в одном flooding domain. A и D представляют разные системы, хотя их системный идентификатор одинаков. Однако такая адресация может сбивать с толку и поэтому не используется в реальных развертываниях IS-IS (по крайней мере, вдумчивыми системными администраторами). Вы посчитать эту схему адресации более сложной, чем IP, даже если вы регулярно работаете с IS-IS в качестве протокола маршрутизации. Однако есть большое преимущество в использовании схемы адресации, отличной от той, которая используется на транспортном уровне в сети. Гораздо проще различать типы устройств в сети и гораздо проще отделить узлы от адресатов, если продумать алгоритм Дейкстры по кратчайшему пути (SPF). Маршаллинг данных в IS-IS IS-IS использует довольно интересный механизм для маршалинга данных для передачи между промежуточными системами. Каждая IS генерирует три вида пакетов: Hello-пакеты Пакеты с порядковыми номерами (PSNP и CSNP) Одиночный пакет состояния канала (Link State Packet - LSP) Единый LSP содержит всю информацию о самой IS, любых доступных промежуточных системах и любых доступных адресатах, подключенных к IS. Этот единственный LSP форматируется в Type Length Vectors (TLV), которые содержат различные биты информации. Некоторые из наиболее распространенных TLV включают следующее: Типы 2 и 22: достижимость к другой промежуточной системе Типы 128, 135 и 235: достижимость до пункта назначения IPv4 Типы 236 и 237: достижимость к адресату IPv6 Существует несколько типов, потому что, IS-IS изначально поддерживал 6-битные метрики (большинство процессоров на момент появления протокола могли хранить только 8 бит за раз, и два бита были «украдены» из размера поля, чтобы нести информацию о том, был ли маршрут внутренним или внешним, а также другую информацию). Со временем, по мере увеличения скорости связи, были введены различные другие метрические длины, включая 24 - и 32-битные метрики, для поддержки широких метрик. Одиночный LSP, несущий всю информацию о доступности IS, IPv4 и IPv6, а также, возможно, теги MPLS и другую информацию, не поместится в один пакет MTU. Для фактической отправки информации по сети IS-IS разбивает LSP на фрагменты. Каждый фрагмент рассматривается как отдельный объект в процессе лавинной рассылки. Если изменяется один фрагмент, лавинной рассылкой по сети распространяется только измененный фрагмент, а не весь LSP. Благодаря этой схеме IS-IS очень эффективен при лавинной рассылке информации о новой топологии и достижимости без использования полосы пропускания, превышающей минимальную требуемую. Обнаружение соседей и топологии Хотя IS-IS изначально был разработан, чтобы узнать о доступности сети через протокол ES-IS, когда IS-IS используется для маршрутизации IP, он «действует так же, как протоколы IP», и узнает о достижимых местах назначения через локальную конфигурацию каждого из них. устройства и путем перераспределения из других протоколов маршрутизации. Следовательно, IS-IS - это проактивный протокол, который изучает и объявляет достижимость без ожидания пакетов, которые будут переданы и переадресованы через сеть. Формирование соседей в IS-IS довольно просто. Рисунок 2 иллюстрирует этот процесс. На рисунке 2: IS A передает приветствие в сторону B. Это приветствие содержит список соседей, от которых получен сигнал, который будет пустым. Настройку времени удержания (hold time) B следует использовать для A, и добавляется к максимальному блоку передачи (MTU) локального интерфейса для канала связи. Пакеты приветствия дополняются только до завершения процесса формирования смежности. Не каждый пакет приветствия дополняется MTU канала. IS B передает приветствие к A. Это приветствие содержит список соседей, от которых получен ответ, который будет включать A. Настройку времени удержания A следует использовать для B. Добавляется к MTU локального интерфейса. Поскольку A находится в списке «слышимых соседей» B, A рассмотрит B и перейдет к следующему этапу формирования соседей. Как только A включил B в список «услышанных соседей» хотя бы в одно приветствие, B рассмотрит A и перейдет к следующему этапу формирования соседа. B отправит полный список всех записей, которые он имеет в своей таблице локальной топологии (B описывает LSP, которые он имеет в своей локальной базе данных). Этот список отправляется в Complete Sequence Number Packet (CSNP). A проверит свою локальную таблицу топологии, сравнив ее с полным списком, отправленным B. Любые записи в таблице топологии (LSP), которых он не имеет, он будет запрашивать у B с использованием Partial Sequence Number Packet (PSNP). Когда B получает PSNP, он устанавливает флаг Send Route Message (SRM) для любой записи в его локальной таблице топологии (LSP), запрошенной A. Позже процесс лавинной рассылки будет проходить по таблице локальной топологии в поисках записей с установленным флагом SRM. Он заполнит эти записи, синхронизируя базы данных в A и B. Примечание. Описанный здесь процесс включает изменения, внесенные в RFC5303, который определяет трехстороннее рукопожатие, и дополнение приветствия, которое было добавлено в большинство реализаций примерно в 2005 году. Установка флага SRM отмечает информацию для лавинной рассылки, но как на самом деле происходит лавинная рассылка? Надежная лавинная рассылка. Для правильной работы алгоритма SPF Дейкстры (или любого другого алгоритма SPF) каждая IS в flooding domain должна совместно использовать синхронизированную базу данных. Любая несогласованность в базе данных между двумя промежуточными системами открывает возможность зацикливания маршрутизации. Как IS-IS гарантирует, что подключенные промежуточные системы имеют синхронизированные базы данных? В этой лекции описывается процесс создания point-to-point каналов. Далее будут описаны модификации, внесенные в процесс flooding domain по каналам с множественным доступом (например, Ethernet). IS-IS полагается на ряд полей в заголовке LSP, чтобы гарантировать, что две промежуточные системы имеют синхронизированные базы данных. Рисунок 3 иллюстрирует эти поля. На рисунке 3: Длина пакета (packet length) содержит общую длину пакета в октетах. Например, если это поле содержит значение 15 , длина пакета составляет 15 октетов. Поле длины пакета составляет 2 октета, поэтому оно может описывать пакет длиной до 65 536 октетов - больше, чем даже самые большие MTU канала. Поле оставшегося времени жизни (remaining lifetime) также составляет два октета и содержит количество секунд, в течение которых этот LSP действителен. Это вынуждает периодически обновлять информацию, передаваемую в LSP, что является важным соображением для старых технологий передачи, где биты могут быть инвертированы, пакеты могут быть усечены или информация, передаваемая по каналу связи, может быть повреждена. Преимущество таймера, который ведет обратный отсчет, а не на увеличение, состоит в том, что каждая IS в сети может определять, как долго ее информация должна оставаться действительной независимо от каждой другой IS. Недостаток в том, что нет четкого способа отключить описанный функционал. Однако 65 536 секунд - это большое время - 1092 минуты, или около 18 часов. Повторная загрузка каждого фрагмента LSP в сети примерно каждые 18 часов создает очень небольшую нагрузку на работу сети. LSP ID описывает сам LSP. Фактически, это поле описывает фрагмент, поскольку оно содержит идентификатор исходной системы, идентификатор псевдоузла (функцию этого идентификатора рассмотрим позже) и номер LSP, или, скорее, номер фрагмента LSP. Информация, содержащаяся в одном фрагменте LSP, рассматривается как «один блок» во всей сети. Отдельный фрагмент LSP никогда не «рефрагментируется» какой-либо другой IS. Это поле обычно составляет 8 октетов. Порядковый номер (Sequence Number) описывает версию этого LSP. Порядковый номер гарантирует, что каждая IS в сети имеет одинаковую информацию в своей локальной копии таблицы топологии. Это также гарантирует, что злоумышленник (или «кривая» реализация) не сможет воспроизвести старую информацию для замены новой. Контрольная сумма (Checksum) гарантирует, что информация, передаваемая во фрагменте LSP, не была изменена во время передачи. Лавинная рассылка описана на рисунке 4. На рисунке 4: А подключен к 2001: db8: 3e8: 100 :: / 64. A создает новый фрагмент, описывающий этот новый достижимый пункт назначения. A устанавливает флаг SRM на этом фрагменте в сторону B. Процесс лавинной рассылки в какой-то момент (обычно это вопрос миллисекунд) проверит таблицу топологии и перезальет все записи с установленным флагом SRM. Как только новая запись будет помещена в свою таблицу топологии, B создаст CSNP, описывающий всю свою базу данных, и отправит его в A. Получив этот CSNP, A удаляет свой флаг SRM в направлении B. B проверяет контрольную сумму и сравнивает полученный фрагмент с существующими записями в своей таблице топологии. Поскольку нет другой записи, соответствующей этой системе и идентификатору фрагмента, он поместит новый фрагмент в свою таблицу локальной топологии. Учитывая, что это новый фрагмент, B инициирует процесс лавинной рассылки по направлению к C. А как насчет удаления информации? Есть три способа удалить информацию из системы IS-IS flooding: Исходящая IS может создать новый фрагмент без соответствующей информации и с более высоким порядковым номером. Если весь фрагмент больше не содержит какой-либо действительной информации, исходящая IS может заполнить фрагмент с оставшимся временем жизни (lifetime) равным 0 секунд. Это приводит к тому, что каждая IS в домене лавинной рассылки повторно загружает фрагмент zero age и удаляет его из рассмотрения для будущих вычислений SPF. Если таймер lifetime во фрагменте истекает в любой IS, фрагмент заполняется лавинной рассылкой с zero age оставшегося времени жизни. Каждая IS, получающая этот фрагмент с zero age, проверяет, что это самая последняя копия фрагмента (на основе порядкового номера), устанавливает оставшееся время жизни для своей локальной копии фрагмента на ноль секунд и повторно загружает фрагмент. Это называется удалением фрагмента из сети. Когда IS отправляет CNSP в ответ на полученный фрагмент, она фактически проверяет всю базу данных, а не только один полученный фрагмент. Каждый раз, когда фрагмент лавинно рассылается по сети, вся база данных проверяется между каждой парой промежуточных систем. Подведение итогов об IS-IS IS-IS можно описать как: Использование лавинной рассылки для синхронизации базы данных в каждой промежуточной системе в flooding domain (протокол состояния канала). Расчет loop-free -путей с использованием алгоритма SPF Дейкстры. Изучение доступных пунктов назначения через конфигурацию и локальную информацию (проактивный протокол). Проверка двусторонней связи при формировании соседей путем переноса списка «замеченных соседей» в своих пакетах приветствия. Удаление информации из домена лавинной рассылки с помощью комбинации порядковых номеров и полей оставшегося времени жизни (lifetime) в каждом фрагменте. Проверка MTU каждой линии связи путем заполнения первоначально обмененных пакетов приветствия. Проверка правильности информации в синхронизированной базе данных с помощью контрольных сумм, периодического перезапуска и описаний базы данных, которыми обмениваются промежуточные системы. IS-IS - это широко распространенный протокол маршрутизации, который доказал свою работоспособность в широком диапазоне сетевых топологий и эксплуатационных требований.
img
Планировщик распределенных ресурсов VMware (VMware DRS) — это система, которая позволяет автоматически сбалансировать виртуальные машины (ВМ) в кластерной среде VMware vSphere. В этой статье мы рассмотрим некоторые советы и рекомендации по планированию, настройке и использованию vSphere DRS. Сбалансированный кластер обозначает то, что ваши хосты в кластере будут одинаково (или почти) распределены. Если ваш кластер не сбалансирован, ваши ВМ будут автоматически перенесены с помощью vMotion на хосты с минимальным использованием ресурсов. Например, если в вашей среде есть DRS, вы не будете видеть, что один хост используется на 99%, а другой на 50%. DRS заботится о балансировке ВМ с помощью vMotion. В этой статье мы дадим вам несколько советов, которые позволят получить максимальную отдачу от VMware DRS и сделать эту технологию оправдывающей вложения. VMware DRS не является частью vSphere Standard и входит только в версии Enterprise Plus или Platinum. Всегда возникает вопрос, стоит ли переходить на версию vSphere с DRS. Если бы у меня была возможность выбора, я бы предпочел лицензионный вариант VMware DRS. Чтобы дать вам представление о том, что нужно, давайте начнем с основ. Для VMware vSphere Distributed Resources Scheduler (DRS) требуется следующее: VMware vCenter Server Кластер VMware vSphere ESXi Включенная сеть vMotion на хостах кластера Лицензия Enterprise Plus (или выше) Общее хранилище между хостами ESXi (традиционное или гиперконвергентное через VMware VSAN) При использовании Predictive DRS вам также будет нужно запустить лицензированный vRealize Operations Manager (vROPs). Советы и хитрости VMware DRS Используйте однородное оборудование. Первый совет касается оборудования при формировании кластеров. Основное правило VMware - выбирать хосты с одинаковым или похожим оборудованием. Для этого есть причина. Решая, какие хосты группировать в кластеры DRS, попытайтесь выбрать те, которые являются максимально однородными с точки зрения процессора и памяти. Это улучшает предсказуемость и стабильность производительности. Скорость DRS и снижение использования ресурсов. Обновитесь до последней версии vSphere. Последняя vSphere, 6.7, гораздо более эффективна, когда речь идет о скорости DRS и использовании ресурсов. Несмотря на то, что сама скорость vMotion не может быть выше, поскольку она зависит от базовой архитектуры сети и хранилища, VMware оптимизирует скорость принятия решений до того, как произойдет vMotion. Фактически, они достигли в 2-3 раза более быстрого принятия решений в vSphere 6.7. Одним из улучшений стало упрощенное начальное размещение, которое теперь не делает снимок всей среды, а просто использует непрерывный мониторинг, позволяя сохранять 1-2 секунды перед принятием каждого решения. Это особенно ценно в средах с высокой степенью затрат, где вы сможете увидеть снижение потребления ресурсов из-за улучшений DRS и уменьшенной задержки при создании VMotions для балансировки нагрузки. Также вы увидите быстрое начальное размещение ВМ. Используйте полностью автоматический режим. Уровень автоматизации DRS может быть установлен на ручной, частично автоматический или полностью автоматический. Какая разница? Давайте объясним: Вручную — vCenter будет рекомендовать только перемещение ресурсов. Частично автоматизировано — после того, как вы создадите ВМ и включите ее, vCenter автоматически разместить виртуальную машину на более подходящем хосте, чтобы поддерживать баланс кластера. После включения ВМ vCenter представит рекомендации по переходу с учетом использования процессора и памяти. Администратор vSphere должен одобрить переход. Полностью автоматизированный — vCenter контролирует начальное размещение и переход виртуальных машин. Всё полностью автоматически, и администратор не видит сообщений, касающихся рекомендаций. Никакое решение от администратора не нужно, чтобы держать кластер сбалансированным. По умолчанию, когда вы включаете DRS в кластере, уровень автоматизации, выбранный на уровне кластера, будет применён ко всем ВМ, которые находятся в этом кластере. Однако вы можете создать отдельные правила для виртуальных машин, которые необходимо разделить (или хранить вместе). Порог миграции Эта опция позволяет вам установить порог, который при ударе заставляет DRS срабатывать и перемещать виртуальные машины, чтобы достичь идеально сбалансированного состояния. Поскольку производительность каждой ВМ варьируется, процессор и использование памяти хоста также различаются. Вы можете переместить ползунок порога, чтобы использовать одну из пяти настроек, от консервативных до активных. Пять параметров миграции генерируют рекомендации на основе назначенного им уровня приоритета.При перемещении ползунка вправо каждый параметр позволяет включить один из более низких уровней приоритета. Консервативный параметр генерирует только рекомендации с приоритетом один (обязательные рекомендации), следующий уровень справа генерирует рекомендации с приоритетом два и выше и т. д. до уровня активный, который генерирует рекомендации с приоритетом пять и выше (то есть все рекомендации). Для этого выберите «Кластер» -> «Настроить» -> «vSphere DRS» -> «Редактировать». Ползунок позволяет перейти от консервативного (слева) к активному (правому) положению. Вы должны определить, насколько активно или консервативно вы хотите запустить DRS. Я обычно держу его на середине, потому что, если вы слишком активны, скорее всего, будете слишком часто перемещать свои виртуальные машины. И помните, что при каждом перемещении вы создаете нагрузку на базовую инфраструктуру, такую как хранилище или загрузка ЦП. Это связано с тем, что операции копирования во время vMotion могут насыщать сетевые ссылки, и, если у вас нет 10 Гб (или более), операции vMotion будут бесконечными. Если вы оставите настройку слишком низкой (слишком консервативной), ваши виртуальные машины не будут достаточно двигаться, и дисбаланс вашего кластера будет расти или будет происходить чаще, без исправления. Выключите виртуальные машины, которые вы не используете Оставьте включенными только те ВМ, которые вам действительно нужны. Виртуальные машины с включенным питанием потребляют ресурсы памяти и некоторые ресурсы ЦП даже в режиме ожидания. Даже неиспользуемые виртуальные машины с их малым пользованием ресурсов могут повлиять на решения DRS. Вы можете получить небольшое увеличение производительности, выключив или приостановив ВМ, которые не используются. Правила соответствия DRS. Правила соответствия DRS могут хранить две или более ВМ на одном хосте ESXi («соответствие VM / VM»), или с другой стороны, они могут быть уверены, что они всегда находятся на разных хостах («несоответствие VM / VM»). Правила соответствия DRS также можно использовать, чтобы убедиться, что группа виртуальных машин работает только на определенных хостах ESXi («соответствие VM / Хост») или никогда не запускается на определенных хостах («несоответствие VM / Хост») Зачастую лучше оставить настройки соответствия без изменений. Однако в некоторых конкретных и редких случаях указание правил соответствия может повысить производительность. Чтобы изменить настройки соответствия: Выберите кластер -> Настроить -> Правила виртуальной машины/хоста -> Добавить, введите имя для нового правила, выберите тип правила и перейдите через GUI в соответствии с выбранным типом правила. Помимо настроек по умолчанию, типами настроек соответствия являются: Хранение виртуальных машин вместе— этот тип соответствия может повысить производительность благодаря меньшим задержкам связи между машинами. Разделение виртуальных машин — этот тип соответствия может поддерживать максимальную доступность ВМ. Например, если они являются интерфейсными веб-серверами для одного и того же приложения, вы можете убедиться, что на них не повлияет сбой сервера (если это произойдет). Таким образом, эти две виртуальные машины не будут отключены одновременно. Это также позволит разделить два контроллера домена на двух разных хостах, чтобы пользователи могли проходить аутентификацию и получать доступ к ресурсам. ВМ к хостам — этот тип соответствия может быть полезен для кластеров с ограничениями лицензирования программного обеспечения или конкретными требованиями зоны доступности. Финальные заметки Как видите, VMware vSphere DRS является адаптивным для многих сценариев. Настройки по умолчанию будут сразу работать , но у вас есть много вариантов, чтобы адаптировать его к вашей среде, если это необходимо. При понимании ваших рабочих процессов и требований, вы сможете настроить vSphere DRS, чтобы получить максимальную производительность и максимальную выгоду от вашей виртуальной инфраструктуры.
img
Добро пожаловать в статью, посвященную началу работы с виртуализацией Xen на CentOS. Xen - это гипервизор с открытым исходным кодом, позволяющий параллельно запускать различные операционные системы на одной хост-машине. Этот тип гипервизора обычно называют гипервизором №1 в мире виртуализации. Xen используется в качестве основы для виртуализации серверов, виртуализации настольных ПК, инфраструктуры как услуги (IaaS) и встраиваемых/аппаратных устройств. Возможность работы нескольких гостевых виртуальных машин на физическом хосте может значительно повысить эффективность использования основного оборудования. Передовые возможности Xen гипервизора Xen не зависит от операционной системы – основным стеком управления (который называется domain 0 (домен 0)) может быть Linux, NetBSD, OpenSolaris и так далее. Возможность изоляции драйвера - Xen может разрешить основному системному драйверу устройства работать внутри виртуальной машины. Виртуальная машина может быть перезагружена в случае отказа или сбоя драйвера без воздействия на остальную часть системы. Поддержка паравиртуализации (Paravirtualization - это тип виртуализации, в котором гостевая операционная система перекомпилируется, устанавливается внутри виртуальной машины и управляется поверх программы гипервизора, работающей на ОС хоста.): это позволяет полностью паравиртуализированным хостам работать гораздо быстрее по сравнению с полностью виртуализированным гостем, использующим аппаратные расширения виртуализации (HVM). Небольшие размеры и интерфейс. В гипервизоре Xen используется микроядерное устройство, размер которого составляет около 1 МБ. Этот небольшой объем памяти и ограниченный интерфейс гостя делают Xen более надежным и безопасным, чем другие гипервизоры. Пакеты Xen Project Пакеты Xen Project состоят из: Ядро Linux с поддержкой Xen Project Сам гипервизор Xen Модифицированная версия QEMU - поддержка HVM Набор пользовательских инструментов Компоненты Xen Гипервизор Xen Project отвечает за обработку процессора, памяти и прерываний, поскольку он работает непосредственно на оборудовании. Он запускается сразу после выхода из загрузчика. Домен/гость - это запущенный экземпляр виртуальной машины. Ниже приведен список компонентов Xen Project: Гипервизор Xen Project работает непосредственно на оборудовании. Гипервизор отвечает за управление памятью, процессором и прерываниями. Он не знает о функциях ввода-вывода, таких как работа в сети и хранение. Область контроля (Домен 0): Domain0 - специальная область, которая содержит драйверы для всех устройств в хост-системе и стеке контроля. Драйверы управляют жизненным циклом виртуальной машины - созданием, разрушением и конфигурацией. Гостевые домены/виртуальные машины - гостевая операционная система, работающая в виртуализированной среде. Существует два режима виртуализации, поддерживаемых гипервизором Xen: Паравиртуализация (PV) Аппаратная поддержка или полная виртуализация (HVM) Toolstack и консоль: Toolstack - это стек управления, в котором Domain 0 позволяет пользователю управлять созданием, конфигурацией и уничтожением виртуальных машин. Он предоставляет интерфейс, который можно использовать в консоли командной строки. На графическом интерфейсе или с помощью стека облачной оркестрации, такого как OpenStack или CloudStack. Консоль - это интерфейс к внешнему миру. PV против HVM Паравиртуализация (PV - Paravirtualization ) Эффективная и легкая технология виртуализации, которая была первоначально представлена Xen Project. Гипервизор предоставляет API, используемый ОС гостевой виртуальной машины Гостевая ОС должна быть изменена для предоставления API Не требует расширений виртуализации от центрального процессора хоста. Гостям PV и доменам управления требуется ядро с поддержкой PV и драйверы PV, чтобы гости могли знать о гипервизоре и могли эффективно работать без эмуляции или виртуального эмулируемого оборудования. Функции, реализованные в системе Paravirtualization, включают: Сигнал прерывания и таймеры Драйверы дисков и сетевые драйверы Эмулированная системная плата и наследуемый вариант загрузки (Legacy Boot) Привилегированные инструкции и таблицы страниц Аппаратная виртуализация (HVM - Hardware-assisted virtualization ) - полная виртуализация Использует расширения виртуальной машины ЦП от ЦП хоста для обработки гостевых запросов. Требуются аппаратные расширения Intel VT или AMD-V. Полностью виртуализированные гости не требуют поддержки ядра. Следовательно, операционные системы Windows могут использоваться в качестве гостя Xen Project HVM. Программное обеспечение Xen Project использует Qemu для эмуляции аппаратного обеспечения ПК, включая BIOS, контроллер диска IDE, графический адаптер VGA, контроллер USB, сетевой адаптер и так далее Производительность эмуляции повышается за счет использования аппаратных расширений. С точки зрения производительности, полностью виртуализированные гости обычно медленнее, чем паравиртуализированные гости, из-за необходимой эмуляции. Обратите внимание, что можно использовать PV драйверы для ввода-вывода, чтобы ускорить гостевой HVM Драйверы PVHVM - PV-on-HVM Режим PVH сочетает в себе лучшие элементы HVM и PV Позволяет виртуализированным аппаратным гостям использовать PV диск и драйверы ввода-вывода Никаких изменений в гостевой ОС Гости HVM используют оптимизированные драйверы PV для повышения производительности - обходят эмуляцию дискового и сетевого ввода-вывода, что приводит к повышению производительности в системах HVM. Оптимальная производительность на гостевых операционных системах, таких как Windows. Драйверы PVHVM требуются только для гостевых виртуальных машин HVM (полностью виртуализированных). Установка Xen в CentOS 7.x Чтобы установить среду Xen Hypervisor, выполните следующие действия. 1) Включите репозиторий CentOS Xen sudo yum -y install centos-release-xen 2) Обновите ядро и установите Xen: sudo yum -y update kernel && sudo yum -y install xen 3) Настройте GRUB для запуска Xen Project. Поскольку гипервизор запускается перед запуском ОС, необходимо изменить способ настройки процесса загрузки системы: sudo vi /etc/default/grub Измените объем памяти для Domain0, чтобы он соответствовал выделенной памяти. RUB_CMDLINE_XEN_DEFAULT="dom0_mem=2048M,max:4096M cpuinfo com1=115200,8n1 console=com1,tty loglvl=all guest_loglvl=all" 4) Запустите скрипт grub-bootxen.sh, чтобы убедиться, что grub обновлен /boot/grub2/grub.cfg bash `which grub-bootxen.sh` Подтвердите изменение значений: grep dom0_mem /boot/grub2/grub.cfg 5) Перезагрузите свой сервер sudo systemctl reboot 6) После перезагрузки убедитесь, что новое ядро работает: # uname -r 7) Убедитесь, что Xen работает: # xl info host : xen.example.com release : 3.18.21-17.el7.x86_64 machine : x86_64 nr_cpus : 6 max_cpu_id : 5 nr_nodes : 1 cores_per_socket : 1 threads_per_core : 1 ......................................................................... Развертывание первой виртуальной машины На этом этапе вы должны быть готовы к началу работы с первой виртуальной машиной. В этой демонстрации мы используем virt-install для развертывания виртуальной машины на Xen. sudo yum --enablerepo=centos-virt-xen -y install libvirt libvirt-daemon-xen virt-install sudo systemctl enable libvirtd sudo systemctl start libvirtd Установка HostOS в Xen называется Dom0. Виртуальные машины, работающие через Xen, называются DomU. virt-install -d --connect xen:/// --name testvm --os-type linux --os-variant rhel7 --vcpus=1 --paravirt --ram 1024 --disk /var/lib/libvirt/images/testvm.img,size=10 --nographics -l "http://192.168.122.1/centos/7.2/os/x86_64" --extra-args="text console=com1 utf8 console=hvc0" Если вы хотите управлять виртуальными машинами DomU с помощью графического приложения, попробуйте установить virt-manager sudo yum -y install virt-manager
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59