По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Четвертая часть тут Описанные до сих пор технологии—коммутация каналов и пакетов, плоскости управления и QoS—очень сложны. На самом деле, по-видимому, нет конца растущей сложности сетей, особенно по мере того, как приложения и предприятия становятся все более требовательными. В этой лекции будут рассмотрены два конкретных вопроса, связанных со сложностью и сетями: Что такое сложность сети? Можно ли «решить» сложность сети? Почему сети должны быть сложными? Хотя наиболее очевидным началом понимания темы может быть определение сложности, но на самом деле более полезно рассмотреть вопрос, почему сложность требуется рассмотреть в более общем смысле. Проще говоря, возможно ли «решить» сложность? Почему бы просто не проектировать более простые сети и протоколы? Почему каждая попытка сделать что-то более простое в сетевом мире в конечном итоге явно усложняет ситуацию в долгосрочной перспективе? Например, благодаря туннелированию поверх (или через) IP сложность плоскости управления снижается, а сеть в целом упрощается. Почему тогда туннельные оверлеи сложны? Есть два ответа на этот вопрос. Во-первых, поскольку человеческая природа является тем, чем она является, инженеры всегда будут изобретать десять различных способов решения одной и той же проблемы. Это особенно верно в виртуальном мире, где новые решения (относительно) просты в развертывании, (относительно) легко найти проблему с последним набором предлагаемых решений, и (относительно) легко создать новое решение, которое «лучше старого». Это особенно верно с точки зрения поставщика, когда создание чего-то нового часто означает возможность продавать совершенно новую линейку продуктов и технологий, даже если эти технологии очень похожи на старые. Другими словами, виртуальное пространство настолько хаотично, что там легко создать что-то новое. Второй ответ, однако, заключается в более фундаментальной проблеме: сложность необходима, чтобы справиться с неопределенностью, связанной с трудноразрешимыми проблемами. Добавление сложности, по-видимому, позволяет сети легче справляться с будущими требованиями и неожиданными событиями, а также предоставлять больше услуг по меньшему набору базовых функций. Если это так, то почему бы просто не построить единый протокол, работающий в одной сети, способный обрабатывать все требования, потенциально предъявляемые к нему, и может обрабатывать любую последовательность событий, которую вы можете себе представить? Одна сеть, работающая по одному протоколу, безусловно, уменьшит количество «движущихся частей», с которыми приходится работать сетевым администраторам, и сделает нашу жизнь проще, верно? На самом деле существует целый ряд различных способов управления сложностью, например: Абстрагируйтесь от сложности, чтобы построить black box вокруг каждой части системы, чтобы каждая часть и взаимодействие между этими частями были более понятны сразу. Переместите сложность в другую область — чтобы переместить проблему из области сетей в область приложений, кодирования или протокола. Как говорится в RFC1925 «Проще переместить проблему (например, переместив ее в другую часть общей сетевой архитектуры), чем решить ее» Добавьте еще один слой сверху, чтобы рассматривать всю сложность как black box, поместив другой протокол или туннель поверх того, что уже есть. Возвращаясь к RFC1925 «Всегда можно добавить еще один уровень indirection» Проникнитесь сложностью, обозначьте то, что существует как «наследие», и гонитесь за какой-то новой блестящей вещью, которая, как считается, способна решить все проблемы гораздо менее сложным способом. Игнорируя проблему и надеясь, что она уйдет. Аргументация в пользу исключения «только на этот раз», так что конкретная бизнес-цель может быть достигнута или какая-то проблема устранена в очень сжатые сроки, с обещанием, что проблема сложности будет решена «позже», является хорошим примером. Каждое из этих решений, однако, имеет ряд компромиссов для рассмотрения и управления. Кроме того, в какой-то момент любая сложная система становится хрупкой - прочной, но хрупкой. Система является надежной, но хрупкой, когда она способна устойчиво реагировать на ожидаемый набор обстоятельств, но неожиданный набор обстоятельств приведет к ее отказу. Определение Сложности Учитывая, что сложность необходима, инженеры должны научиться управлять ею каким-то образом, находя или создавая модель, или структуру. Лучше всего начать построение такой модели с самого фундаментального вопроса: что означает сложность в терминах сетей? Можно ли поставить сеть на весы и сделать так, чтобы стрелка указывала на «комплекс»? Существует ли математическая модель, в которую можно включить конфигурации и топологию набора сетевых устройств для получения «индекса сложности»? Как понятия масштаба, устойчивости, хрупкости и элегантности соотносятся со сложностью? Лучшее место для начала построения модели — это пример. Состояние Control Plane в зависимости от протяженности. Что такое протяженность сети? Проще говоря, это разница между кратчайшим путем в сети и путем, который фактически принимает трафик между двумя точками. Рисунок 1 иллюстрирует эту концепцию. Если предположить, что стоимость каждого канала в этой сети равна 1, то кратчайший физический путь между маршрутизаторами A и C также будет кратчайшим логическим путем: [A,B, C]. Однако что произойдет, если метрика на ссылке [A,B] изменится на 3? Самый короткий физический путь по-прежнему [A,B,C], но самый короткий логический путь теперь [A,D,E,C]. Разница между кратчайшим физическим путем и кратчайшим логическим путем-это расстояние, которое должен пройти пакет, пересылаемый между маршрутизаторами A и C—в этом случае протяженность может быть вычислена как (4 [A,D,E,C])?(3 [A,B, C]), для протяженности 1. Как измеряется протяженность? Способ измерения протяженности зависит от того, что является наиболее важным в любой конкретной ситуации, но наиболее распространенным способом является сравнение количества прыжков в сети, как это используется в приведенных здесь примерах. В некоторых случаях может оказаться более важным рассмотреть метрику по двум путям, задержку по двум путям или какую-то другую метрику, но важно последовательно измерять ее по всем возможным путям, чтобы обеспечить точное сравнение между путями. Иногда бывает трудно отличить физическую топологию от логической. В этом случае была ли метрика канала [A,B] увеличена, потому что канал связи на самом деле является более медленной линией связи? Если да, то является ли это примером протяженности или примером простого приведения логической топологии в соответствие с физической топологией, спорно. В соответствии с этим наблюдением, гораздо проще определить политику с точки зрения протяженности, чем почти любым другим способом. Политика — это любая конфигурация, которая увеличивает протяженность сети. Использование Policy-Based Routing или Traffic Engineering для перенаправления трафика с кратчайшего физического пути на более длинный логический путь, например, для уменьшения перегрузки в определенных каналах, является политикой - она увеличивает протяженность. Увеличение протяженности — это не всегда плохо. Понимание концепции протяженности просто помогает нам понять различные другие концепции и поставить рамки вокруг компромиссов сложности и оптимизации. Самый короткий путь, с физической точки зрения, не всегда лучший путь. Протяженность, на этом рисунке, очень простая—она влияет на каждый пункт назначения и каждый пакет, проходящий через сеть. В реальном мире все гораздо сложнее. Протяженность фактически приходится на пару источник / приемник, что делает ее очень трудной для измерения в масштабах всей сети. Определение сложности: модель А Три компонента - state, optimization, и surface, являются общими практически в каждом решении по проектированию сети или протокола. Их можно рассматривать как набор компромиссов, как показано на рисунке 2 и описано в следующем списке. Увеличивающаяся оптимизация всегда движется в направлении большего количества состояний или большего количества поверхность взаимодействия. Уменьшающееся состояние всегда движется в сторону меньшей оптимизации или большего количества поверхности взаимодействия. Уменьшение поверхности взаимодействия всегда приводит к меньшей оптимизации или большему состоянию. Конечно, это не железные правила; они зависят от конкретной сети, протоколов и требований, но они, как правило, достаточно верны, чтобы сделать эту модель полезной для понимания компромиссов в сложности. Поверхность взаимодействия. Хотя понимание определения состояние и оптимизация интуитивно понятны, стоит потратить еще немного времени на понимание понятия поверхности взаимодействия. Концепция поверхностей взаимодействия трудна для понимания прежде всего потому, что она охватывает широкий спектр идей. Возможно, был бы полезен данный пример. Предположим, что функция, которая: Принимает два числа в качестве входных данных Добавляет их Умножает полученную сумму на 100 Возвращает результат Эту единственную функцию можно рассматривать как подсистему в некоторой более крупной системе. Теперь предположим, что вы разбили эту единственную функцию на две функции, одна из которых выполняет сложение, а другая-умножение. Вы создали две более простые функции (каждая из которых выполняет только одну функцию), но вы также создали поверхность взаимодействия между двумя функциями—вы создали две взаимодействующие подсистемы внутри системы, где раньше была только одна. В качестве другого примера предположим, что у вас есть две плоскости управления, работающие в одной сети. Одна из этих двух плоскостей управления несет информацию о пунктах назначения, доступных вне сети (внешние маршруты), в то время как другая несет пункты назначения, доступные внутри сети (внутренние маршруты). Хотя эти две плоскости управления являются различными системами, они все равно будут взаимодействовать многими интересными и сложными способами. Например, доступность к внешнему назначению будет обязательно зависеть от доступности к внутренним назначениям между краями сети. Эти две плоскости управления теперь должны работать вместе, чтобы построить полную таблицу информации, которая может быть использована для пересылки пакетов через сеть. Даже два маршрутизатора, взаимодействующие в пределах одной плоскости управления, могут рассматриваться как поверхность взаимодействия. Именно эта широта определения делает очень трудным определение того, что такое поверхность взаимодействия. Поверхности взаимодействия не плохая вещь. Они помогают инженерам и дизайнерам разделить и победить в любой конкретной области проблемы, от моделирования до реализации. Управление сложностью через Wasp Waist. Wasp waist, или модель песочных часов, используется во всем мире и широко имитируется в инженерном мире. Хотя инженеры не часто сознательно применяют эту модель, на самом деле она используется постоянно. На рис. 3 показана модель песочных часов в контексте четырехуровневой модели Department of Defense (DoD), которая привела к созданию пакета интернет-протоколов (IP). На нижнем уровне, физической транспортной системе, имеется широкий спектр протоколов, от Ethernet до Satellite. На верхнем уровне, где информация распределяется и представляется приложениям, существует широкий спектр протоколов, от протокола передачи гипертекста (HTTP) до TELNET. Однако, когда вы перемещаетесь к середине стека, происходит забавная вещь: количество протоколов уменьшается, создавая песочные часы. Почему это работает, чтобы контролировать сложность? Если мы вернемся к трем компонентам сложности-состоянию, поверхности и сложности, - то обнаружим связь между песочными часами и сложностью. Состояние делится песочными часами на два разных типа состояния: информация о сети и информация о данных, передаваемых по сети. В то время как верхние уровни занимаются маршалингом и представлением информации в удобной для использования форме, нижние уровни занимаются обнаружением того, какая связь существует и каковы ее свойства на самом деле. Нижним уровням не нужно знать, как форматировать кадр FTP, а верхним уровням не нужно знать, как переносить пакет по Ethernet - состояние уменьшается на обоих концах модели. Поверхности управляются путем уменьшения количества точек взаимодействия между различными компонентами до одного - Интернет-протокола (IP). Эту единственную точку взаимодействия можно четко определить с помощью процесса стандартизации, при этом изменения в одной точке взаимодействия тщательно регулируются. Оптимизация осуществляется путем разрешения одному слою проникать в другой слой, а также путем сокрытия состояния сети от приложений. Например, TCP на самом деле не знает состояния сети, кроме того, что он может собрать из локальной информации. TCP потенциально может быть гораздо более эффективным в использовании сетевых ресурсов, но только за счет нарушения уровня, которое открывает трудноуправляемые поверхности взаимодействия. Таким образом, наслоение многоуровневой сетевой модели — это прямая попытка контролировать сложность различных взаимодействующих компонентов сети. Очень простой закон сложности можно сформулировать так: в любой сложной системе будут существовать наборы трехсторонних компромиссов. Описанная здесь модель State/Optimization/Surface (SOS) является одним из таких компромиссов. Еще один, более знакомый администраторам, работающим в основном с базами данных, - это Consistency/Accessibility/Partitioning (теорема CAP). Еще один, часто встречающийся в более широком диапазоне контекстов, — это Quick /Cost/Quality (QSQ). Это не компоненты сложности, а то, что можно назвать следствиями сложности. Администраторы должны быть искусны в выявлении такого рода компромиссных треугольников, точно понимать «углы» треугольника, определять, где в плоскости возможного лежит наиболее оптимальное решение, и быть в состоянии сформулировать, почему некоторые решения просто невозможны или нежелательны. Если вы не нашли компромиссов, вы недостаточно усердно искали — это хорошее эмпирическое правило, которому следует следовать во всех инженерных работах.
img
Основная цель любого проекта по разработке ПО – получить прибыль за счет автоматизации бизнес-процессов. Чем быстрее вы начнете выпускать новые версии, тем лучше для компании. Но как же научиться выпускать новые версии максимально быстро? Конечно же, все можно делать вручную. Например, подключить удаленный сервер через SSH, клонировать клонировать репозиторий с новым кодом, собрать его и запустить через командную строку. Да, такой способ работает, но он малоэффективен. Сегодня мы поговорим об автоматизации процесса разработки и выхода новых версий. CI и CD – это два сокращения, которые означают Continuous Integration (Непрерывная интеграция) и Continuous Delivery (Непрерывное развертывание). CI CI описывает процесс добавления изменений в репозиторий. Ниже схематически представлен простой пример коллективной разработки. Одновременно может работать целая группа людей, но все изменения передаются в главную ветку master поэтапно. Хотя даже в такой простой схеме возникает несколько вопросов. Как мы узнаем, что код, который идет в ветку master, компилируется? Мы хотим, чтобы разработчики писали тесты для кода. Как быть уверенными в том, что тестовое покрытие не уменьшится? Все сотрудники команды должны форматировать код в соответствие с определенным стилем. Как отследить возможные нарушения? Конечно же, все это можно проверить вручную. Но такой подход весьма хаотичен. Кроме того, по мере разрастания команды выполнять подобные проверки становится сложнее. CI используется для автоматизации выше обозначенных пунктов. Начнем с первого пункта. Как можно проверить, что новые изменения не сломают сборку? Для этого нам потребуется еще один блок в схеме. Большинство CI-процессов можно описать по следующему алгоритму. При открытии каждого Pull Request (запроса на включение изменений) и отправке новых изменений, Git-сервер отправляет уведомление CI-серверу. CI-сервер клонирует репозиторий, проверяет исходную ветку (например bugfix/wrong-sorting) и сливает ее с основной веткой master. Затем запускается скрипт сборки. Например ./gradlew build. Если команда возвращает код «0», то сборка прошла успешно. Все остальные значения считаются ошибкой. CI-сервер отправляет запрос на Git-сервер с результатом сборки. Если сборка прошла без ошибок, то Pull Request разрешается слить. В противном случае он блокируется. Данный процесс гарантирует, что код, попадающий в ветку master, не сломает дальнейшие сборки. Проверка тестового покрытия Давайте немного усложним задачу. Предположим, нам захотелось установить минимальный охват тестового покрытия. Это означает, что в любой момент времени покрытие ветки master должно быть не менее 50%. Плагин Jacoco идеально справляется с этой задачей. Вы просто настраиваете его так, чтобы при охвате тестового покрытия ниже допустимого, сборка уходила в ошибку. Реализовать такой подход проще некуда. Но есть небольшая оговорка. Этот метод работает только при условии, что плагин настраивался на старте проекта. Представим ситуацию: вы работаете над проектом, которому уже 5 лет. С момента первого коммита никто не проверял тестовое покрытие. Разработчики добавляли тесты в случайном порядке и без какой-либо организации. Но вот однажды вы решаете увеличить количество тестов. Вы настраиваете плагин Jacoco на минимальную планку в 60%. Спустя какое-то время разработчик открывает новый Pull Request. Затем разработчики вдруг понимают, что покрытие – всего лишь 30%. Так что для успешного закрытия задачи нужно покрыть не менее 30% кода продукта. Как вы можете догадаться, для проекта 5-летней давности – это практически неразрешимая проблема. Но что, если будут проверяться только будущие изменения в коде, а не весь продукт? Если в Pull Request разработчик изменит 200 строк, то нужно будет охватить не менее 120 из них (при тестовом покрытии в 60%). Тогда не придется проходить по множеству модулей, которые не относятся к задаче. В принципе, проблема решаема. Но как применить все это к проекту? К счастью, есть решение. Отчет Jacoco отправляется на сервер тестового покрытия. Одно из самых популярных решений – SonarCloud. Сервер хранит статистику по предыдущим вычислениям. Это очень удобно: вычислять тестовое покрытие не только всего кода, но и будущих изменений. Затем результат анализа отправляется на CI-сервер, который перенаправляет его на Git-сервер. Такая рабочая модель позволяет применять культуру обязательного тестирования на любой стадии развития продукта, поскольку проверяется лишь часть изменений. Если говорить о стиле оформления кода, то отличий практически нет. Можете попробовать плагин Checkstyle. Он автоматически отклоняет сборку, которая нарушает любое из заявленных требований. Например, в коде есть неиспользованный импорт. Кроме того, вы можете присмотреться к облачным сервисам, которые выполняют анализ кода и визуально отображают результаты в виде графиков (SonarCloud это тоже умеет). CD CD описывает процесс автоматического развертывания новой версии продукта. Давайте еще немного подкорректируем схему CI. Вот так конвейерный процесс CI/CD мог бы выглядеть в реальном проекте. Первое отличие – теперь CI-сервер называется CI/CD-сервером. Дело в том, что зачастую оба процесса (CI и CD) выполняются одним и тем же диспетчером задач. Так что мы будем рассматривать именно этот случай. Но так бывает не всегда. Например, задачи по интеграции могут делегироваться на GitLab CI, а задачи по доставке – отдаваться в Jenkins. Правая часть схемы изображает CI. Мы обсудили ее выше. Слева показана CD. Задача по CD создает проект (или повторно использует артефакты, полученные на стадии CI) и развертывает его на конечном сервере. Стоит отметить, что сервер в нашем случае – это понятие абстрактное. Например, развертывание может выполняться в кластер Kubernetes. Так что самих серверов может быть несколько. Обычно после стадии развертывания на почту приходят сообщения о выполнении. Например, CD-сервер может уведомлять подписчиков об успешном развертывании/ошибках. В любом случае, возникает важный вопрос. В какой момент мы должны запускать задачи по CD? Триггеры могут быть разными. Развертывание после каждого слияния Pull Request. Развертывание по расписанию. Развертывание после каждого слияния Pull Request с определенной веткой. Сочетание нескольких вариантов. В первом пункте процесс выстроен так, что задачи по CI и CD всегда выполняются последовательно. Данный подход весьма популярен при разработке программ с исходным кодом. Библиотека Semantic Release помогает настроить проект для прозрачной интеграции данной модели. Важно помнить о трактовке понятия deploy (развертывание). Это не всегда «что-то где-то запустить». Например, при разработке библиотеки, нет никакого запуска. В данном случае процесс развертывания означает выпуск новой версии библиотеки. Второй пункт не зависит от процесса CI, ведь проект развертывается по определенному расписанию. Например, ежедневно в 01:00. Третий пункт аналогичен первому, но с небольшими отличиями. Предположим, в репозитории у нас есть 2 основные ветки: develop и master. В develop содержатся самые последние изменения, а в master – только релизы версий. Если мы хотим развертывать только ветку master, то не нужно вызывать CD-задачу по слиянию в develop. Последний пункт – это сочетание подходов. Например, ветку develop можно развертывать по расписанию в среду разработки. А ветку master – в реальную среду по каждому слиянию Pull Request. Инструменты На рынке доступно множество решений по автоматизации процессов CI/CD. Ниже представлено несколько продуктов. Jenkins. Один из самых востребованных инструментов CI/CD в мире. Свою популярность он заслужил, благодаря политике открытого кода (open-source). То есть вам не нужно ни за что платить. В Jenkins вы можете императивно описывать конвейеры сборки с помощью Groovy. С одной стороны это достаточно гибкое решение, но с другой – требует более высокого уровня квалификации. GitHub Actions. Этот инструмент для CI/CD доступен для GitHub и GitHub Enterprise. В отличие от Jenkins, GitHub Actions предлагает декларативные сценарии сборки с YAML-конфигурацией. Кроме того, в данном решении доступна интеграция с различными системами обеспечения качества (например SonarCube). Таким образом, сборку можно описать в нескольких текстовых строках. GitLab CI. Во многом похож на GitHub Actions, но со своими особенностями. Например, GitLab CI может указывать на определенные тесты, вызывающие ошибку в сборке. Travis CI. Облачный CI/CD-сервис. Предлагает множество возможностей, не требующих сложных настроек. Например, шифрование данных, которые следует скрыть в публичном репозитории. Есть и приятный бонус в том, что Travis CI можно совершенно бесплатно использовать в публичных open-source проектах на GitHub, GitLab и BitBucket.
img
Виртуализация серверов – это разделение одного физического сервера на несколько виртуальных серверов, каждый из которых работает под управлением собственной операционной системы. Эти операционные системы также известны, как «гостевые операционные системы». Они в свою очередь работают в другой операционной системе, которая также известна, как «хостовая операционная система». Каждый «гость», который работает таким образом, не знает о других «гостях», которые работают на том же хосте. Для того, чтобы обеспечить такую незаметность, используются различные методы виртуализации.  Разновидности виртуализации сервера: Гипервизор Гипервизор, или VMM (virtual machine monitor – монитор виртуальных машин), - это своего рода слой между операционной системой и оборудованием. Он обеспечивает работу необходимых служб и функций для того, чтобы несколько операционных систем могли работать без сбоев.  Он выявляет ловушки, отвечает на инструкции привилегированного процессора, организует очереди, выполняет диспетчеризацию и отвечает на аппаратные запросы. Операционная система хоста, которая управляет виртуальными машинами работает поверх гипервизора. Паравиртуализация Паравиртуализация основана на гипервизоре. В этой модели обрабатывается больше всего ресурсов, которые необходимы для эмуляции и организации программных ловушек в программно реализованной виртуализации. Гостевая операционная система перед установкой на виртуальную машину модифицируется и заново компилируется.  Производительность модифицированной гостевой операционной системы повышается, так как она взаимодействует напрямую с гипервизором, а потребление ресурсов эмуляцией сходит на нет.  Пример : Xen в основном используют паравиртуализацию, где для поддержки административной среды, также известной как домен 0, используется настраиваемая среда Linux. Преимущества: Проще Повышенная производительность Нет дополнительного потребления ресурсов, связанного с эмуляцией Недостатки: Необходима модификация гостевой операционной системы   Полная виртуализация Полная виртуализация очень похожа на паравиртуализацию. Она может эмулировать базовое аппаратное обеспечение, если это необходимо. Гипервизор перехватывает машинные операции, которые операционная система использует для выполнения операций ввода-вывода или изменения состояния системы. После того, как операции были перехвачены, они эмулируются в программном обеспечении, при этом коды состояния почти полностью можно сопоставить с теми, которые могли быть предоставлены реальным аппаратным обеспечением. Именно поэтому немодифицированная операционная система может работать поверх гипервизора.  Пример : данный метод использует VMWare ESX. В качестве административной ОС используется настраиваемая версия Linux, также известная как Service Console. Этот метод не такой быстрый, как паравиртуализация.  Преимущества : Не требуется модификация гостевой операционной системы Недостатки : Сложный метод Более медленный из-за наличия эмуляции Затрудняет установку нового драйвера устройства   Виртуализация с аппаратной поддержкой Если говорить о принципе работы, то этот метод аналогичен полной виртуализации и паравиртуализации, за исключением того факта, что он требует аппаратной поддержки. Большая часть потребляемых гипервизором ресурсов при перехвате и эмуляции операций ввода-вывода и кодов состояния, которые выполняются в гостевой ОС, покрывается аппаратным расширением архитектуры х86.  Здесь можно запустить и немодифицированную ОС, так как для обработки запросов на доступ к оборудованию, привилегированных и защищенных операций, а также для связи с виртуальной машиной будет использоваться аппаратная поддержка виртуализации.  Пример : аппаратную поддержку виртуализации обеспечивают такие технологии, как AMd – V Pacifica и Intel VT Vanderpool. Преимущества : Не требуется модификация гостевой операционной системы Гипервизор потребляет не так много ресурсов Недостатки : Требуется аппаратная поддержка   Виртуализация на уровне ядра Вместо того, чтобы использовать гипервизор, слой виртуализации запускает отдельную версию ядра Linux и рассматривает связанную с ней виртуальную машину как процесс из пользовательского пространства на физическом хосте. Это в какой-то степени упрощает запуск нескольких виртуальных машин на одном хосте. Для связи между основным ядром Linux и виртуальной машиной используется драйвер устройства.  Для виртуализации требуется аппаратная поддержка (Intel VT или AMD - V). В качестве контейнеров отображения и выполнения для виртуальных машин используется немного модифицированный процесс QEMU. Во многом виртуализация на уровне ядра – это специализированная форма виртуализации серверов.  Пример : пользовательский режим Linux (UML - User – Mode Linux) и Kernel Virtual Machine (KVM). Преимущества : Не требуется специальное программное обеспечение для администрирования Низкое потребление ресурсов Недостатки : Требуется аппаратная поддержка   Виртуализация на системном уровне или уровне ОС Эта модель запускает несколько различных (с логической точки зрения) сред на одном экземпляре ядра операционной системы. Иначе его называют «подходом на основе общего ядра», так как все виртуальные машины используют одно общее ядро операционной системы хоста. Эта модель основана на концепции изменения корневого каталога «chroot». сhroot начинает свою работу во время загрузки. Ядро использует корневые файловые системы для загрузки драйверов и выполнения других задач инициализации системы на ранних этапах. Затем оно переключается на другую корневую файловую систему с помощью команды chroot для того, чтобы организовать новую файловую систему на диске в качестве окончательной корневой файловой системы и продолжить инициализацию и настройку системы уже в этой файловой системе.  Механизм chroot виртуализации на системном уровне – это расширение этой концепции. Он позволяет системе запускать виртуальные серверы с их собственным набором процессов, которые выполняются относительно их собственных каталогов файловой системы.  Основное различие между виртуализацией на уровне системы и виртуализацией серверов состоит в том, что в одном случае можно запускать различные операционные системы в разных виртуальных системах, а в другом – нет. Если речь идет о виртуализации на системном уровне, то все виртуальные серверы должны использовать одну и ту же копию операционной системы, а если о виртуализации серверов, то здесь на разных серверах могут быть разные операционные системы (в том числе и разные версии одной операционной системы).  Пример : FreeVPS, Linux Vserver, OpenVZ и другие. Преимущества : Значительно проще, чем укомплектованные машины (включая ядро) Можно разместить гораздо больше виртуальных серверов Повышенная безопасность и улучшенная локализация Виртуализация операционной системы практически не потребляет дополнительных ресурсов Благодаря виртуализации операционной системы возможна динамическая миграция Может использоваться динамическая балансировка нагрузки контейнеров между узлами и кластерами При виртуализации операционной системы можно использовать метод копирования при записи (CoW - copy-on-write) на уровне файла. Он упрощает резервное копирование данных, экономит пространство и упрощает кэширование в сравнении с копированием при записи на уровне блока.  Недостатки : Возникшие проблемы с ядром или драйвером могут вывести из строя все виртуальные серверы  
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59