По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Выходим на новый уровень. Для изучения следующей темы вы уже должны хорошо понимать связующее дерево. Связующее дерево (Spanning Tree Protocol STP) — это важная тема. Есть много вещей, которые могут пойти не так, и в этой статье мы рассмотрим ряд инструментов, которые мы можем использовать для защиты нашей топологии связующего дерева. Для профессионалов PortFast: мы видели это в статье о spanning tree и rapid spanning tree. Он настроит порт доступа как пограничный порт, поэтому он переходит в режим forwarding немедленно. BPDU Guard: это отключит (err-disable) интерфейс, который имеет настроенный PortFast, если он получает BPDU. BPDUFilter: это будет подавлять BPDU на интерфейсах. Root Guard: это предотвратит превращение соседнего коммутатора в корневой мост, даже если он имеет лучший идентификатор моста. UplinkFast: мы видели это в статье о связующем дереве. Он улучшает время конвергенции. BackboneFast: мы также видели это в статье о связующем дереве. Оно улучшает время конвергенции, если у вас есть сбой косвенной связи. UplinkFast и BackboneFast не требуются для rapid spanning tree, поскольку оно уже реализовано по умолчанию. Мы начнем с BPDUguard: В топологии выше мы имеем идеально работающую топологию остовного дерева. По умолчанию связующее дерево будет отправлять и получать BPDU на всех интерфейсах. В нашем примере у нас есть компьютер, подключенный на интерфейсе fa0/2 коммутатора B. Есть кто-то, кто с враждебными намерениями мог бы запустить инструмент, который сгенерирует BPDU с превосходящим ID моста. Что же произойдет- так это то, что наши коммутаторы будут считать, что корневой мост теперь может быть достигнут через коммутатор B, и у нас будет повторный расчет связующего дерева. Звучит не очень хорошо, правда? Можно поставить человека (хакера) в середине топологии для атаки так, чтобы никто не знал. Представьте себе, что хакер подключает свой компьютер к двум коммутаторам. Если хакер станет корневым мостом, то весь трафик от коммутатора А или коммутатора C к коммутатору В будет проходить через него. Он запустит Wireshark и подождет, пока произойдет чудо. BPDUguard гарантирует, что, когда мы получаем BPDU на интерфейс, интерфейс перейдет в режим err-disable. Чтобы продемонстрировать работу BPDUguard будем использовать два коммутатора. Настроем интерфейс fa0/16 коммутатора B так, что он перейдет в режим err-disable, если он получит BPDU от коммутатора C. SwitchB(config)#interface fa0/16 SwitchB(config-if)#spanning-tree bpduguard enable Вот как вы включаете его в интерфейсе. Имейте в виду, что обычно вы никогда не будете делать это между коммутаторами. Вы должны настроить это на интерфейсах в режиме доступа, которые подключаются к компьютерам. А-а... вот и наш интерфейс. SwitchB(config-if)#no spanning-tree bpduguard SwitchB(config-if)#shutdown SwitchB(config-if)#no shutdown Избавиться от BPDUguard можно используя команды shut/no shut, чтобы сделать интерфейс снова рабочим. SwitchB(config)#spanning-tree portfast bpduguard Вы также можете использовать команду spanning-tree portfast bpduguard. Это позволит глобально активировать BPDUguard на всех интерфейсах, которые имеют включенный portfast. SwitchB(config)#spanning-tree portfast default Portfast также может быть включен глобально для всех интерфейсов, работающих в режиме доступа. Это полезная команда, позволяющая проверить свою конфигурацию. Вы видите, что portfast и BPDUGuard были включены глобально. BPDUGuard переведет интерфейс в режим err-disable. Кроме того, можно фильтровать сообщения BPDU с помощью BPDUfilter. BPDUfilter может быть настроен глобально или на уровне интерфейса и есть разница: Глобальный: если вы включите bpdufilter глобально, любой интерфейс с включенным portfast станет стандартным портом. Интерфейс: если вы включите BPDUfilter на интерфейсе, он будет игнорировать входящие BPDU и не будет отправлять никаких BPDU. Вы должны быть осторожны, когда включаете BPDUfilter на интерфейсах. Вы можете использовать его на интерфейсах в режиме доступа, которые подключаются к компьютерам, но убедитесь, что вы никогда не настраиваете его на интерфейсах, подключенных к другим коммутаторам. Если вы это сделаете, вы можете получить цикл. Для демонстрации работы BPDUfilter мы будем снова использовать коммутатор B и коммутатор C. SwitchB(config)#interface fa0/16 SwitchB(config-if)#spanning-tree portfast trunk SwitchB(config-if)#spanning-tree bpdufilter enable Он перестанет посылать BPDU и будет игнорировать все, что будет получено. SwitchB#debug spanning-tree bpdu Вы не увидите никаких интересных сообщений, но если вы включите отладку BPDU, то заметите, что он больше не отправляет никаких BPDU. Если вы хотите, вы также можете включить отладку BPDU на коммутаторе C, и вы увидите, что нет ничего от коммутатора B. SwitchB(config)#interface fa0/16 SwitchB(config-if)#no spanning-tree bpdufilter enable Давайте избавимся от команды BPDUfilter на уровне интерфейса. SwitchB(config)#spanning-tree portfast bpdufilter default Вы также можете использовать глобальную команду для BPDUfilter. Это позволит включить BPDUfilter на всех интерфейсах, которые имеют portfast. Еще один вариант, с помощью которого мы можем защитить наше связующее дерево, - это использовать RootGuard. Проще говоря, RootGuard позаботится о том, чтобы вы не принимали определенный коммутатор в качестве корневого моста. BPDU отправляются и обрабатываются нормально, но, если коммутатор внезапно отправляет BPDU с идентификатором верхнего моста, вы не будете принимать его в качестве корневого моста. Обычно коммутатор D становится корневым мостом, потому что у него есть лучший идентификатор моста, к счастью, у нас есть RootGuard на коммутатое C, так что этого не произойдет! Рассмотрим с вами конфигурацию с коммутатором B и коммутатором C. SwitchB(config)#spanning-tree vlan 1 priority 4096 Давайте убедимся, что коммутатор C не является корневым мостом. Вот как мы включаем RootGuard на интерфейсе. SwitchB#debug spanning-tree events Spanning Tree event debugging is on Не забудьте включить отладку, если вы хотите увидеть события. SwitchC(config)#spanning-tree vlan 1 priority 0 Давайте перенастроим коммутатор B, изменив приоритет на наименьшее возможное значение 0 на коммутаторе C. Он теперь должен стать корневым мостом. Вот так коммутатор B не будет принимать коммутатор C в качестве корневого моста. Это заблокирует интерфейс для этой VLAN. Вот еще одна полезная команда, чтобы проверить, работает ли RootGuard. Связующее дерево становится все более безопасным с каждой минутой! Однако есть еще одна вещь, о которой мы должны подумать… Если вы когда-либо использовали волоконные кабели, вы могли бы заметить, что существует другой разъем для передачи и приема трафика. Если один из кабелей (передающий или принимающий) выйдет из строя, мы получим однонаправленный сбой связи, и это может привести к петлям связующего дерева. Существует два протокола, которые могут решить эту проблему: LoopGuard UDLD Давайте начнем с того, что внимательно рассмотрим, что произойдет, если у нас произойдет сбой однонаправленной связи. Представьте себе, что между коммутаторами волоконно-оптические соединения. На самом деле имеется другой разъем для передачи и приема. Коммутатор C получает BPDU от коммутатора B, и в результате интерфейс стал альтернативным портом и находится в режиме блокировки. Теперь что-то идет не так... transmit коннектор на коммутаторе B к коммутатору C был съеден мышами. В результате коммутатор C не получает никаких BPDU от коммутатора B, но он все еще может отправлять трафик для переключения между ними. Поскольку коммутатор C больше не получает BPDU на свой альтернативный порт, он перейдет в forwarding режим. Теперь у нас есть one way loop (петля в один конец), как указано зеленой стрелкой. Один из методов, который мы можем использовать для решения нашего однонаправленного сбоя связи — это настройка LoopGuard. Когда коммутатор отправляет, но не получает BPDU на интерфейсе, LoopGuard поместит интерфейс в состояние несогласованности цикла и заблокирует весь трафик! Мы снова будем использовать эту топологию для демонстрации LoopGuard. SwitchA(config)#spanning-tree loopguard default SwitchB(config)#spanning-tree loopguard default SwitchC(config)#spanning-tree loopguard default Используйте команду spanning-tree loopguard по умолчанию, чтобы включить LoopGuard глобально SwitchB(config)#interface fa0/16 SwitchB(config-if)#spanning-tree portfast trunk SwitchB(config-if)#spanning-tree bpdufilter enable В примере у нас нет никаких волоконных разъемов, поэтому мы не сможем создать однонаправленный сбой связи. Однако мы можем смоделировать его с помощью BPDUfilter на интерфейсе SwitchB fa0/16. Коммутатор C больше не будет получать никаких BPDU на свой альтернативный порт, что заставит его перейти в режим переадресации. Обычно это вызвало бы петлю, но, к счастью, у нас есть настроенный LoopGuard. Вы можете увидеть это сообщение об ошибке, появляющееся в вашей консоли. Проблема решена! SwitchC(config-if)#spanning-tree guard loop Если вы не хотите настраивать LoopGuard глобально, вы т можете сделать это на уровне интерфейса. Другой протокол, который мы можем использовать для борьбы с однонаправленными сбоями связи, называется UDLD (UniDirectional Link Detection). Этот протокол не является частью инструментария связующего дерева, но он помогает нам предотвратить циклы. Проще говоря, UDLD — это протокол второго уровня, который работает как механизм keepalive. Вы посылаете приветственные сообщения, вы их получаете, и все прекрасно. Как только вы все еще посылаете приветственные сообщения, но больше их не получаете, вы понимаете, что что-то не так, и мы блокируем интерфейс. Убедитесь, что вы отключили LoopGuard перед работой с UDLD. Мы будем использовать ту же топологию для демонстрации UDLD. Существует несколько способов настройки UDLD. Вы можете сделать это глобально с помощью команды udld, но это активирует только UDLD для оптоволоконных линий связи! Существует два варианта для UDLD: Normal (default) Aggressive Когда вы устанавливаете UDLD в нормальное состояние, он помечает порт как неопределенный, но не закрывает интерфейс, когда что-то не так. Это используется только для того, чтобы «информировать» вас, но это не предотвратит циклы. Агрессивный - это лучшее решение, когда пропадает связь с соседом. Он будет посылать кадр UDLD 8 раз в секунду. Если сосед не отвечает, интерфейс будет переведен в режим errdisable. SwitchB(config)#interface fa0/16 SwitchB(config-if)#udld port aggressive SwitchC(config)#interface fa0/16 SwitchC(config-if)#udld port aggressive Мы будем использовать коммутатор B и C, чтобы продемонстрировать UDLD. Будем использовать агрессивный режим, чтобы мы могли видеть, что интерфейс отключается, когда что-то не так. Если вы хотите увидеть, что UDLD работает, вы можете попробовать выполнить отладку. Теперь самое сложное будет имитировать однонаправленный сбой связи. LoopGuard был проще, потому что он был основан на BPDUs. UDLD запускает свой собственный протокол уровня 2, используя собственный MAC-адрес 0100.0ccc.сссс. SwitchC(config)#mac access-list extended UDLD-FILTER SwitchC(config-ext-macl)#deny any host 0100.0ccc.cccc SwitchC(config-ext-macl)#permit any any SwitchC(config-ext-macl)#exit SwitchC(config)#interface fa0/16 SwitchC(config-if)#mac access-group UDLD-FILTER in Это творческий способ создавать проблемы. При фильтрации MAC-адреса UDLD он будет думать, что существует сбой однонаправленной связи! Вы увидите много отладочной информации, но конечным результатом будет то, что порт теперь находится в состоянии err-disable. Вы можете проверить это с помощью команды show udld. LoopGuard и UDLD решают одну и ту же проблему: однонаправленные сбои связи. Они частично пересекаются, но есть ряд различий, вот общий обзор: LoopGuardUDLDНастройкиГлобально/на портуГлобально (для оптики)/на портуVLAN?ДаНет, на портуАвтосохранениеДаДа, но вам нужно настроить errdisable timeout.Защита от сбоев STP из-за однонаправленных связейДа - нужно включить его на всех корневых и альтернативных портахДа - нужно включить его на всех интерфейсах.Защита от сбоев STP из-за сбоев программного обеспечения (нет отправки BPDU)ДаНетЗащита от неправильного подключения (коммутационный оптический приемопередающий разъем)НетДа Есть еще одна последняя тема, которую хотелось бы объяснить, это не протокол связующего дерева, но речь идет о избыточных ссылках, поэтому я оставлю ее здесь. Это называется FlexLinks. Вот в чем дело: при настройке FlexLinks у вас будет активный и резервный интерфейс. Мы настроим это на коммутаторе C: Fa0/14 будет активным интерфейсом. Fa0/16 будет интерфейс резервного копирования (этот блокируется!). При настройке интерфейсов в качестве FlexLinks они не будут отправлять BPDU. Нет никакого способа обнаружить петли, потому что мы не запускаем на них связующее дерево. Всякий раз, когда наш активный интерфейс выходит из строя, резервный интерфейс заменяет его. SwitchC(config)#interface fa0/14 SwitchC(config-if)#switchport backup interface fa0/16 Именно так мы делаем интерфейс fa0/16 резервной копией интерфейса fa0/14. Вы можете видеть, что связующее дерево отключается для этих интерфейсов. Проверьте нашу конфигурацию с помощью команды show interfaces switchport backup. Вот и все, что нужно было сделать. Это интересное решение, потому что нам больше не нужно связующее дерево. Ведь в любой момент времени активен только один интерфейс. SwitchC(config)#interface f0/14 SwitchC(config-if)#shutdown Давайте закроем активный интерфейс. Вы можете видеть, что fa0/16 стал активным. Вот и все.
img
Что делать если у вас повредился образ операционной системы Cisco IOS вашего роутера? Из этой неприятной ситуации есть выход, и мы расскажем, что нужно сделать. Процесс Вы можете восстановить Cisco IOS, используя TFTP-сервер. Поскольку IOS находится во флэш-памяти маршрутизатора, поэтому сначала необходимо создать резервную копию флэш-файла IOS на TFTP-сервере, а затем восстановить IOS из флэш-файла, который вы сохранили на TFTP-сервере. Сначала выполните команду show flash, чтобы проверить имя файла флэш-памяти и скопировать имя файла. Затем выполните следующие команды, чтобы создать резервную копию флэш-файла на TFTP-сервере. Router#copy flash tftp Address or name of remote host []? < type tftp server IP address > Source filename []? < paste the flash file name > Destination filename [c2600-i-mz.122-28.bin]? < press enter to accept the default file name > Do you want to overwrite? [confirm] < press enter to overwrite the file > Теперь перезагрузите роутер. Когда роутер будет загружаться, нажмите CTRL + Pause Break, чтобы войти в режим ROMMON. Либо можно стереть flash память командой delete flash: и роутер будет автоматически переведен в режим ROMMON, поскольку флэш-память отсутствует. Как только вы войдете в режим ROMMON, вы увидите приглашение: rommon> В режиме ROMMON выполните следующие команды для восстановления Cisco IOS из режима ROMMON, где нужно указать сетевые настройки роутера, адрес TFTP сервера и имя файла, который вы загружаете как образ IOS. В конце выполните команду tftpdnld. rommon 1> IP_ADDRESS = 192.168.1.1 rommon 2> IP_SUBNET_MASK = 255.255.255.0 rommon 3> DEFAULT_GATEWAY = 192.168.1.100 rommon 4> TFTP_SERVER = 192.168.1.100 rommon 5> TFTP_FILE = c2600-i-mz.122-28.bin rommon 6> tftpdnld Далее мы получим предупреждение что все данные будут потеряны, и чтобы продолжить нажимаем Y. Флэш-файл будет загружен на маршрутизатор с TFTP-сервера. После восстановления файла флэш-памяти выполните команду reset, чтобы перезагрузить роутер. Теперь маршрутизатор загрузится с новым образом IOS.
img
Что такое оркестрация контейнеров? Контейнерные платформы, такие как Docker, в настоящее время очень популярны для упаковки приложений, основанных на микросервисной архитектуре. Контейнеры можно сделать высокомасштабируемыми, которые можно создавать по требованию. Это удобно, когда речь идет о нескольких контейнерах, но представьте, что у вас их сотни. Управление жизненным циклом контейнера и управление самим контейнером становится чрезвычайно трудным, когда число постоянно увеличивается по мере увеличения спроса. Оркестрация контейнеров решает проблему за счет автоматизации планирования, развертывания, масштабируемости, балансировки нагрузки, доступности и организации сетей контейнеров. Оркестрация контейнеров - это автоматизация и управление жизненным циклом контейнеров и услуг. Это процесс управления и организации архитектуры нескольких контейнеров и микросервисов в масштабе. К счастью, на рынке имеется много инструментов для оркестрации контейнеров. Давайте рассмотрим их! Что такое DevOps, что нужно знать и сколько получают DevOps - специалисты? 1. Kubernetes Kubernetes - платформа с открытым исходным кодом, изначально разработанная Google и в настоящее время поддерживаемая Cloud Native Computing Foundation. Kubernetes поддерживает как декларативную конфигурацию, так и автоматизацию. Это может помочь автоматизировать развертывание, масштабирование и управление контейнерной рабочей нагрузкой и услугами. API Kubernetes помогает установить связь между пользователями, компонентами кластера и внешними компонентами сторонних производителей. Уровень управления Kubernetes и сами узлы выполняются на группе узлов, которые вместе образуют кластер. Рабочая нагрузка приложения состоит из одного или нескольких модулей, которые выполняются на узле (узлах) Worker. Уровень управления контролирует группы контейнеров (Pod-ы) и рабочие узлы. Такие компании, как Babylon, Booking.com, AppDirect широко используют Kubernetes. Особенности Обнаружение служб и балансировка нагрузки Оркестрация системы хранения данных Автоматизированные развертывания и откаты Горизонтальное масштабирование Управление секретом и конфигурацией Самовосстановление Пакетное выполнение Двойной стек IPv4/IPv6 Автоматическая упаковка ячеек 2. OpenShift Redhat предлагает OpenShift Container Platform как сервис (PaaS). Он помогает автоматизировать приложения на безопасных и масштабируемых ресурсах в гибридных облачных средах. Он предоставляет платформы корпоративного уровня для создания, развертывания и управления контейнерными приложениями. Сервис построен на движке Redhat Enterprise Linux и Kubernetes. Openshift имеет различные функциональные возможности для управления кластерами через интерфейс пользователя и интерфейс командной строки. Redhat предоставляет Openshift еще в двух вариантах, Openshift Online - предлагается как программное обеспечение в качестве услуги (SaaS) Выделенный OpenShift - предлагается как управляемые услуги Openshift Origin (Origin Community Distribution) - родительский проект сообщества с открытым исходным кодом, который используется в OpenShift Container Platform, Openshift Online и OpenShift Distributed. 3. Nomad Nomad - это удобный, гибкий и простой в использовании оркестратор рабочей нагрузки для развертывания контейнеров и неконтейнерных приложений и управления ими не зависимо от того расположены они в облачной или в локальной среде. Nomad работает как единый двоичный файл с небольшим ресурсом (35MB) и поддерживается в macOS, Windows, Linux. Разработчики используют декларативную инфраструктуру как код (IaC) для развертывания своих приложений и определяют способ развертывания приложения. Nomad автоматически восстанавливает приложения после сбоев. Nomad подходит для оркестрации любого типа приложений (не только контейнеры). Она обеспечивает первоклассную поддержку Docker, Windows, Java, виртуальных машин и многого другого. Особенности Простота и надежность Модернизация устаревших приложений без перезаписи Проверенная масштабируемость Поддержка работы с несколькими облаками Встроенная интеграция с Terraform, Consul и Vault 4. Docker Swarm Docker Swarm использует декларативную модель. Можно определить требуемое состояние службы, и Docker будет поддерживать это состояние. Docker Enterprise Edition интегрировал Kubernetes с Swarm. Docker теперь обеспечивает гибкость в выборе движка оркестровки. Интерфейс командной строки Docker Engine используется для создания роя Docker движков, в которых могут быть развернуты службы приложений. Для взаимодействия с кластером используются команды Docker. Машины, которые присоединяются к кластеру, называются узлами, а управление действиями кластера осуществляет менеджер Swarm. Docker Swarm состоит из двух основных компонентов: Менеджер (Manager) узлы-менеджеры назначают задачи рабочим узлам роя. Лидер избирается на основе консенсусного алгоритма Рафта. Руководитель обрабатывает все решения по управлению роем и оркестровке задач для роя. Рабочий узел - рабочий узел получает задачи от узла менеджера и выполняет их. Особенности Управление кластерами, интегрированное с Docker Engine Децентрализованное проектирование Декларативная модель службы Масштабирование Выверка требуемого состояния Многосерверная сеть Обнаружение услуг Балансировка нагрузки Безопасность по умолчанию Скользящие обновления 5. Docker Compose Docker Compose предназначен для определения и запуска многопоточных приложений, работающих вместе. Docker-compose описывает группы взаимосвязанных служб, которые совместно используют программные зависимости, и организованы и масштабированы вместе. Для настройки служб приложения можно использовать файл YAML (dockerfile). Затем с помощью команды docker-compose up можно создать и запустить все службы из конфигурации. docker-compose.yml выглядит следующим образом: version: '3' volumes: app_data: services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:6.8.0 ports: - 9200:9200 - 9300:9300 volumes: - ./elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./elastic-certificates.p12:/usr/share/elasticsearch/config/elastic-certificates.p12 - ./docker-data-volumes/elasticsearch:/usr/share/elasticsearch/data kibana: depends_on: - elasticsearch image: docker.elastic.co/kibana/kibana:6.8.0 ports: - 5601:5601 volumes: - ./kibana.yml:/usr/share/kibana/config/kibana.yml app: depends_on: - elasticsearch image: asadali08527/app:latest ports: - 8080:8080 volumes: - app_data:/var/lib/app/ С помощью Docker Compose можно включить код приложения в несколько независимо работающих служб, которые взаимодействуют с помощью внутренней сети. Инструмент предоставляет интерфейс командной строки для управления всем жизненным циклом приложений. Docker Compose традиционно был сосредоточен на разработке и тестировании рабочих процессов, но сейчас они фокусируются на более ориентированных на производство функциях. Docker Engine может быть автономным экземпляром, подготовленным с помощью Docker Machine, или целым кластером Docker Swarm. Особенности Несколько изолированных сред на одном хосте Сохранять данные тома при создании контейнеров Воссоздавать только измененные контейнеры Переменные и перемещение композиции между средами 6. MiniKube Minikube позволяет пользователям запускать Kubernetes локально. С помощью Minikube можно локально тестировать приложения внутри одноузлового кластера Kubernetes на персональном компьютере. В Minikube интегрирована поддержка Kubernetes Dashboard. Minikube работает под управлением последнего стабильного выпуска Kubernetes и поддерживает следующие функции: Балансировка нагрузки Мультигруппа Постоянные тома NodePorts Конфигурационные карты и секреты Container Runtime: Docker, CRI-O Включение CNI (интерфейс контейнерной сети) 7. Marathon Marathon предназначен для Apache Mesos, который может организовывать как приложения, так и фреймворки. Apache Mesos - менеджер кластеров с открытым исходным кодом. Mesos - проект компании Apache, способный выполнять как контейнерные, так и неконтейнерные рабочие нагрузки. Основными компонентами в кластере Mesos являются узлы-агенты Mesos, Mesos мастер, ZooKeeper, фреймворки. Фреймворки вместе с мастером создают расписание заданий для узлов-агентов. Разработчики используют платформу Marathon в основном для планирования заданий. Планировщик Marathon использует ZooKeeper для поиска текущего хозяина для отправки заданий. Планировщик Marathon и мастер имеют второго мастера, чтобы обеспечить высокую доступность. Клиенты взаимодействуют с Marathon с помощью REST API. Особенности Высокая доступность Приложения с отслеживанием состояния Красивый и мощный пользовательский интерфейс Ограничения Обнаружение служб и балансировка нагрузки Проверки работоспособности Подписка на событие Метрики API REST 8. Cloudify Cloudify - облачное средство оркестровки с открытым исходным кодом для автоматизации развертывания и управления жизненным циклом контейнеров и микросервисов. Она предоставляет такие функции, как кластеры по требованию, автоматическое восстановление и масштабирование на уровне инфраструктуры. Cloudify может управлять контейнерной инфраструктурой и управлять службами, работающими на контейнерных платформах. Его можно легко интегрировать с менеджерами контейнеров на базе Docker и самим Docker, включая следующие: Docker Docker Swarm Docker Composes Kubernetes Apache Mesos Cloudify помогает создавать, восстанавливать, масштабировать и удалять кластеры контейнеров. Оркестровка контейнеров является ключевым фактором в обеспечении масштабируемой и высокодоступной инфраструктуры, на которой могут работать менеджеры контейнеров. Cloudify обеспечивает возможность управления разнородными службами между платформами. Приложения можно развернуть с помощью CLI и Cloudify Manager. 9. Rancher Rancher - платформа с открытым исходным кодом, использующая оркестровку контейнеров, известную как скот. Он позволяет использовать такие службы оркестрации, как Kubernetes, Swarm, Mesos. Rancher предоставляет программное обеспечение, необходимое для управления контейнерами, чтобы организациям не требовалось создавать платформы контейнерных услуг с нуля, используя отдельный набор технологий с открытым исходным кодом. Rancher 2.x позволяет управлять кластерами Kubernetes, работающими на указанных клиентом поставщиках. Начало работы с Rancher - это двухшаговый процесс. Подготовка хоста Linux Подготовьте узел Linux с 64-разрядным Ubuntu 16.04 или 18.04 (или другим поддерживаемым дистрибутивом Linux, и не менее 4GB памяти. Установите поддерживаемую версию Docker на узел. Запуск сервера Чтобы установить и запустить Rancher, выполните следующую команду Docker на хосте: $ sudo docker run -d --restart=unless-stopped -p 80:80 -p 443:443 rancher/rancher Пользовательский интерфейс Rancher позволяет управлять тысячами кластеров и узлов Kubernetes. 10. Containership Containership предназначен для развертывания инфраструктуры Kubernetes с несколькими облаками и управления ею. Он гибок в работе с общедоступными, частными облачными средами и локальными средами с помощью единого инструмента. Он позволяет обслуживать, управлять и контролировать кластеры Kubernetes всех основных облачных провайдеров. Containership построена с использованием облачных инструментов, таких как Terraform для выделения ресурсов, Prometheus для мониторинга и Calico для управления сетями и политиками. Он построен на чистом Kubernetes. Платформа Containership предлагает интуитивно понятную панель управления, а также мощный REST API для коплексной автоматизации. Особенности Панель управления с поддержкой нескольких облачных платформ Журналы аудита Поддержка экземпляра графического процессора Модернизация без прерывания работы Запланированные шаблоны Интегрированные метрики Ведение журнала в реальном времени Развертывание с нулевым временем простоя Поддержка постоянных хранилищ Поддержка частных реестров Автоматическое масштабирование рабочей нагрузки Управление ключами SSH 11. AZK AZK - это инструмент оркестровки с открытым исходным кодом для сред разработки через файл манифеста (Azkfile.js), который помогает разработчикам устанавливать, настраивать и запускать часто используемые инструменты для разработки веб-приложений с различными технологиями с открытым исходным кодом. AZK использует контейнеры вместо виртуальных машин. Контейнеры подобны виртуальным машинам с более высокой производительностью и более низким потреблением физических ресурсов. Файлы Azkfile.js можно повторно использовать для добавления новых компонентов или создания новых с нуля. Он может использоваться совместно, что обеспечивает полный паритет между средами разработки на разных машинах программистов и снижает вероятность ошибок во время развертывания. 12. GKE GKE предоставляет полностью управляемое решение для оркестровки контейнерных приложений на Google Cloud Platform. Кластеры GKE созданы на основе Kubernetes. Вы можете взаимодействовать с кластерами с помощью Kubernetes CLI. Команды Kubernetes можно использовать для развертывания приложений и управления ими, выполнения задач администрирования, установки политик и мониторинга работоспособности развернутых рабочих нагрузок. Расширенные функции управления Google Cloud также доступны с кластерами GKE, такими как балансировка нагрузки Google Cloud, пулы узлов, автоматическое масштабирование узлов, автоматическое обновление, автоматическое восстановление узлов, ведение журнала и мониторинг с помощью операционного пакета Google Cloud. Google Cloud предоставляет инструменты CI/CD, помогающие создавать и обслуживать контейнеры приложений. Cloud Build можно использовать для создания образов контейнеров (например, Docker) из различных репозиториев исходного кода, а Container Registry - для хранения образов контейнеров. GKE - готовое для предприятия решение с предварительно разработанными шаблонами развертывания. 13. AKS AKS является полностью управляемым сервисом Kubernetes, предлагаемым Azure, который предлагает безсерверные Kubernetes, безопасность и управление. AKS управляет кластером Kubernetes и позволяет легко развертывать контейнерные приложения. AKS автоматически настраивает все главные и подчиненные узлы Kubernetes. Необходимо только управлять узлами агента и выполнять их обслуживание. AKS бесплатен; вы платите только за узлы агентов в кластере, а не за мастер узеал. Кластер AKS можно создать на портале Azure или программно. Azure также поддерживает дополнительные функции, такие как расширенные сетевые возможности, интеграция Azure с Active Directory и мониторинг с помощью Azure Monitor. AKS также поддерживает контейнеры Windows Server. Производительность кластера и развернутых приложений можно контролировать с помощью Azure Monitor. Журналы хранятся в рабочей области Azure Log Analytics. AKS сертифицирован как как совместимый с Kubernetes. 14. AWS EKS AWS EKS - полностью управляемый сервис Kubernetes. AWS позволяет запускать кластер EKS с помощью AWS Fargate, который является безсерверной мощностью для контейнеров. Fargate устраняет необходимость в выделении ресурсов и управлении серверами, позволяя платить за ресурс за приложение. AWS позволяет использовать дополнительные функции EKS, такие как Amazon CloudWatch, Amazon Virtual Private Cloud (VPC), AWS Identity, группы автоматического масштабирования и управление доступом (IAM), приложения мониторинга, масштабирования и балансировки нагрузки. EKS интегрируется с сеткой AWS App и предлагает собственный опыт Kubernetes. EKS работает под управлением последнего Kubernetes и сертифицирован как совместимый с Kubernetes Заключение Надеемся, что приведенный выше список дал общее представление о различных инструментах оркестрации контейнеров, и теперь в зависимости от ваших требований, будет легче выбрать подходящий.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59