По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Если вы на пути изучения Kubernetes, начните с лабораторной среды. Использование лабораторной среды позволит вам правильно развернуть и получить рабочую среду Kubernetes и это является одним из лучших способов проведения экспериментов и обучения. В этой статье рассмотрим установку Minikube на Windows Hyper-V Server 2019, его конфигурацию и работу с приложениями и их развертываниями. Что такое Minikube? Minikube это простой и быстрый способ создать локальный кластер Kubernetes. Он работает на MacOs, Lunix и Windows системах. Также это отличный вариант для разработчиков и тех, кто еще плохо знаком или только начинает изучать Kubernetes. Некоторые возможности и особенности решения Minikube: Кроссплатформенность, т.е. поддерживает все основные ОС: Linux, macOS и Windows; В зависимости от возможностей, можно развернуть в виртуальной машине, контейнере или на железо; Поддержка Docker; Наличие драйверов для VmWare, VirtualBox, Docker, KVM, Hyper-V и др.; Поддержка последних версий Kubernetes; Docker API для быстрого развертывания образов; Использование дополнений (addons); Minikube обладает интегрированной поддержкой Dashboard Kubernetes Установка Minikube Для работы в Minikube на Hyper-v нужно выполнить следующие действия: Проверить соответствие минимальным требованиям Предварительно настроить Hyper-v server Выбрать диспетчер пакетов для установки Minikube Установить Minikube Запустить кластер Kubernetes Подключиться к кластеру, посмотреть дашборд 1. Проверка соответствия минимальным требованиям: Для развертывания и использования Minikube в соответствии с его документацией должны удовлетворяться следующие требования: 2 GB свободной оперативной памяти 2 или более CPU От 20 GB или более свободного дискового пространства Наличие интернет Docker container или виртуальная машина, например, VirtualBox или Hyper-V 2. Настройка Hyper-v server Какой-то специальной настройки Hyper-v не требует, должны выполняться стандартные требования для работы Hyper-v: 64-разрядный процессор с преобразованием адресов второго уровня (SLAT), достаточный объем оперативной памяти и быстрые диски. Поддержка виртуализации в BIOS/UEFI (у Intel - Intel VT, у AMD - AMD-V). Чтобы виртуальные системы имели доступ в интернет, нужно заранее создать внешний виртуальный коммутатор. Вначале посмотрим доступные сетевые адаптеры: Get-NetAdapter Найденное имя адаптера добавим в команду ниже. Создать новый внешний сетевой адаптер можно командой PowerShell New-VMSwitch -name ExternalSwitch -NetAdapterName "Ethernet 2" -AllowManagementOS $true В противном случае при первом запуске Minikube покажет ошибку: ! StartHost failed, but will try again: creating host: create: precreate: no External vswitch nor Default Switch found. A valid vswitch must be available for this command to run. Попросит выполнить minikube delete и отправит читать документацию: https://docs.docker.com/machine/drivers/hyper-v/ 3. Диспетчер пакетов В этой статье используется Windows Server 2019, и мы будем использовать Chocolatey, так как другой диспетчер пакетов - Windows Package Manager поддерживает только Windows 10. Из PowerShell выполним команды: iwr https://chocolatey.org/install.ps1 -outfile C:install.ps1 c:install.ps1 4. Инсталляция Minikube После установки Chocolatey нужно выполнить команду: choco install minikube 5. Запуск Если после выполнения команды minikube start он не запускается, значит нужно установить соответствующие драйвера и провайдер Для запуска с привилегированными правами, выполним: runas /noprofile /user:администратор powershell В нашем случае для Hyper-V выполняем: Enable-WindowsOptionalFeature -Online -FeatureName Microsoft-Hyper-V -All Проверим установку компонентов: Get-WindowsFeature –Name –hyper-v Выяснилось, что актуальная версия Minikube не работает c Hyper-v, понизим версию командой choco install minikube --version 1.6.2 --allow-downgrade затем удалим minikube delete и снова запустим minikube start 6. Подключение Проверить, что VM запущена, поможет команда PowerShell Get-vm Просмотреть, что окружение запущено можно командой kubectl get po –A Подготовим хостовую систему для работы браузеров, установив дополнительные компоненты: Add-WindowsCapability -Online -Name ServerCore.AppCompatibility~~~~0.0.1.0 И перезагрузим сервер, затем выполним команду minikube dashboard На сервер предварительно скопирован браузер Firefox, в нем откроем ссылку и убедимся в работоспособности.
img
Пока не начали, ознакомьтесь с материалом про обнаружение соседей в сетях. Реактивное распределение достижимости Возвращаясь к рисунку 9 в качестве справки, предположим, что развернута реактивная плоскость управления, и B хотел бы начать обмен потоками данных с G. Как C может разработать информацию о пересылке, необходимую для правильного переключения этого трафика? Маршрутизатор может отправить запрос по сети или отправить запрос контроллеру, чтобы обнаружить путь к месту назначения. Например: Когда B впервые подключается к сети, и C узнает об этом вновь подключенном хосте, C может отправить информацию о B в качестве достижимого пункта назначения на контроллер, подключенный к сети. Точно так же, когда G подключается к сети и D узнает об этом вновь подключенном хосте, D может отправить информацию о G как о достижимом пункте назначения контроллеру, подключенному к сети. Поскольку контроллер узнает о каждом хосте (или достижимом месте назначения), подключенном к сети (а в некоторых системах, также обо всей топологии сети), когда C необходимо узнать, как достичь хоста G, маршрутизатор может запросить контроллер, который может предоставить эту информацию. Примечание. Концепция централизованного контроллера подразумевает, что один контроллер предоставляет информацию для всей сети, но это не то, как термин централизованная плоскость управления обычно используется в мире сетевой инженерии. Однако идея централизации в сетевой инженерии довольно расплывчата. Вместо того, чтобы указывать на отдельное устройство, термин "централизованный" обычно используется для обозначения непереносимых скачков по сети и не вычисляемых каждым сетевым устройством независимо. Маршрутизатор (или хост) может отправить пакет проводника, который записывает маршрут от источника к месту назначения и сообщает эту информацию источнику проводника, который затем используется как исходный маршрут. Рисунок 10 иллюстрирует это. Используя рисунок 10 и предполагая исходную маршрутизацию на основе хоста: Хосту A необходимо отправить пакет H, но у него нет пути. A отправляет explorer на свой шлюз по умолчанию, маршрутизатор C. C не имеет маршрута к месту назначения, поэтому он пересылает explorer пакет по всем каналам, кроме того, по которому он получил пакет; следовательно, к B, D и E. B является хостом, не имеет дополнительных интерфейсов и не является целью explorer, поэтому он игнорирует explorer пакет. Ни у D, ни у E нет пути к H, поэтому они оба перенаправляют explorer на все интерфейсы, кроме того, на котором они получили пакет; следовательно, на канал с множественным доступом, совместно используемый между ними и F. F получает две копии одного и того же explorer пакета; он выбирает один на основе некоторых локальных критериев (таких как первый полученный или некоторая политика плоскости управления) и пересылает его на все интерфейсы, на которых он не получил пакет, к G. G получает пакет и, учитывая, что у него нет пути к H, пересылает его на единственное другое соединение, которое у него есть, что ведет к H. H принимает explorer и отвечает. В этой схеме каждое устройство на пути добавляет себя в список пройденных узлов перед пересылкой explorer пакета на все интерфейсы, кроме того, на котором он был получен. Таким образом, когда H получает explorer пакет (который в конечном итоге направлен на поиск пути к H), пакет теперь описывает полный путь от A до H. Когда H отвечает explorer, он помещает этот путь в тело пакета; когда A получит ответ, у него теперь будет полный путь от A до H. Примечание. В некоторых реализациях A не будет ни генерировать, ни получать ответ на пакет explorer. А с первого роутера, может выполнять эти функции. Точно так же сам H может не отвечать на эти пакеты explorer, а скорее G или любое другое сетевое устройство вдоль пути, имеющее информацию о том, как добраться до G. Однако в этих случаях общая концепция и обработка остаются теми же. Затем, чтобы отправить пакеты в H, A вставляет этот путь в заголовок пакета в виде исходного маршрута, содержащего путь [A, C, D, F, G, H]. Когда каждый маршрутизатор получает этот пакет, он проверяет исходный маршрут в заголовке, чтобы определить, на какой маршрутизатор перенаправить трафик следующему. Например, C проверит информацию о маршруте от источника в заголовке пакета и определит, что пакет должен быть отправлен в D следующим, в то время как D изучит эту информацию и определит, что ему нужно отправить пакет F. Примечание. В некоторых реализациях каждый explorer фактически отправляется в пункт назначения, который затем определяет, по какому пути должен идти трафик. На самом деле существует несколько различных способов реализации исходной маршрутизации; процесс, приведенный здесь, является лишь одним примером, объясняющим общую идею исходной маршрутизации. Упреждающее распределение доступности Проактивные плоскости управления, в отличие от реактивных плоскостей управления, распределяют информацию о достижимости и топологии по всей сети, когда информация становится доступной, а не тогда, когда она необходима для пересылки пакетов. Основная проблема, с которой сталкиваются плоскости упреждающего управления, заключается в обеспечении надежной передачи информации о доступности и топологии между узлами в сети, в результате чего все устройства имеют одинаковую информацию о доступности. Удаление информации о плоскости управления может привести к возникновению постоянных петель маршрутизации или к созданию черных дыр маршрутизации (так называемых, потому что они потребляют трафик, передаваемый в пункты назначения без следа), и то и другое серьезно снижает полезность сети для приложений. Существует несколько широко используемых механизмов для обеспечения надежной передачи информации плоскости управления по сети. Плоскость управления может периодически передавать информацию, задерживая более старую информацию. Это похоже на формирование соседей, поскольку каждый маршрутизатор в сети будет передавать имеющуюся информацию о доступности всем соседям (или на всех интерфейсах, в зависимости от плоскости управления) на основе таймера, обычно называемого таймером обновления или объявления. Информация о доступности, однажды полученная, хранится в локальной таблице и истекает по таймауту в течение некоторого периода времени, часто называемого таймером удержания (опять же, как при обнаружении соседа). Остальные описанные здесь механизмы полагаются на существующую систему обнаружения соседей, чтобы гарантировать надежную доставку - и постоянную надежность - информации о доступности. Во всех этих системах: Список соседей используется не только для управления передачей новой информации о доступности, но и для проверки правильности получения информации о доступности. Список соседей используется не только для управления передачей новой информации о доступности, но и для проверки правильности получения информации о доступности. В контексте распределения достижимости на основе соседей существует несколько обычно используемых механизмов для передачи определенной информации о доступности с устройства на устройство; часто любая заданная плоскость управления будет использовать более одного из описанных здесь методов. Плоскость управления может использовать порядковые номера (или какой-либо другой механизм) для обеспечения правильной репликации. Порядковые номера могут фактически использоваться для описания отдельных пакетов и больших блоков информации о доступности; Рисунок 11 иллюстрирует это. Получив пакет, получатель может отправить подтверждение получения пакета, отметив порядковые номера, которые он получил. Отдельный порядковый номер может использоваться для описания достижимости отдельного сетевого уровня. Информация (NLRI), передаваемая по сети. Информация NLRI, распределенная по нескольким пакетам, затем может быть описана с использованием одного порядкового номера. Плоскость управления может описывать базу данных для обеспечения правильной репликации. Например, плоскость управления может описывать информацию в базе данных как: Список порядковых номеров, соответствующих отдельным записям, содержащий информацию о доступности, содержащуюся в базе данных. Группы смежных порядковых номеров, содержащиеся в базе данных (несколько более компактный способ представления всех порядковых номеров) Набор порядковых номеров в паре с хешами информации в каждой записи информации о доступности; это имеет то преимущество, что не только описывает записи в базе данных, но также дает возможность получателю проверять содержимое каждой записи, но без переноса всей базы данных для выполнения проверки. Хэш по блокам записей о достижимости, содержащихся в базе данных, который может быть вычислен получателем для тех же записей и напрямую сравнен, чтобы определить, отсутствуют ли записи. Эти типы дескрипторов баз данных могут передаваться периодически, или только при наличии изменений, или даже в других конкретных ситуациях, чтобы не только обеспечить синхронизацию баз данных сетевыми устройствами, но и определить, что отсутствует или находится в ошибке, поэтому дополнительная информация может быть запрошена. Каждая из этих схем имеет преимущества и недостатки. Как правило, протоколы реализуют схему, которая позволяет реализации не только проверять отсутствующую информацию, но также информацию, которая была случайно повреждена либо в памяти, либо во время передачи.
img
В этой статье рассмотрим как решить следующие неисправности: При подключении к vCenter Server с помощью веб-клиента vSphere и при переходе к Домашней странице -> Сеть и безопасность возникают следующие симптомы: Нет доступных менеджеров NSX. В разделе "Сеть и инвентаризация безопасности" отображается сообщение о том, что менеджеры NSX имеют значение 0. При выборе NSX Home появляется сообщение об ошибке: No NSX Managers available. Verify current user has role assigned on NSX Manager Сбой отмены регистрации и повторной регистрации службы поиска в NSX Manager. Вы видите ошибку: NSX Management Service operation failed. Initialization of Admin Registration Service Provider failed. Root Cause: NSX Manager and Lookup service clocks are not in sync. They need to be synchronized. Please check NTP configuration Эта проблема возникает, когда vCenter Server и разрешение неправильно настроены для учетной записи, в которой выполнен вход. Решение Чтобы устранить эту проблему, правильно настройте разрешение для учетной записи. Чтобы правильно настроить разрешение для учетной записи: Войдите в диспетчер NSX с помощью веб-интерфейса пользователя. Щелкните Manage vCenter Registration (Управление регистрацией vCenter). Перейдите в раздел COMPONENTS > NSX Management (Компоненты -> Служба управления NSX). Убедитесь, что сервер vCenter настроен правильно. Также убедитесь, что разрешение настроено правильно для учетной записи, в которой выполнен вход. Примечания: Убедитесь, что та же проблема возникает с учетной записью administration@vsphere.local. Если диспетчер NSX виден с этой учетной записи, убедитесь, что учетная запись, которая имеет проблему, правильно настроена с разрешениями. Проверьте, синхронизированы ли часы службы NSX Manager и Lookup. Даже после того, как vCenter Server and Lookup Service покажет подключение в пользовательском интерфейсе NSX, выход из системы и возврат к ней с помощью учетной записи administrator@vsphere.local "Нет доступных менеджеров NSX", это может потребовать завершения существующих сеансов VC. Это можно сделать в веб-клиенте vSphere, перейдя на узел & кластеры. Выберите vCenter -> Manage -> Sessions (Управление) > Select All Sessions (кроме "This Session" (Этот сеанс)) -> Click Terminate Sessions (Завершить сеансы). Выйдите из системы и войдите обратно из сеанса. Убедитесь, что диспетчер NSX теперь виден.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59