По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
К Avaya Aura можно подключать не только «фирменные», но и сторонние SIP аппараты, а также SIP-софтфоны (Zoiper, MicroSIP, PhonerLite и так далее). Понятно, что полноценный функционал на таких аппаратах получить не получится, но совершать и принимать вызовы, а также использовать простые функции вполне возможно. В данной статье рассмотрим создание SIP-абонентов на релизах Avaya Aura 5.2 и 6.3 как на одних из самых распространенных. Создание SIP-абонента на релизе Avaya Aura 5.2 на базе медиа-сервера S8300 Подразумевается, что развернут не только Communication Manager (СМ), но и Session Manager (SES), на котором и будет происходить регистрация SIP-абонентов. На релизе 5.2 SIP-абоненты со стороны СМ только создаются как абоненты, но мониторинг их не осуществляется. Для СМ они всегда в состоянии Out of Service. Сначала на СМ создаем абонента. В GEDI может создавать абонентов очень легко и просто. Тут везде доступны подсказки, а выбор осуществляется с помощью мышки. Например, при нажатии на правую кнопку мыши в поле Type появится меню с выбором доступных типов подключаемых аппаратов. В консоли все тоже самое, только навигация осуществляется с клавиатуры и подсказки высвечиваются внизу экрана по нажатии F5. Вводим команду add station НОМЕР или NEXT. В случае NEXT будет выбран первый свободный номер из доступного номерного плана. Дальше будут приведены скриншоты с применением GEDI. Выбираем тип аппарата 9630SIP. В принципе можно выбрать любой тип аппарата, но аппараты 96хх серии являются более современными, а 9630 является средним аппаратом из этой серии. При этом поле Port будет автоматически выбран IP. Также лучше выставить IP SoftPhone? в y, что даст возможность использовать этот номер для регистрации софтфона. Поле Security Code НЕ ЗАПОЛНЯЕМ! Пароль для регистрации данного абонента будем вводить позже. Остальные настройки ничем не отличаются от настройки обычных абонентов. Остальные настройки ничем не отличаются от настройки обычных абонентов. Если необходимо настроить переадресацию при вызовах на этот номер, то настраиваем её на 3 странице: Unconditional – переадресация всех вызовов; Busy – переадресация при занятости абонента; No Reply – переадресация по неответу абонента; По каждому виду можно настраивать отдельно переадресацию для внутренних и внешних вызовов. Особенностью настройки SIP-абонента является необходимость указывать номер SIP-транка, созданного между СМ и SES. Дальше подключаемся через веб-браузер по адресу нашего CM и через Administration → SIP Enablemend Services попадаем в управление нашего SES. Далее Users → Add добавляем учетную запись для регистрации созданного ранее SIP-абонента. Важно: пароль для создаваемой учетной записи мы вводим именно на SES. В открывшейся форме заполняем: Primary Handle – указываем созданный ранее в СМ номер; User ID – указываем тот же номер; Password, Confirm Password – вводим и подтверждаем пароль для регистрации учетной записи; Host – указываем адрес SES, где будет регистрироваться абонент; First Name, Last Name – вводим имя и фамилию абонента; HostAdd Communication Manager Extension – ОБЯЗАТЕЛЬНО! отмечаем этот. Это позволит сразу перейти к настройке связанности регистрируемого аккаунта с номером в СМ; Далее нажимаем Add и Continue для сохранения настроек. После этого добавляем номер, созданный ранее на СМ для привязки созданного аккаунта к номеру. Далее нажимаем Add и Continue для сохранения настроек. Создание SIP-абонента на релизе Avaya Aura 6.3 Тут все немного проще. Настройка производится через System Manager. Он выполняет роль общей точки входа, объединяющей СМ и SES. Подключаемся по адресу System Manager. Далее User → User Management → Manage Users: На первой вкладке Identity вносим общую информацию о пользователе: заполняем поля, отмеченные звездочками. Имя и фамилию можно писать по-русски, они будут автоматически переведены в латиницу. Login name – вводится в формате НОМЕР@ДОМЕН (который заведен в System Manager заранее) Важно – пароль на этой странице не вводим! Переходим на вторую, основную вкладку Communication Profile, где и проводятся основные настройки. Именно тут и вводится пароль для регистрации абонента. Но вводить его нужно после заполнения всей необходимой информации, перед сохранением. Сначала добавляем Communication Address. Нажимаем New и заполняем форму: Type – автоматически подставится Avaya SIP; Handle – вводим номер абонента; Domain – выбираем из списка. Как правило он один и заведен в System Manager заранее; Далее заполняем 2 профайла: Session Manager Profile (данные, необходимые для регистрации); CM Endpoint Profile (данные, по которым будет создан абонент в Communication Manager); После заполнения нажимаем вверху страницы кнопку Commit для сохранения введенной информации. Для настроек самого абонента со стороны Communication Manager нажимаем View Endpoint. На вкладке General Options указываем номер SIP-транка, уровень ограничений (COR и COS) и так далее. На следующей вкладке Feature Options указываем необходимые функции данного абонента. В том числе отмечаем и IP SoftPhone, необходимую для использования SIP-софтфонов. После настройки сохраняем через кнопку Done. Теперь вводим и подтверждаем пароль для регистрации через этот профайл вверху страницы: Сохраняем и применяем настройки через кнопку Commit & Continue вверху страницы: На этом настройка SIP-абонента закончена. Теперь с использованием указанных данных можно зарегистрировать как сторонний SIP-аппарат, так и SIP-софтфон.
img
Что такое оркестрация контейнеров? Контейнерные платформы, такие как Docker, в настоящее время очень популярны для упаковки приложений, основанных на микросервисной архитектуре. Контейнеры можно сделать высокомасштабируемыми, которые можно создавать по требованию. Это удобно, когда речь идет о нескольких контейнерах, но представьте, что у вас их сотни. Управление жизненным циклом контейнера и управление самим контейнером становится чрезвычайно трудным, когда число постоянно увеличивается по мере увеличения спроса. Оркестрация контейнеров решает проблему за счет автоматизации планирования, развертывания, масштабируемости, балансировки нагрузки, доступности и организации сетей контейнеров. Оркестрация контейнеров - это автоматизация и управление жизненным циклом контейнеров и услуг. Это процесс управления и организации архитектуры нескольких контейнеров и микросервисов в масштабе. К счастью, на рынке имеется много инструментов для оркестрации контейнеров. Давайте рассмотрим их! Что такое DevOps, что нужно знать и сколько получают DevOps - специалисты? 1. Kubernetes Kubernetes - платформа с открытым исходным кодом, изначально разработанная Google и в настоящее время поддерживаемая Cloud Native Computing Foundation. Kubernetes поддерживает как декларативную конфигурацию, так и автоматизацию. Это может помочь автоматизировать развертывание, масштабирование и управление контейнерной рабочей нагрузкой и услугами. API Kubernetes помогает установить связь между пользователями, компонентами кластера и внешними компонентами сторонних производителей. Уровень управления Kubernetes и сами узлы выполняются на группе узлов, которые вместе образуют кластер. Рабочая нагрузка приложения состоит из одного или нескольких модулей, которые выполняются на узле (узлах) Worker. Уровень управления контролирует группы контейнеров (Pod-ы) и рабочие узлы. Такие компании, как Babylon, Booking.com, AppDirect широко используют Kubernetes. Особенности Обнаружение служб и балансировка нагрузки Оркестрация системы хранения данных Автоматизированные развертывания и откаты Горизонтальное масштабирование Управление секретом и конфигурацией Самовосстановление Пакетное выполнение Двойной стек IPv4/IPv6 Автоматическая упаковка ячеек 2. OpenShift Redhat предлагает OpenShift Container Platform как сервис (PaaS). Он помогает автоматизировать приложения на безопасных и масштабируемых ресурсах в гибридных облачных средах. Он предоставляет платформы корпоративного уровня для создания, развертывания и управления контейнерными приложениями. Сервис построен на движке Redhat Enterprise Linux и Kubernetes. Openshift имеет различные функциональные возможности для управления кластерами через интерфейс пользователя и интерфейс командной строки. Redhat предоставляет Openshift еще в двух вариантах, Openshift Online - предлагается как программное обеспечение в качестве услуги (SaaS) Выделенный OpenShift - предлагается как управляемые услуги Openshift Origin (Origin Community Distribution) - родительский проект сообщества с открытым исходным кодом, который используется в OpenShift Container Platform, Openshift Online и OpenShift Distributed. 3. Nomad Nomad - это удобный, гибкий и простой в использовании оркестратор рабочей нагрузки для развертывания контейнеров и неконтейнерных приложений и управления ими не зависимо от того расположены они в облачной или в локальной среде. Nomad работает как единый двоичный файл с небольшим ресурсом (35MB) и поддерживается в macOS, Windows, Linux. Разработчики используют декларативную инфраструктуру как код (IaC) для развертывания своих приложений и определяют способ развертывания приложения. Nomad автоматически восстанавливает приложения после сбоев. Nomad подходит для оркестрации любого типа приложений (не только контейнеры). Она обеспечивает первоклассную поддержку Docker, Windows, Java, виртуальных машин и многого другого. Особенности Простота и надежность Модернизация устаревших приложений без перезаписи Проверенная масштабируемость Поддержка работы с несколькими облаками Встроенная интеграция с Terraform, Consul и Vault 4. Docker Swarm Docker Swarm использует декларативную модель. Можно определить требуемое состояние службы, и Docker будет поддерживать это состояние. Docker Enterprise Edition интегрировал Kubernetes с Swarm. Docker теперь обеспечивает гибкость в выборе движка оркестровки. Интерфейс командной строки Docker Engine используется для создания роя Docker движков, в которых могут быть развернуты службы приложений. Для взаимодействия с кластером используются команды Docker. Машины, которые присоединяются к кластеру, называются узлами, а управление действиями кластера осуществляет менеджер Swarm. Docker Swarm состоит из двух основных компонентов: Менеджер (Manager) узлы-менеджеры назначают задачи рабочим узлам роя. Лидер избирается на основе консенсусного алгоритма Рафта. Руководитель обрабатывает все решения по управлению роем и оркестровке задач для роя. Рабочий узел - рабочий узел получает задачи от узла менеджера и выполняет их. Особенности Управление кластерами, интегрированное с Docker Engine Децентрализованное проектирование Декларативная модель службы Масштабирование Выверка требуемого состояния Многосерверная сеть Обнаружение услуг Балансировка нагрузки Безопасность по умолчанию Скользящие обновления 5. Docker Compose Docker Compose предназначен для определения и запуска многопоточных приложений, работающих вместе. Docker-compose описывает группы взаимосвязанных служб, которые совместно используют программные зависимости, и организованы и масштабированы вместе. Для настройки служб приложения можно использовать файл YAML (dockerfile). Затем с помощью команды docker-compose up можно создать и запустить все службы из конфигурации. docker-compose.yml выглядит следующим образом: version: '3' volumes: app_data: services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:6.8.0 ports: - 9200:9200 - 9300:9300 volumes: - ./elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./elastic-certificates.p12:/usr/share/elasticsearch/config/elastic-certificates.p12 - ./docker-data-volumes/elasticsearch:/usr/share/elasticsearch/data kibana: depends_on: - elasticsearch image: docker.elastic.co/kibana/kibana:6.8.0 ports: - 5601:5601 volumes: - ./kibana.yml:/usr/share/kibana/config/kibana.yml app: depends_on: - elasticsearch image: asadali08527/app:latest ports: - 8080:8080 volumes: - app_data:/var/lib/app/ С помощью Docker Compose можно включить код приложения в несколько независимо работающих служб, которые взаимодействуют с помощью внутренней сети. Инструмент предоставляет интерфейс командной строки для управления всем жизненным циклом приложений. Docker Compose традиционно был сосредоточен на разработке и тестировании рабочих процессов, но сейчас они фокусируются на более ориентированных на производство функциях. Docker Engine может быть автономным экземпляром, подготовленным с помощью Docker Machine, или целым кластером Docker Swarm. Особенности Несколько изолированных сред на одном хосте Сохранять данные тома при создании контейнеров Воссоздавать только измененные контейнеры Переменные и перемещение композиции между средами 6. MiniKube Minikube позволяет пользователям запускать Kubernetes локально. С помощью Minikube можно локально тестировать приложения внутри одноузлового кластера Kubernetes на персональном компьютере. В Minikube интегрирована поддержка Kubernetes Dashboard. Minikube работает под управлением последнего стабильного выпуска Kubernetes и поддерживает следующие функции: Балансировка нагрузки Мультигруппа Постоянные тома NodePorts Конфигурационные карты и секреты Container Runtime: Docker, CRI-O Включение CNI (интерфейс контейнерной сети) 7. Marathon Marathon предназначен для Apache Mesos, который может организовывать как приложения, так и фреймворки. Apache Mesos - менеджер кластеров с открытым исходным кодом. Mesos - проект компании Apache, способный выполнять как контейнерные, так и неконтейнерные рабочие нагрузки. Основными компонентами в кластере Mesos являются узлы-агенты Mesos, Mesos мастер, ZooKeeper, фреймворки. Фреймворки вместе с мастером создают расписание заданий для узлов-агентов. Разработчики используют платформу Marathon в основном для планирования заданий. Планировщик Marathon использует ZooKeeper для поиска текущего хозяина для отправки заданий. Планировщик Marathon и мастер имеют второго мастера, чтобы обеспечить высокую доступность. Клиенты взаимодействуют с Marathon с помощью REST API. Особенности Высокая доступность Приложения с отслеживанием состояния Красивый и мощный пользовательский интерфейс Ограничения Обнаружение служб и балансировка нагрузки Проверки работоспособности Подписка на событие Метрики API REST 8. Cloudify Cloudify - облачное средство оркестровки с открытым исходным кодом для автоматизации развертывания и управления жизненным циклом контейнеров и микросервисов. Она предоставляет такие функции, как кластеры по требованию, автоматическое восстановление и масштабирование на уровне инфраструктуры. Cloudify может управлять контейнерной инфраструктурой и управлять службами, работающими на контейнерных платформах. Его можно легко интегрировать с менеджерами контейнеров на базе Docker и самим Docker, включая следующие: Docker Docker Swarm Docker Composes Kubernetes Apache Mesos Cloudify помогает создавать, восстанавливать, масштабировать и удалять кластеры контейнеров. Оркестровка контейнеров является ключевым фактором в обеспечении масштабируемой и высокодоступной инфраструктуры, на которой могут работать менеджеры контейнеров. Cloudify обеспечивает возможность управления разнородными службами между платформами. Приложения можно развернуть с помощью CLI и Cloudify Manager. 9. Rancher Rancher - платформа с открытым исходным кодом, использующая оркестровку контейнеров, известную как скот. Он позволяет использовать такие службы оркестрации, как Kubernetes, Swarm, Mesos. Rancher предоставляет программное обеспечение, необходимое для управления контейнерами, чтобы организациям не требовалось создавать платформы контейнерных услуг с нуля, используя отдельный набор технологий с открытым исходным кодом. Rancher 2.x позволяет управлять кластерами Kubernetes, работающими на указанных клиентом поставщиках. Начало работы с Rancher - это двухшаговый процесс. Подготовка хоста Linux Подготовьте узел Linux с 64-разрядным Ubuntu 16.04 или 18.04 (или другим поддерживаемым дистрибутивом Linux, и не менее 4GB памяти. Установите поддерживаемую версию Docker на узел. Запуск сервера Чтобы установить и запустить Rancher, выполните следующую команду Docker на хосте: $ sudo docker run -d --restart=unless-stopped -p 80:80 -p 443:443 rancher/rancher Пользовательский интерфейс Rancher позволяет управлять тысячами кластеров и узлов Kubernetes. 10. Containership Containership предназначен для развертывания инфраструктуры Kubernetes с несколькими облаками и управления ею. Он гибок в работе с общедоступными, частными облачными средами и локальными средами с помощью единого инструмента. Он позволяет обслуживать, управлять и контролировать кластеры Kubernetes всех основных облачных провайдеров. Containership построена с использованием облачных инструментов, таких как Terraform для выделения ресурсов, Prometheus для мониторинга и Calico для управления сетями и политиками. Он построен на чистом Kubernetes. Платформа Containership предлагает интуитивно понятную панель управления, а также мощный REST API для коплексной автоматизации. Особенности Панель управления с поддержкой нескольких облачных платформ Журналы аудита Поддержка экземпляра графического процессора Модернизация без прерывания работы Запланированные шаблоны Интегрированные метрики Ведение журнала в реальном времени Развертывание с нулевым временем простоя Поддержка постоянных хранилищ Поддержка частных реестров Автоматическое масштабирование рабочей нагрузки Управление ключами SSH 11. AZK AZK - это инструмент оркестровки с открытым исходным кодом для сред разработки через файл манифеста (Azkfile.js), который помогает разработчикам устанавливать, настраивать и запускать часто используемые инструменты для разработки веб-приложений с различными технологиями с открытым исходным кодом. AZK использует контейнеры вместо виртуальных машин. Контейнеры подобны виртуальным машинам с более высокой производительностью и более низким потреблением физических ресурсов. Файлы Azkfile.js можно повторно использовать для добавления новых компонентов или создания новых с нуля. Он может использоваться совместно, что обеспечивает полный паритет между средами разработки на разных машинах программистов и снижает вероятность ошибок во время развертывания. 12. GKE GKE предоставляет полностью управляемое решение для оркестровки контейнерных приложений на Google Cloud Platform. Кластеры GKE созданы на основе Kubernetes. Вы можете взаимодействовать с кластерами с помощью Kubernetes CLI. Команды Kubernetes можно использовать для развертывания приложений и управления ими, выполнения задач администрирования, установки политик и мониторинга работоспособности развернутых рабочих нагрузок. Расширенные функции управления Google Cloud также доступны с кластерами GKE, такими как балансировка нагрузки Google Cloud, пулы узлов, автоматическое масштабирование узлов, автоматическое обновление, автоматическое восстановление узлов, ведение журнала и мониторинг с помощью операционного пакета Google Cloud. Google Cloud предоставляет инструменты CI/CD, помогающие создавать и обслуживать контейнеры приложений. Cloud Build можно использовать для создания образов контейнеров (например, Docker) из различных репозиториев исходного кода, а Container Registry - для хранения образов контейнеров. GKE - готовое для предприятия решение с предварительно разработанными шаблонами развертывания. 13. AKS AKS является полностью управляемым сервисом Kubernetes, предлагаемым Azure, который предлагает безсерверные Kubernetes, безопасность и управление. AKS управляет кластером Kubernetes и позволяет легко развертывать контейнерные приложения. AKS автоматически настраивает все главные и подчиненные узлы Kubernetes. Необходимо только управлять узлами агента и выполнять их обслуживание. AKS бесплатен; вы платите только за узлы агентов в кластере, а не за мастер узеал. Кластер AKS можно создать на портале Azure или программно. Azure также поддерживает дополнительные функции, такие как расширенные сетевые возможности, интеграция Azure с Active Directory и мониторинг с помощью Azure Monitor. AKS также поддерживает контейнеры Windows Server. Производительность кластера и развернутых приложений можно контролировать с помощью Azure Monitor. Журналы хранятся в рабочей области Azure Log Analytics. AKS сертифицирован как как совместимый с Kubernetes. 14. AWS EKS AWS EKS - полностью управляемый сервис Kubernetes. AWS позволяет запускать кластер EKS с помощью AWS Fargate, который является безсерверной мощностью для контейнеров. Fargate устраняет необходимость в выделении ресурсов и управлении серверами, позволяя платить за ресурс за приложение. AWS позволяет использовать дополнительные функции EKS, такие как Amazon CloudWatch, Amazon Virtual Private Cloud (VPC), AWS Identity, группы автоматического масштабирования и управление доступом (IAM), приложения мониторинга, масштабирования и балансировки нагрузки. EKS интегрируется с сеткой AWS App и предлагает собственный опыт Kubernetes. EKS работает под управлением последнего Kubernetes и сертифицирован как совместимый с Kubernetes Заключение Надеемся, что приведенный выше список дал общее представление о различных инструментах оркестрации контейнеров, и теперь в зависимости от ваших требований, будет легче выбрать подходящий.
img
Теперь вы знаете, как работают глобальные префиксы и подсети, а как насчет ID интерфейса? Мы еще не говорили о назначении IPv6-адресов нашим хостам. Назначение адресов хостам почти то же самое, что и для IPv4: Адреса должны быть уникальными для каждого хост; Вы не можете использовать префиксный адрес в качестве адреса хоста. Ранее мы писали про основы работы протокола IPv6 (Internet Protocol version 6). Вы можете настроить IPv6-адрес вручную вместе со шлюзом по умолчанию, DNS-сервером и т. д. или ваши хосты могут автоматически получить IPv6-адрес либо через DHCP, либо через что-то новое, называемое SLAAC (Stateless Address Autoconfiguration). Вот пример IPv6 адресов, которые вы могли бы выбрать для топологии, которая показана выше: Для интерфейсов роутера предлагаю использовать наименьшие числа, так как они легко запоминаются. В этом примере показан уникальный global unicast IPv6-адрес для каждого устройства. Это все, что касается global unicast адресов, так же мы должны рассмотреть уникальные локальные одноадресные адреса. Уникальные локальные адреса работают так же, как и частные адреса IPv4. Вы можете использовать эти адреса в своей собственной сети, если не собираетесь подключаться к Интернету или планируете использовать IPv6 NAT. Преимущество уникальных локальных адресов заключается в том, что вам не нужно регистрироваться в специализированном органе, чтобы получить дополнительные адреса. Вы можете распознать эти адреса, потому что все они начинаются с FD в шестнадцатеричном формате. Есть еще несколько правил, которым вы должны следовать, если хотите использовать уникальные локальные адреса: Убедитесь, что FD - это первые два шестнадцатеричных символ; Вам нужно составить 40-битный глобальный ID, вы можете выбрать все, что вам нравится; Добавьте 40-битный глобальный ID после "FD", чтобы создать 48-битный префикс; Следующие 16 бит должны использоваться для подсетей Это оставляет вам последние 64 бита для использования идентификатора интерфейса. Вот как выглядит уникальный локальный адрес: Это дает нам уникальный локальный адрес, который мы можем использовать в наших собственных сетях. Подсети global unicast адресов или уникальных локальных адресов точно такие же, за исключением того, что на этот раз мы сами создаем префикс вместо того, чтобы провайдер назначил нам глобальный префикс. Глобальный ID может быть любым, что вам нравится, с 40 битами у вас будет 10 шестнадцатеричных символов для использования. Вы можете выбрать что-то вроде 00 0000 0001, поэтому, когда вы поставите перед ним "FD", у вас будет префикс FD00:0000:0001::/48. Вы можете удалить некоторые нули и сделать этот префикс короче, он будет выглядеть так: FD00:0:1:: / 48 Теперь вы можете добавить различные значения за префиксом, чтобы сделать уникальные подсети: FD00:0:1:0000::/6; FD00:0:1:0001::/6; FD00:0:1:0002::/6; FD00:0:1:0003::/6; FD00:0:1:0004::/6; FD00:0:1:0005::/6; FD00:0:1:0006::/6; FD00:0:1:0007::/6; FD00:0:1:0008::/6; FD00:0:1:0009::/6; FD00:0:1:000A::/6; FD00:0:1:000B::/6; FD00:0:1:000C::/6; FD00:0:1:000D::/6; FD00:0:1:000E::/6; FD00:0:1:000F::/6; FD00:0:1:0010::/6; FD00:0:1:0011::/6; FD00:0:1:0012::/6; FD00:0:1:0013::/6; FD00:0:1:0014::/6; И так далее. Когда вы выполняете лабораторные работы, можно использовать простой глобальный ID. В конечном итоге вы получите короткий и простой в запоминании префикс. Для производственных сетей лучше использовать глобальный ID, чтобы он был действительно уникальным. Возможно, однажды вы захотите подключить свою сеть к другой сети, или, возможно, вам придется объединить сети. Когда обе сети имеют один и тот же глобальный идентификатор, вам придется изменить IPv6-адрес для объединённой сети. В случае, если глобальные идентификаторы отличаются, Вы можете просто объединить их без каких-либо проблем. Настройка на маршрутизаторе В оставшейся части этой статьи мы рассмотрим, как можно настроить IPv6 на наших роутерах. Если вы хотите настроить IPv6 адрес на роутере у вас есть два варианта: Вручную настроить 128-битный IPv6-адрес; Использовать EUI-64; Сначала я покажу вам, как вручную настроить IPv6-адрес, а затем объясню, что такое EUI-64. Вот что необходимо выполнить: OFF1(config)#interface fastEthernet 0/0 OFF1(config-if)#ipv6 address 2001:1234:5678:abcd::1/64 Вам нужно использовать команду ipv6 address, а затем вы можете ввести адрес IPv6. Префикс, который я использую, - это 2001:1234:5678:abcd, и этот роутер будет иметь в качестве своего адреса "хоста" "1". Если хотите Вы также можете ввести полный IPv6-адрес: OFF1(config)#interface fastEthernet 0/0 OFF1(config-if)#ipv6 address 2001:1234:5678:abcd:0000:0000:0000:0001/64 Эта команда будет иметь точно такой же результат, что и команда, введенная ранее. Мы можем проверить подсеть и IPv6-адрес следующим образом: OFF1#show ipv6 interface fa0/0 FastEthernet0/0 is up, line protocol is up IPv6 is enabled, link-local address is FE80::C000:18FF:FE5C:0 No Virtual link-local address(es): Global unicast address(es): 2001:1234:5678:ABCD::1, subnet is 2001:1234:5678:ABCD::/64 Данный вывод информации отображает global unicast адрес и нашу подсеть. Есть еще одна важная вещь, когда мы настраиваем IPv6 на роутере. По умолчанию роутер не будет пересылать никакие пакеты IPv6 и не будет создавать таблицу маршрутизации. Чтобы включить "обработку" пакетов IPv6, нам нужно включить его: OFF1(config)#ipv6 unicast-routing Большинство команд "ip" будут работать, просто попробуйте "ipv6" вместо этого и посмотрите, что он делает: OFF1#show ipv6 interface brief FastEthernet0/0 [up/up] FE80::C000:18FF:FE5C:0 2001:1234:5678:ABCD::1 OFF1#show ipv6 route connected IPv6 Routing Table - 3 entries Codes: C - Connected, L - Local, S - Static, R - RIP, B - BGP U - Per-user Static route, M - MIPv6 I1 - ISIS L1, I2 - ISIS L2, IA - ISIS interarea, IS - ISIS summary O - OSPF intra, OI - OSPF inter, OE1 - OSPF ext 1, OE2 - OSPF ext 2 ON1 - OSPF NSSA ext 1, ON2 - OSPF NSSA ext 2 D - EIGRP, EX - EIGRP external C 2001:1234:5678:ABCD::/64 [0/0] via ::, FastEthernet0/0 Теперь вы знаете, как настроить IPv6-адрес вручную и как его проверить. После, почитайте о том, как настроить IPv6 с EUI-64 на Cisco.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59