По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
При подключении к vCenter Server через vSphere Web Client вы можете увидеть такое сообщение: 503 Service Unavailable (Failed to connect to endpoint: [N7Vmacore4Http20NamedPipeServiceSpecE:0x7f009c095810] _serverNamespace = / _isRedirect = false _pipeName =/var/run/vmware/vpxd-webserver-pipe) 503 Service Unavailable (Failed to connect to endpoint: [class Vmacore::Http::LocalServiceSpec:00000000006F92F0] _serverNamespace = /vsphere-client 503 Service Unavailable (Failed to connect to endpoint: [N7Vmacore4Http20NamedPipeServiceSpecE:0x7f0c6005e4c0] _serverNamespace = / _isRedirect = false _pipeName =/var/run/vmware/vpxd-webserver-pipe) 503 service unavailble fail to connect to end point. 503 Service Unavailable (Failed to connect to endpoint: [N7Vmacore4Http16LocalServiceSpecE:0x7f65e7834610] _serverNamespace = /vsphere-client _isRedirect = false _port = 909 503 Service Unavailable (Failed to connect to endpoint: [N7Vmacore4Http16LocalServiceSpecE:0x00007f2470005950] _serverNamespace = /sdk action = Allow _port = 8085) Ошибка 503 возникает, если один или более сервис или конечная точка недоступны. Например, когда сервис vSphere Web Client запущен, сервис vCenter Server может быть отключён или иметь статус Stopped. Рассказываем как исправить ошибку "503 Service Unavailable" в vSphere Web Client при подключении через vCenter. Решение Для устранения этой ошибки: Убедитесь, что соединение существует с устройства, пытающегося получить доступ к vCenter Server с помощью vSphere Web Client с telnet, выполнив следующую команду: telnet vcenter_fqdn 9443 Проверьте достаточно ли свободного места на разделе диска в vCenter Server Appliance, введя команду: df -h Убедитесь, что vCenter Server работает, введя эту команду: service-control --status –all Если сервис неожиданно прекратил работу, то можно запустить его следующей командой: service-control --start –all Если PSC имеет внешнее подключение, то также следует проверить работоспособность сервисов с PSC. Убедитесь, что VCSA имеет достаточно ресурсов для обработки запроса, стоит проверить потребление процессора/памяти на стороне хоста и VCSA с помощью команды top. Если все сервисы VC работают правильно и веб-клиент не открывается, то узнать подробнее о проблеме можно по вирго логам, расположенным по пути: Windows vCenter Server: C:ProgamDataVMwarevCenterServerlogsvsphere-clientlogs vCenter Server Appliance: /var/log/vmware/vsphere-client/logs/ Также изучите файл vpxd.log, находящийся: Windows vCenter Server: C:ProgramDataVMwarevCenterServerlogsvmware-vpx vCenter Server Appliance: /var/log/vmware/vpxd
img
Session Border Controller (контроллер граничных сессий) - сетевое устройство, которое может обеспечить безопасность VoIP, а так же соединять несовместимые (разнородные) сигнальные протоколы и медиа потоки, поступающие от различных устройств. SBC – устройства используются в корпоративных сетях и сетях провайдеров услуг и, как правило, развертываются на границе сети (точка входа провайдера в корпоративный контур). В основном, несмотря на способность устройств поддерживать H.323, SCCP и прочие, фокус работы SBC сделан на обеспечении безопасности SIP – протокола, а так же сопряжении различных версий SIP. Основная идея SBC защищает от атак сеть телефонии и соответствующие сервера, выполняя роль B2BUA (back-to-back user agent), схожую по типу работы с SIP прокси – сервером. Контроллер терминирует каждую сессию (завершает), а затем заново ее инициирует, выступая в роли агентского сервера UAS (User Agent Server) и агентским клиентом UAC (User Agent Client), работая с каждым из «плеч» вызова по отдельности. На базе собственных мощностей SBC реализует списки контроля доступа ACL, ограничение DDOS атак, а так же анализ пакетов на предмет искажения информации с целью нанести ущерб. Анализируя SIP, SBC анализирует заголовки и поле полезной нагрузки. Особенно это актуально в SDP – сообщениях, к которым может применяться множество правил модификации. Помимо сигнальной информации, SBC обрабатывает RTP потоки, тем самым, обеспечивает не только шифрование медиа, но и выполняет функции транскодинга (преобразования потока из одного кодека в другой) в случаях, когда две стороны SIP – коммуникации не могут согласовать параметры передачи данных в сообщениях SDP. Кстати, на SBC обычно реализуют так называемый SIP forking, который позволяет дублировать сессию на третье устройство, например, такое как система записи телефонных разговоров. В современных версиях SBC, сигнальная информация и потоки изолированы друг от друга (с точки зрения обработки устройством) – это обеспечивает высокие параметры масштабирования. Давайте рассмотрим на примеры схемы ниже принцип работы SBC:
img
Третья статья будет посвящена поиску и устранению неисправностей EtherChannels. Большинство проблем с EtherChannels происходит из-за неправильной конфигурации. Предыдущие статьи этого цикла: Устранение неполадок коммутации Cisco Траблшутинг STP (Spanning tree protocol) Case #1 В этом сценарии есть только два коммутатора и два интерфейса. Идея состоит в том, чтобы сформировать etherchannel путем объединения интерфейсов FastEthernet 0/13 и 0/14, но это не работает Сначала мы проверим, все ли интерфейсы работают. Да они все работают. Мы можем проверить, что port-channel interface был создан, но он не работает. Вот хорошая команда для проверки EtherChannel. Используйте суммарную информацию от команды show etherchannel summary, чтобы увидеть ваши port-channels. Мы видим, что коммутатор A настроен для LACP и коммутатор B для PAgP, а это никогда не будет работать. Лучшая команда для использования это show etherchannel detail. Это дает вам много информации, но нам особенно интересно узнать, настроен ли LACP для пассивного или активного режима. Интерфейсы в активном режиме будут "активно" пытаться сформировать EtherChannel. Интерфейсы в пассивном режиме будут отвечать только на запросы LACP. Вот вывод команды show etherchannel detail на коммутаторе B. Мы видим, что он был настроен для PAgP, и интерфейсы настроены для desirable режима. Если бы они были настроены на автоматический режим, мы бы увидели флаг А. SwitchB(config)#no interface po1 SwitchB(config)#interface fa0/13 SwitchB(config-if)#channel-group 1 mode passive SwitchB(config-if)#exit SwitchB(config)#interface fa0/14 SwitchB(config-if)#channel-group 1 mode passive Давайте сначала избавимся от port-channel interface. Если мы этого не сделаем, вы увидите ошибку при попытке изменить channel-group mode на интерфейсах. После изменения конфигурации мы видим, что port-channel1 поднялся. Задача решена! Извлеченный урок: убедитесь, что вы используете один и тот же режим EtherChannel с обеих сторон. Case #2 Ну что же давайте рассмотрим другую ошибку! Та же топология и EtherChannel, который не функционирует: Мы проверяем, что port-channel interface существует, но он не работает с обеих сторон. Мы также видим, что интерфейс FastEthernet 0/13 и 0/14 были добавлены к port-channel interface. Интерфейсы FastEthernet рабочие, поэтому мы знаем, что проблема не в этом. Давайте углубимся в конфигурацию EtherChannel. Мы видим, что FastEthernet 0/13 и 0/14 на коммутаторе A оба настроены на автоматический режим PAgP (из-за флага "A"). FastEthernet 0/13 и 0/14 на коммутаторе B также настроены на автоматический режим PAgP. Это никогда не сбудет работать, потому что оба коммутатора теперь пассивно ждут сообщений PAgP. SwitchB(config)#interface fa0/13 SwitchB(config-if)#channel-group 1 mode desirable SwitchB(config-if)#interface fa0/14 SwitchB(config-if)#channel-group 1 mode desirable Давайте изменим один из коммутаторов, чтобы он активно отправлял сообщения PAgP. EtherChannel сейчас работает. Проблема решена! Извлеченный урок: при использовании PAgP убедитесь, что хотя бы один из коммутаторов использует требуемый режим, или в случае LACP убедитесь, что один коммутатор находится в активном режиме. Case #3 Еще одна ситуация: EtherChannel настроен между коммутатором A и коммутатором B, но клиент жалуется, что соединение медленное ... что может быть не так? Быстрая проверка говорит нам, что port-channel interface работает. Команда show etherchannel detail дает нам много выходных данных, но она так же нам говорит, что происходит. Вы видите, что интерфейс FastEthernet 0/13 и 0/14 были настроены для port-channel, но коммутатор не смог связать их, потому что FastEthernet 0/14 настроен на 10 Мбит. Возможно, что это основная причина медленной скорости передачи данных. Мы будем использовать один из операторов для команды show. Нас интересует только то, чтобы увидеть вероятную причину, которую команда "show etherchannel detail" покажет. SwitchA(config)#interface fa0/14 SwitchA(config-if)#speed auto SwitchB(config)#interface fa0/14 SwitchB(config-if)#speed auto Давайте изменим скорость на авто. Мы должны убедиться, что FastEthernet 0/13 и 0/14 имеют одинаковую конфигурацию. Вероятно, вы увидите пару сообщений о том, что ваши интерфейсы переходят в состояние up и down. Теперь мы видим, что оба интерфейса были добавлены в port-channel... проблема решена! Извлеченный урок: убедитесь, что все интерфейсы, которые будут добавлены в port-channel, имеют одинаковую конфигурацию!
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59