По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Функция как сервис или FaaS (Function as a service) это относительно новомодный термин, которым определяется возможность бессерверного запуска кусков кода, что дает возможность разработчикам писать и обновлять эти куски кода на лету, которые будут запускаться в результате отклика на какое-нибудь событие, к примеру, когда пользователь нажмет на элемент в веб-приложении. Благодаря этому масштабировать код и внедрять микросервисы становится на порядок проще. Что такое микросервисы? Небольшая аналогия: представьте себе большое полотно от известного художника - в нашем случае это будет веб-приложением. А теперь представьте себе большое произведение искусства, которое составлено из кусочков мозаики - причем каждый кусочек можно достать, немного модернизировать и починить, что практически невозможно в случае цельного веб-приложения. Такой подход к написанию приложения из набора модульных компонентов известен как микросервисная архитектура. Причем подобный подход довольно тепло воспринимается разработчиками, так как они могут создавать и модифицировать маленькие куски кода, которые относительно легко имплементировать в структуру приложения. Причем в монолитном приложении совершенно обратная ситуация, когда это приложение является огромной и экстремально сложной системой, где изменение одного из элементов может порушить его работу и процесс внесения изменения приближается по сложности к запуску шаттла. Таким образом, использование FaaS многократно снижает сложность внесения изменений и запуска нового кода, что дает возможность разработчикам сосредоточиться на самом коде, в то время как FaaS провайдер будет следить за нужным количеством вычислительных ресурсов и различных бэкэнд сервисов. Какие плюсы такой технологии? Увеличенная скорость разработки С FaaS разработчики могут тратить больше времени на логику приложения и не думать о том, куда и как это приложение воткнуть, что как правило ведет к более высокой скорости написания и имплементации кода. Bстроенная масштабируемость Так как FaaS платформы сами по себе легко масштабируемы в автоматическом режиме, разработчикам не нужно думать о моментах, в которые производительность приложения может пострадать - например, в различные часы наибольшей нагрузки. Всю заботу о масштабируемости возьмет на себя облачный провайдер. Оптимизация затрат Знаете, какой самый большой страх пользователя облачных серверов? Что вы наберете кучу серверов, а необходимой нагрузки не будет, что повлечет за собой в пустую простаивающие мощности. Логично, что появилась такая модель как FaaS, которая позволяет заказчикам платить только за то время, когда вычислительные мощности действительно работают. Какие минусы технологии FaaS? Снижение степени контроля системы в общем Учитывая, что всю заботу за железо, оркестрацию и прочее берет на себя провайдер, отладка кода и понимание цельной картинки может быть нетривиальной задачей - поэтому многие все еще предпочитают действовать по классической модели. Процесс тестирования становится гораздо сложнее Впихнуть невпихуемое, а именно микросервисное приложение (или целый комплект таких приложений) в локальное окружение для тестирование становится нетривиальной задачей, и часто начинают требоваться люди с нетривиальным опытом и экспертизой. Как начать использовать FaaS? Вам нужно начать переговоры с облачными провайдерами, которые предоставляют подобные сервисы - все просто. В первую очередь нужно будет понимать где будут располагаться ЦОДы провайдеры - так как в случае большого расстояния между ЦОДами могут начаться непрогнозируемые и странные проблемы. Список из таких провайдеров не велик, но всем хорошо знакомы эти имена: AWS (проект Lambda), Microsoft (Azure Functions) и Yandex Cloud Functions. Но в России выбор будет практически очевиден в пользу Яндекса, так как его сервера находятся ближе всего к нашей большой стране.
img
Буферизация пакетов для работы с перегруженным интерфейсом кажется прекрасной идеей. Действительно, буферы необходимы для обработки трафика, поступающего слишком быстро или несоответствия скорости интерфейса - например, при переходе от высокоскоростной LAN к низкоскоростной WAN. До сих пор это обсуждение QoS было сосредоточено на классификации, приоритизации и последующей пересылке пакетов, помещенных в очередь в этих буферах, в соответствии с политикой. Максимально большой размер буферов кажется хорошей идеей. Теоретически, если размер буфера достаточно велик, чтобы поставить в очередь пакеты, превышающие размер канала, все пакеты в конечном итоге будут доставлены. Однако, как большие, так и переполненные буферы создают проблемы, требующие решения. Когда пакеты находятся в буфере, они задерживаются. Некоторое количество микросекунд или даже миллисекунд добавляется к пути пакета между источником и местом назначения, пока они находятся в буфере, ожидая доставки. Задержка перемещения является проблемой для некоторых сетевых разговоров, поскольку алгоритмы, используемые TCP, предполагают предсказуемую и в идеале небольшую задержку между отправителем и получателем. В разделе активного управления очередью вы найдете различные методы управления содержимым очереди. Некоторые методы решают проблему переполненной очереди, отбрасывая достаточно пакетов, чтобы оставить немного места для вновь поступающих. Другие методы решают проблему задержки, поддерживая небольшую очередь, минимизируя время, которое пакет проводит в буфере. Это сохраняет разумную задержку буферизации, позволяя TCP регулировать скорость трафика до скорости, соответствующей перегруженному интерфейсу. Управление переполненным буфером: взвешенное произвольное раннее обнаружение (WRED) Произвольное раннее обнаружение (RED) помогает нам справиться с проблемой переполненной очереди. Буферы не бесконечны по размеру: каждому из них выделено определенное количество памяти. Когда буфер заполняется пакетами, новые поступления отбрасываются. Это не сулит ничего хорошего для критического трафика, такого как VoIP, от которого нельзя отказаться, не повлияв на взаимодействие с пользователем. Способ решения этой проблемы - убедиться, что буфер никогда не будет полностью заполнен. Если буфер никогда не заполняется полностью, то всегда есть место для приема дополнительного трафика. Чтобы предотвратить переполнение буфера, RED использует схему упреждающего отбрасывания выбранного входящего трафика, оставляя места открытыми. Чем больше заполняется буфер, тем больше вероятность того, что входящий пакет будет отброшен. RED является предшественником современных вариантов, таких как взвешенное произвольное раннее обнаружение (WRED). WRED учитывает приоритет входящего трафика на основе своей отметки. Трафик с более высоким приоритетом будет потерян с меньшей вероятностью. Более вероятно, что трафик с более низким приоритетом будет отброшен. Если трафик использует какую-либо форму оконного транспорта, например, такую как TCP, то эти отбрасывания будут интерпретироваться как перегрузка, сигнализирующая передатчику о замедлении. RED и другие варианты также решают проблему синхронизации TCP. Без RED все входящие хвостовые пакеты отбрасываются при наличии переполненного буфера. Для трафика TCP потеря пакетов в результате отбрасывания хвоста приводит к снижению скорости передачи и повторной передаче потерянных пакетов. Как только пакеты будут доставлены снова, TCP попытается вернуться к более высокой скорости. Если этот цикл происходит одновременно во многих разных разговорах, как это происходит в сценарии с отключением RED-free, интерфейс может испытывать колебания использования полосы пропускания, когда канал переходит от перегруженного (и сбрасывания хвоста) к незагруженному и недоиспользованному, поскольку все д throttled-back TCP разговоры начинают ускоряться. Когда уже синхронизированные TCP-разговоры снова работают достаточно быстро, канал снова становится перегруженным, и цикл повторяется. RED решает проблему синхронизации TCP, используя случайность при выборе пакетов для отбрасывания. Не все TCP-разговоры будут иметь отброшенные пакеты. Только определенные разговоры будут иметь отброшенные пакеты, случайно выбранные RED. TCP-разговоры, проходящие через перегруженную линию связи, никогда не синхронизируются, и колебания избегаются. Использование каналов связи более устойчиво. Управление задержкой буфера, Bufferbloat и CoDel Здесь может возникнуть очевидный вопрос. Если потеря пакетов - это плохо, почему бы не сделать буферы достаточно большими, чтобы справиться с перегрузкой? Если буферы больше, можно поставить в очередь больше пакетов, и, возможно, можно избежать этой досадной проблемы потери пакетов. Фактически, эта стратегия больших буферов нашла свое применение в различных сетевых устройствах и некоторых схемах проектирования сети. Однако, когда перегрузка канала приводит к тому, что буферы заполняются и остаются заполненными, большой буфер считается раздутым. Этот феномен так хорошо известен в сетевой индустрии, что получил название: bufferbloat. Bufferbloat имеет негативный оттенок, потому что это пример слишком большого количества хорошего. Буферы - это хорошо. Буферы предоставляют некоторую свободу действий, чтобы дать пачке пакетов где-нибудь остаться, пока выходной интерфейс обработает их. Для обработки небольших пакетов трафика необходимы буферы с критическим компромиссом в виде введения задержки, однако превышение размера буферов не компенсирует уменьшение размера канала. Канал имеет определенную пропускную способность. Если каналу постоянно предлагается передать больше данных, чем он может передать, то он плохо подходит для выполнения требуемой от него задачи. Никакая буферизация не может решить фундаментальную проблему пропускной способности сети. Увеличение размера буфера не улучшает пропускную способность канала. Фактически, постоянно заполненный буфер создает еще большую нагрузку на перегруженный интерфейс. Рассмотрим несколько примеров, противопоставляющих протоколов Unacknowledged Datagram Protocol (UDP) и Transmission Control Protocol (TCP). В случае VoIP-трафика буферизованные пакеты прибывают с опозданием. Задержка чрезвычайно мешает голосовой беседе в реальном времени. VoIP - это пример трафика, передаваемого посредством UDP через IP. UDP-трафик не подтверждается. Отправитель отправляет пакеты UDP, не беспокоясь о том, доберутся ли они до места назначения или нет. Повторная передача пакетов не производится, если хост назначения не получает пакет UDP. В случае с VoIP - здесь важно, пакет приходит вовремя или нет. Если это не так, то нет смысла передавать его повторно, потому что уже слишком поздно. Слушатели уже ушли. LLQ может прийти вам в голову как ответ на эту проблему, но часть проблемы - это слишком большой буфер. Для обслуживания большого буфера потребуется время, вызывающее задержку доставки трафика VoIP, даже если LLQ обслуживает трафик VoIP. Было бы лучше отбросить VoIP-трафик, находящийся в очереди слишком долго, чем отправлять его с задержкой. В случае большинства приложений трафик передается по протоколу TCP через IP, а не по протоколу UDP. TCP - протокол подтверждений. Отправитель трафика TCP ожидает, пока получатель подтвердит получение, прежде чем будет отправлен дополнительный трафик. В ситуации bufferbloat пакет находится в переполненном, слишком большом буфере перегруженного интерфейса в течение длительного времени, задерживая доставку пакета получателю. Получатель получает пакет и отправляет подтверждение. Подтверждение пришло к отправителю с большой задержкой, но все же пришло. TCP не заботится о том, сколько времени требуется для получения пакета, пока он туда попадает. И, таким образом, отправитель продолжает отправлять трафик с той же скоростью через перегруженный интерфейс, что сохраняет избыточный буфер заполненным и время задержки увеличивается. В крайних случаях отправитель может даже повторно передать пакет, пока исходный пакет все еще находится в буфере. Перегруженный интерфейс, наконец, отправляет исходный буферизованный пакет получателю, а вторая копия того же пакета теперь находится в движении, что создает еще большую нагрузку на уже перегруженный интерфейс! Эти примеры демонстрируют, что буферы неподходящего размера на самом деле не годятся. Размер буфера должен соответствовать как скорости интерфейса, который он обслуживает, так и характеру трафика приложения, который может проходить через него. Одна из попыток со стороны сетевой индустрии справиться с большими буферами, обнаруженными вдоль определенных сетевых путей, - это контролируемая задержка, или CoDel. CoDel предполагает наличие большого буфера, но управляет задержкой пакетов, отслеживая, как долго пакет находится в очереди. Это время известно, как время пребывания. Когда время пребывания пакета превысило вычисленный идеал, пакет отбрасывается. Это означает, что пакеты в начале очереди-те, которые ждали дольше всего-будут отброшены до пакетов, находящихся в данный момент в хвосте очереди. Агрессивная позиция CoDel в отношении отбрасывания пакетов позволяет механизмам управления потоком TCP работать должным образом. Пакеты, доставляемые с большой задержкой, не доставляются, а отбрасываются до того, как задержка станет слишком большой. Отбрасывание вынуждает отправителя TCP повторно передать пакет и замедлить передачу, что очень желательно для перегруженного интерфейса. Совокупный результат - более равномерное распределение пропускной способности для потоков трафика, конкурирующих за интерфейс. В ранних реализациях CoDel поставлялся в устройства потребительского уровня без параметров. Предполагаются определенные настройки по умолчанию для Интернета. Они включают 100 мс или меньше времени двустороннего обмена между отправителями и получателями, а задержка 5 мс является максимально допустимой для буферизованного пакета. Такая конфигурация без параметров упрощает деятельность поставщиков сетевого оборудования потребительского уровня. Потребительские сети являются важной целью для CoDel, поскольку несоответствие высокоскоростных домашних сетей и низкоскоростных широкополосных сетей вызывает естественную точку перегрузки. Кроме того, сетевое оборудование потребительского уровня часто страдает от слишком большого размера буферов.
img
Привет! Сегодня в статье рассказываем про внутреннее устройство маршрутизатора Cisco Маршрутизатор состоит из нескольких типов компонентов. Например, в любом маршрутизаторе Cisco есть 4 типа памяти и 2 типа портов. К основным компонентам любого маршрутизатора Cisco относится: Память ROM FLASH RAM NV-RAM Порты (интерфейсы и линии) CLI (Command Line Interface) ROM – это память, которая содержит программу (ROM - monitor) для начальной загрузки и самотестирования. Когда маршрутизатор включается, происходит диагностика аппаратного обеспечения специальной программой, называемой Power On Self Test (POST). Если эта диагностика не выявила ошибок, то далее загружается и запускается IOS из флэш-памяти. Флэш-память является перезаписываемой. Это позволяет обновлять IOS маршрутизатора Cisco. Если загрузчик не найден во флэш-памяти IOS, то ROM загружается с временной версией IOS. ROM нельзя переписать или стереть. Это постоянное запоминающее устройство (ПЗУ). Если IOS находится во флэш-памяти, то она загружается в оперативную память (RAM). После этого загрузчик находит файл конфигурации запуска в NVRAM. NVRAM-энергонезависимая оперативная память, поэтому ее содержимое не стирается. Если IOS не находит файл конфигурации запуска, она пытается загрузить файл конфигурации с сервера TFTP. Если сервер TFTP также не отвечает, то IOS переводится в режим начальной настройки устройства. В этом режиме пользователям задаются вопросы, которые позволяют быстро настроить маршрутизатор. Если IOS получает файл конфигурации запуска в NVRAM, то он загружается в оперативную память и становится файлом загрузочной конфигурации. Давайте более подробно рассмотрим назначение каждого компонента маршрутизатора Память Как было уже упомянуто, существует 4 типа памяти в Cisco IOS, которые приведены ниже: ROM - это память только для чтения. Она встроена в маршрутизатор. В плату вшита специальная программа-загрузчик, которая выполняет самотестирование. Это называется режимом мониторинга ROM. Когда маршрутизатор не может найти IOS, он загружается из ROM. FLASH - по умолчанию маршрутизатор определяет наличие флэш-памяти для загрузки IOS и, если она есть и рабочая, то далее происходит загрузка IOS в эту память. Это электронная перезаписываемая программируемая память. RAM - она также называется динамической оперативной памятью (random access memory). Оперативная память — это рабочая область процессора маршрутизатора Cisco. В этой памяти хранятся текущий конфигурационный файл и таблицы маршрутизации. NV-RAM - она называется энергонезависимой оперативной памятью. В NVRAM хранится файл конфигурации запуска, который используется для запуска системы. Порты Cisco IOS имеет интерфейсы и линейные входы двух типов. Интерфейсы соединяют маршрутизатор с другими устройствами, такими как маршрутизаторы и коммутаторы. Данные в сети проходят через эти порты. Ниже приводятся названия некоторых распространенных интерфейсов: Serial interface Ethernet interface Fast Ethernet interface Gigabit Ethernet interface Интерфейсы идентифицируются по их названию и номеру. Например, первый интерфейс FastEthernet известен как FastEthernet0/0. Некоторые семейства маршрутизаторов являются модульными, поэтому интерфейсы в них организованы в слоты. Поэтому, наряду с номером интерфейса, записывается и номер слота. Таким образом, вы можете ввести 2 интерфейса первого слота. Пример: i) FastEthernet0/2 Для настройки маршрутизатора используются отдельные (специальные) порты. Они называются линейными. Ниже приводятся названия некоторых таких портов: Console ports Auxiliary ports VTY ports USB ports Подобно интерфейсам, линейные входы также идентифицируются по типу линии и номеру линии. Так что, на первом консольном порту будет написано что-то вроде этого: Console0 Command Line Interface (CLI) IOS предоставляет интерфейс командной строки для взаимодействия с маршрутизатором Cisco. Интерфейс командной строки является единственным вариантом для настройки и управления устройствами Cisco. Вы можете получить к нему доступ через консоль или telnet-соединение. В CLI можно вводить команды и выполнять их. Этапы загрузки Маршрутизатора Каждое устройство Cisco при включении проходит определенные этапы загрузки. Эти этапы показаны ниже: Включается маршрутизатор. Загрузчик загружается из ROM Загрузчик запускает POST Загрузчик пытается загрузить IOS из флэш-памяти - Если IOS недоступна во флэш-памяти, то загружается базовая IOS из загрузочного ПЗУ. Если IOS находится во флэш-памяти, она загружается в оперативную память. IOV NVRAM пытается загрузить файл конфигурации запуска (startup config)- Если файл конфигурации запуска не найден в NVRAM, тогда IOS пытается загрузить файл конфигурации с сервера TFTP. Если сервер TFTP не отвечает, то маршрутизатор переходит в режим начальной конфигурации. Если файл конфигурации запуска находится в NVRAM, то он загружается в оперативную память. Конфигурация запуска записывается в оперативную память.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59