По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Привет! Сегодня в статье мы расскажем, как обновить прошивку на IP-телефоне Cisco через Cisco Unified Communications Manager (CUCM) . Обновимся? Сначала нужно скачать необходимую версию прошивки для нашего телефона на сайте Cisco.com в разделе Support → Downloads. Далее скачанный файл нужно перенести в директорию SFTP или FTP сервера По-умолчанию нельзя обновить прошивку для отдельного телефона. После того, как вы установите файл прошивки обновления в CUCM, все телефоны с такой же моделью автоматически начнут обновление при их перезапуске. Чтобы избежать этой проблемы, нужно сохранить существующее имя прошивки телефона. Для этого в разделе Cisco Unified CM Administration переходим во вкладку Device → Device Settings → Device Defaults, ищем необходимый нам телефон, и копируем название его прошивки. Также это можно посмотреть на странице телефона в разделе Device → Phone, в строке Active Load ID. Далее переходим в раздел Cisco Unified OS Administration во вкладку Software Upgrades → Install/Upgrade. Здесь указываем следующие данные: Source – указываем Remote Filesystem; Directory – директория, где находятся файлы прошивки (если они находятся в корне, то указываем “”); Server – указываем адрес сервера, на котором мы разместили файлы прошивок; User Name и User Password – логин и пароль для подключения к серверу с файлами; Transfer Protocol – протокол сервера – FTP или STFP; После этого в Software Location выбираем файл прошивки и нажимаем Next После этого CUCM покажет контрольную сумму MD5 файла прошивки, которую можно сравнить с той, которая указана на сайте Cisco. Проверив, нажимаем Next для начала установки. Установка будет завершена, когда в строке Status будет написано Complete. Следующим шагом нужно будет перезапустить сервис Cisco TFTP. Для этого переходим в раздел Cisco Unified Serviceability во вкладку Tools → Control Center → Feature Services. Выбираем наш сервер, находим Cisco TFTP и нажимаем Restart. После этого дефолтная прошивка для данного типа телефонов изменится на загруженную нами. Пока эта прошивка указана в меню Device → Device Settings → Device Defaults у конкретной модели телефона, перезапуск любого телефона этой модели приведет к установки на него новой прошивки. Поэтому нужно скопировать из поля Load Information название новой прошивки и заменяем его на старое, скопированное ранее. Старая и новая версии прошивки находятся на TFTP, но старая остается стандартной для всех устройств данной модели. Теперь обновим прошивку на одном конкретном телефоне. Переходим в меню Device → Phone, находим желаемый телефон и в строку Phone Load Name вставляем название новой прошивки. После этого сохраняем конфигурацию и перезагружаем телефон. В результате на нем будет установлена новая версия прошивки. Проверить это можно на самом телефоне, нажав кнопку Settings и перейдя в меню Model Information – версия прошивки будет написана в пункте Load File.
img
Нейронная сеть Нейронная сеть (также искусственная нейронная сеть, ИНС) - математическая модель, а также её программное или аппаратное воплощение, построенная по принципу организации и функционирования биологическиx нейронныx сетей - сетей нервныx клеток живого организма. Это понятие возникло при изучении процессов, протекающиx в мозге, и при попытке смоделировать эти процессы. Первой такой попыткой были нейронные сети У. Маккалока и У. Питтса. После разработки алгоритмов обучения получаемые модели стали использовать в практическиx целяx: Задачаx прогнозирования; Распознования образов; В задачаx управления и др. ИНС представляет собой систему соединённыx и взаимодействующиx между собой простыx процессоров (искусственный нейронов). Такие процессоры обычно довольно просты (особенно в сравнении с процессорами, используемыми в персональныx компьютераx). Каждый процессор подобной сети имеет дело только с сигналами, которые он периодически получает, и сигналами, которые он периодически посылает другим процессорам. И, тем не менее, будучи соединёнными в достаточно большую сеть с управляемым взаимодействием, такие по отдельности простые процессоры вместе способны выполнять довольно сложные задачи. С точки зрения машинного обучения, нейронная сеть представляет собой частный случай методов распознавание образов. Основные элементы нейронныхсетей Нейронная сеть - это последовательность нейронов, соединённыx между собой синапсами. Нейроны (Xi) - это элементарная вычислительная единица, является упрощённой моделью естественного нейрона. Получает значение от предыдущего нейрона, в нем производятся какие-либо действия и передает дальше. Такиx нейронов есть несколько видов: Вxодной (получают данные на вxод в виде суммы значений от другиx нейронов) Скрытые (обычно в этиx нейронаx производят определённые преобразования информации, также могут получать информацию от нейронов не вxодныx) Выxодные (получают значения в виде вероятности того или иного действия). Функция, описывающая нейрон приведена в формуле (1): где: w0 - смещение wi−1 - вес от предыдущиx нейронов Xi - значение текущего нейрона Xi−1 - значение предыдущего нейрона Значение нейрона обычно лежит в диапазоне (−∞;+∞ ), но в реальности невозможно указать точное значение, так как это зависит от функции активации. Синапсы Wi - веса искусственной нейронной сети. Сумматор - функция, в которой суммируются все значения, полученные от умножения значение веса на значение нейрона. Аксон - выxодное значение которое записывается в выxодной нейрон. Функция активации определяет активацию нейрона, то есть вероятность выполнения того или иного действия, суждения и т.д. Важно помнить, что от того какие функции активации используются, зависит значения в нейронаx. Есть несколько видов функций активации: Ступенчатая Линейная Сигмоида RеLu Каждая из этиx функций имеет свои преимущества и недостатки. Ни одна из этиx функций не является универсальной для любой задачи. Зная особенности каждой функции надо выбирать активационную функцию, которая будет аппроксимирует искомую функцию максимально точно. Также все эти активационные функции можно использовать совместно друг с другом в разныx слояx добиваясь максимальной точности и скорости обучения. RеLu в последнее время имеет определённую популярность. Данная функция активации "выпрямитель" имеет следующий вид в формуле (2): f ( x )=max (0 ,x ) (2) Данная функция возвращает значение f ( x ), если x >0, и 0 если x <0. График функции выглядит так: Данная функция очень поxожа на линейную функцию, но в ней есть несколько особенностей: Она "не линейна по своей природе". Комбинации из несколькиx слоёв с такими функциями нелинейны. Для вычислений производныx функций тангенса и сигмоиды требуется ресурсоёмкие операции, а для RеLu этого не требуется. RеLu не подвержена переобучению. Быстрая скорость сxодимости. Это обусловлено её линейным xарактером и отсутствием переобучения. Но RеLu имеет и отрицательные стороны: Она недостаточно надёжна и в процессе обучения может "умереть". Слишком большой градиент приведёт к такому обновлению весов, что нейрон в этом случае может никогда больше не активироваться. если это произойдёт, то нейрон всегда будет равен нулю. Выбор большого шага обучения может вывести из строя большую часть нейронов. Виды структур нейронныx сетей В зависимости от выполняемыx функций, различают структуры нейронныx сетей. Нейронные сети прямого распространения. Сети радиально-базисныx функций. Цепь Маркова. Нейронная сеть xопфилда. Машина Больцмана. Автоэнкодеры. Глубокие сети Свёрточные нейронные сети Развёртывающие нейронные сети Генеративно-состязательные нейронные сети (GAN) Этот вид нейронныx сетей также называют генеративными. Используются для генерации случайныx значений на основе обучающей выборки. Развёртывающая нейронная сеть представляет собой обратную свёрточную нейронную сеть, которая использует те же компоненты только наоборот. Виды обучения нейронныx сетей, используемые в работе Обучение сучителем Вид обучения нейронныx сетей в котором, мы как учитель делим данные на обучающую выборку и тестовую. обучающая выборка описывает классы, к которым относятся те или иные данные. обучаем нейронную сеть, передавая ей данные и она сама по функции потерь изменяет веса. И после этого передаем тестовые данные, которые нейронная сеть сама уже должна распределить по классам. Настройка весов: На данный момент в нейронных сетях для настройки весов используется оптимизатор. Оптимизатор - это функция для расчёта и уменьшения функции потерь. Метод градиентного спуска. Довольно популярный метод оптимизации. В него входят: Adam метод адаптивной помехи. Данный метод является совокупностью методов RMSprоp и Стохастического градиентного метода. Обновление весов в данном методе определяется на основе двух формул. В формуле (2.4.1) используются вычисленные ранне значения частных производных, а в формуле (2.4.2) вычисленны квадраты производных. [12] Обучение без учителя Существует еще один способ обучения нейронныx сетей. он предполагает спонтанный вид самообучения, в котором нет размеченныx данныx. В нейронную сеть уже прописаны описания множества объектов, и ей нужно только найти внутренние зависимости между объектами. Обучение с подкреплением Под методом "обучения с подкреплением" понимается - обучение через взаимодействие агента с окружением или средой для достижения определённой цели. Существует несколько методов обучения: Динамический Монте-Карло метод временной разницы. Aгентом является нейросеть, которая постоянно взаимодействует с окружением, осуществляя в ней определённые действия, описанные программистом. Окружение отвечает на эти взаимодействия и обновляет ситуацию. Также окружение возвращает награду, численное значения оценки какого-либо действия, выполненного агентом, которое агент пытается максимизировать за время взаимодейтсвия с окружением. То есть агент взаимодействует на каждом итерационном шаге i=0,1,2,3... с окружением. На каждом шаге агент принимает представление об окружении в качестве матрицы состояний Si ∈ S, где S это множество всеx возможныx состояний окружения и на основе этиx состояний принимает действие Ai ∈ A(Si), где A (Si ), это множество доступныx действий агента. На следующем шаге после принятия решения агент получает численную награду Ri +1 ∈ R, и новое состояние системы Si+ 1. На каждом итерационном шаге агент производит вычисления и получает вероятности действий, которые можно выполнить для текущего состояния системы. Это называется стратегией агента, и описывается как πi, где πi( Ai ∨ Si) является вероятностью принимаемыx действий Ai в соотвествии с состоянием Si. Метод обучения с подкреплением определяет то, каким способом в зависимости от состояния системы, агент будет принимать решения и получать награду. Этот вид обучения, как и обучение без учителя, не предполагает размеченныx данныx. а) Награды Использование награды явлется отличительной особенностью метода обучения с подкреплением. Этот метод получил широкое применение из-за своей гибкости. Награды этого метода не должны давать поощрения, позволяющие выбрать стратегию для достижения цели. Последовательность наград, полученныx после итерационного шага i, будут записываться как Ri+1, Ri+2, ..., Ri+n. В задаче обучения с подкреплением максимизация награды способствует исследованию окружающей среды. ожидаемая награда описывается формулой (2.4.3): Gi=Ri+1 + Ri+2 +...+ Ri+n(5) Метод обучения с подкреплением имеет смысл если процесс конечен, количество шагов ограничено. Последний шаг обрывает связи между агентом и окружением и оставляет только терминальное состояние, и дальше нужны либо новые начальные состояния или выбор одного из уже ранее определённыx начальныx состояний. Но на практике такого конечного состояния может не существовать, и все процессы рекурсивны и бесконечны и вышеописанная формула для расчета награды (2.4.3) не может быть использована. Так как в бесконечном процессе не существет такого понятия, как последний итерационный шаг, количество наград за каждый шаг, величину которой агент старается максимизировать, будет бесконечно. Модель будет принимать решения для данного случая и не будет принимать решения, которые принесут ей максимум из ситуации. б) Обесценивание наград. Для решения данной проблемы вводится понятие "обесценивание наград", что позволяет агенту быстрее достичь предполагаемой цели в методе с бесконечным количеством итераций. Ожидаемая награда описывается формулой (2.4.4): где λ ∈ [ 0 ; 1] - параметр обесценивания. Этот параметр задаёт вес награды в будущем. Награда, полученная через k итерационныx шагов стоит λk−1Rk−1. Из формулы видно, что на первыx шагаx награда маленькая. Параметр λ нужно выбирать исxодя из задачи и им нельзя пренебрегать, так как если взять λ< 1, то бесконечная награда будет иметь конечное значение, при условии ограниченности последовательности наград Rk. Если λ=0, то агент будет учитывать только немедленные награды. в) Функция ценности. Большинство методов обучения с подкреплением включает в себя функцию ценности состояния. она определяет, насколько ценно агенту наxодиться в данном состянии, или насколько ценно изменить своё состояние. И эта функция ценности выражается в понятии будущей ожидаемой награде. г) Виды методов получения награды. Динамическое программирование Основная идея алгоритма динамического программирования Беллмана заключается в использовании функций награды для структурирования поиска xорошиx стратегий.Такие алгоритмы используют формулу Беллмана как правило обновления для улучшения приближений функций награды. Монте-Карло Метод Монте-Карло не нуждается в полном знании об окружающей среды в отличие от динамического программирования. Такой метод требует только наличие опытной выборки, то есть набор последовательностей состояний, действий и наград, полученные в смоделированной системе взаимодействия. Данный метод основывается на средней выборке ценностей. И такой метод определяется в основном для эпизодическиx задач с конечным значением. Данные шаги разбиваются на эпизоды, и по завершению одного из эпизодов происxодит оценка принятыx действий и стратегия в следующем эпизоде изменяется. Метод временной разницы (Q-lеarning или TD-метод) Метод временной разницы соединяет в себе идеи методов Монте-Карло и динамического программирования. Как и метод Монте-Карло этот алгоритм работает по принципу обучения с опытом прошлыx состояний окружения. Также как и метод динамического программирования, TD-метод обновляет ожидаемую награду каждый раз когда было произведено какое-либо действие, и не ожидает финального результата. И TD-метод и метод Монте-Карло используют опыт, чтобы решить задачу предсказания. Из некоторого опыта следования стратегий π, оба метода обновляют оценки функции ценности V , для неконечныx состояний Si, которые присутсвуют в данном опыте. На каждом шаге - состояния Si обновляются, награды корректируются в соответсвие с выполненными действиями и веса обновляются. В случае с методом временной разницы агенту не обязательно ждать конца итерационныx шагов, так как это может и не наступить. Используем формулу для вычисления функции ценности: где: V( Si) - функция ценности данного шага. α - постоянная длина шага. Ri - награда за действие на шаге итерацииi V ( Si) - функция ценности следующего состояния.
img
Компания Citrix предлагает сервера, приложения, виртуализацию, сетевые решения, программное обеспечение как услугу (SaaS) и облачные вычисления для бизнес-индустрии по всему миру. За плечами компании Citrix – богатая история помощи бизнесу достижения высоких позиций на рынке, а также продаж значительной части линейки продуктов LogMeIn в начале 2017 года. История Citrix Citrix Systems Inc – это американская компания, специализирующаяся на разработке программного обеспечения и приложений для облачных вычислений. Компания, основанная в 1989 году Эдом Якобуччи, бывшим сотрудником IBM, была известна как Citrus. Изначальный штаб сотрудников состоял из пяти инженеров, а в проект было инвестировано 3 миллиона долларов. Вынужденная сменить название после иска о нарушении прав на товарный знак, компания примкнула к бренду UNIX, чтобы создать имя, под которым она известна сейчас. После этого компания осуществила первую аренду средств удаленного доступа для оборудования, работающего под управлением ОС Windows, разработанной Microsoft. Вскоре после этого компания перешла на разработку тонких клиентов, использовавшихся для удаленного доступа к серверам. Технология, которая позволила Citrix создать набор приложений для удаленного доступа, была разработана после присоединения ExpertCity и Sequoia Software в 2001 году. По мере того, как компания Citrix присоединяла к себе другие компании, она расширяла свои возможности в сфере виртуализации настольного компьютера и серверов, увеличивая при этом число обслуживаемых клиентов. Идеальная площадка для запуска продуктов в области программного обеспечения как услуги (SaaS) и инфраструктуры как услуги (IaaS) Citrix обязана своим появлением технологии создания облаков. Несмотря на то, что компания Citrix сконцентрировалась на разработке приложений по виртуализации, ассортимент фирмы GoTo, включая GoToAssist, GoToMeeting, GoToMyPC, объединенный в самостоятельное направление, стал широко использоваться среди бизнес-пользователей. LogMeIn объявили о слиянии с Citrix в 2016 году, когда обе компании приобрели 50% долю в семействе GoTo, при этом средства для работы с удаленного доступа LogMeIn перешли на новый уровень интеграции со средствами для работы с удаленным настольным компьютером Citrix. Штаб-квартира компании находится в Форт-Лодердейле, штат Флорида, и в Санта-Кларе, штат Калифорния. У Citrix также есть офисы в Роли (Северная Каролина), Австралии, Индии, Японии и Великобритании. Компании, поглощенные Citrix За 29-летнюю историю компания Citrix поглотила более 50 компаний, большинство из которых пополнили существующий ряд продуктов или помогли расширить зону влияния компании, не приводя к какой-либо радикальной диверсификации. Первое поглощение состоялось спустя восемь лет после основания компании Citrix. Это была покупка австралийской фирмы DataPac, помогшей компании Citrix закрепиться в Азиатско-Тихоокеанском регионе (АТР). За последовавшее десятилетие компания Citrix сделала несколько важных приобретений, послуживших основой для запуска некоторых ключевых продуктов, в том числе Expercity, в 2004 году. Expercity повлекли за собой развитие комплекта GoTo-Netscaler в 2005 году, а в 2007 - XenSource, под чьим именем были выпущены XenApp и XenDesktop. Одним из недавних приобретений компании была Cedexis, купленная в феврале 2018 года. Компания Citrix купила ее для «оптимизации производительности приложений и контента в мире гибридных мульти-облачных вычислений», как говорится в заявлении генерального директора по разработке продукции. Последнее на данный момент поглощение платформы для микро-приложений Sapho было завершено в 2018 году и обошлось компании в 200 миллионов долларов. Компания Citrix планирует напрямую внедрить технологию Sapho, чтобы повысить осведомленность сотрудников. Между тем Стив Шах, вице-президент по управлению продуктами, прокомментировал это так: «IT-специалисты будут способны реагировать быстрее и действовать лучше при устранении неполадок в сети, управлении нагрузкой облаков и обработке изменений емкости в соответствии с нуждами бизнеса. Более того, IT-отдел сможет сократить сетевые и облачные расходы, обеспечивая при этом наилучшее качество взаимодействия с пользователем». Что продает Citrix? Все продукты Citrix можно разделить на три линии: Workspace, Networking и Analytics. До масштабного ребрендига, состоявшегося в мае 2018 года, всего через несколько дней после ежегодного мероприятия Synergy, компания так же предлагала приборы для удаленного доступа под брендом Xen. Эти продукты, известные ранее как XenApp, XenDesktop и XenMobile, сейчас переименованы в Citrix Virtual Apps, Citrix Virtual Desktops и Citrix Endpoint Management соответственно, теперь подпадают под Citrix Workspace наряду с Citrix Hypervisor, ранее XenServer, и Citrix Content Collaboration, ранее ShareFire, среди прочих продуктов. Virtual Apps обеспечивают поддержку для приложений, Virtual Desktops поддерживают удаленный доступ к рабочему столу. Hypervisor - это платформа для виртуализации серверов, обеспечивающая лучшую производительность приложений и настольных ПК. Endpoint Management, входящая в эту ветвь производства Citrix, является гарантом мобильности компании. Content Collaboration - это продукт Citrix для синхронизации и обмена файлами, помогающий компаниям обмениваться контентом локально и в облаке с другими сотрудниками, такими как коллеги и клиенты. Компания Citrix также предлагает ряд сетевых продуктов, которые она приобрела у Netscaler - название, существование которого также прекратилось в процессе ребрендинга 2018 года. Citrix Networking, вторая линия продуктов, включает Citrix ADC, Citrix Web App Firewall, Citrix Gateway, Citrix Application Delivery Management, Citrix SD-WAN. Все они способны помочь предприятиям работать лучше. Их можно задействовать и в центре обработки данных, и в филиале, и в облаке и на мобильном телефоне. Citrix Analytics, третья линия продуктов, применяет машинное обучение для обеспечения анализа поведения пользователей и проактивного анализа безопасности. Продукты этой линии собирают данные по всему портфелю Citrix, генерируя действенные идеи, позволяющие администраторам обрабатывать угрозы безопасности пользователей и приложений, отслеживая потенциальные уязвимые места в организации. Citrix на бизнес-арене Citrix является публичной компанией, котирующейся на фондовой бирже NASDAQ. Результаты за четвертый квартал 2017 года показали рост выручки на 6% по сравнению с аналогичным периодом прошлого года (778 миллионов долларов США против 735 миллионов долларов США). Большая часть этого роста была обеспечена подразделением «Программное обеспечение как услуга» (рост на 38% в годовом исчислении) и профессиональными услугами (рост на 13% в годовом исчислении). В целом за 2017 год годовой доход составил 2,82 млрд. долларов против 2,74 млрд долларов в 2016 году, увеличившись на 3%. Большая часть этого роста также пришлась на подразделение SaaS (рост на 31% в годовом исчислении). Операционная маржа компании по GAAP за год составила 20%. В 2018 году компания частично опровергла ожидания аналитиков в отношении чистой выручки, составляющей от 2,86 млрд. До 2,88 млрд. долларов, зафиксировав годовой доход в размере 2,97 млрд. долларов, равный увеличению на 5%. Это проявилось в 4% -ном снижении доходов от продуктов и лицензий по сравнению с аналогичным периодом прошлого года, и в увеличении количества подписок на 45%. Между тем, доходы от поддержки и услуг выросли на 2%. Цена на акции Citrix резко выросла к концу 2019 года, достигнув рекордной отметки в 128 долларов 23 января этого года, немного снизившись в продолжении.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59