По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Всем привет! Недавно в одной из статей мы рассказывали о подключении Third Party SIP к Cisco Unified Communications Manager (CUCM) . Сейчас же мы расскажем о том, как подключить к CUCM софтвон Cisco IP Communicator. Cisco IP Communicator представляет собой приложение, устанавливаемое на компьютер, которое позволяет использовать его как полноценный IP-телефон Cisco Настройка Первым делом в Cisco Unified CM Administration переходим во вкладку Device - Phone и нажимаем кнопку Add New. Тут в поле Phone Type из выпадающего меню выбираем Cisco IP Communicator и нажимаем Next. В следующем окне в поле Select the device protocol выбираем протокол SCCP, нажимаем Next и попадаем в окно Phone Configuration. Теперь открываем Cisco IP Communicator и заходим в меню его настроек. Тут во вкладке Network нужно указать Device Name у телефона. Это можно сделать либо используя MAC-адрес сетевого адаптера (Use Network Adapter to generate Device Name), либо указать его самому в формате SEP[mac-address] (Use This Device Name). Также тут указываем адрес TFTP сервера, на котором хранятся конфигурационные файлы. Затем возвращаемся в окно настройки телефона и заполняем следующие обязательные поля: Device Name – указываем выбранное нами имя, в формате SEP[mac-address]; Device Pool – Default по умолчанию; Phone Button Template – Standard CIPC SCCP; Device Security Profile – Cisco IP Communicator; После этого сохраняем настройки и в новом окне нажимаем Line [1] → Add a new DN, где в открывшемся окне в поле Directory Number указываем желаемый номер для софтфона. После сохранения настроек Cisco IP Communicator перезагрузится и будет готов к использованию.
img
Партнер данного материала Telegram-канал Админим с Буквой Тема статьи небольшая, но информация данная необходима для понимания ограничений на дисках в операционной системе Linux. В данной статье рассмотрим: Установка квоты Редактирование квоты Просмотр отчетов по квотам Квоты – это ограничения, налагаемые системным администратором на использование дискового пространства в операционных системах. Они позволяют гибко управлять ограниченным ресурсом для сервера свободным местом на жестком диске. Квоты можно устанавливать, как на отдельных пользователей, так и на группы пользователей. Для конфигурации и управления квотами используются следующие команды: quotaon – включение квоты quotaoff – выключение квоты edquota – редактирование квоты repquota - отчет по квотам У Windows Server, конечно намного богаче инструментарий по работе с квотами. Для этого выделена целый File Server Resource Manager, но в данной статье мы посмотрим, как это работает в Linux системах на примере Ubuntu Server. У меня есть смонтированый раздел /dev/sdc1 в папку /mnt/hard. Для того, чтобы работать с квотами, необходимо поставить пакет apt-get install quota. Для того, чтобы использовать квоты, нам необходимо добавить монтирование данного раздела в файл /etc/fstab. Добавляем следующую строчку: /dev/sdc1 /mnt/hard auto rw,user,auto,usrquota,grpquota 0 0 Где, раздел, куда монтируем, автоопределение файловой системы, раздел для записи, разрешаем монтирование пользователям, раздел будет монтироваться автоматически при старте системы и включаем пользовательскую квоту и групповую. Строка будет выглядеть как на картинке. Сохраняем и перезагружаем. Для начала выключаем все квоты, если они когда-нибудь ставились, для чистоты настройки quotaoff /mnt/hard. Следующая команда quotacheck – которая создаст квоту для пользователей и групп, у нее большой функционал, но мы ее используем именно в таком ключе. Квоту мы можем создать только полностью на примонтированный раздел – это связанно с файловой системой ext4. Существуют и другие файловые системы, в которых мы можем ставить квоты на папки и работать более гибко, например xfs. quotacheck –cug /mnt/hard. В данном случае мы квоту ставим полностью на раздел, который смонтирован в /mnt/hard. И как видим команда создала 2 файла aquota.group и aquota.user. Это файлы с настройками квот. Это двоичные файлы и при попытке их посмотреть, например, cat aquota.user мы увидим, нечто не читаемое. Для редактирования данных фалов настройки текстовый редактор не подойдет, и мы будем использовать отдельную команду edquota – u siadmin. Т.е команда -u указывает , что мы редактируем для пользователя и далее указывается непосредственно пользователь. Вот так выглядит редактирование. Мы видим, что здесь есть blocks – число 1К блоки, soft – мягкая квота, это квота, которую пользователь может превысить, но не более чем на неделю, hard – жесткая квота, это квота которую пользователь не сможет превысить вообще. Получается так, если пользователь siadmin поставит soft 10 и hard 30, и запишу файлик в 15КБ, то неделю моя квота терпит, а через неделю система скажет, что квота превышена и будет требовать очистки. Если создать сразу файл 40 КБ, то квота скажет, что нету места на жестком диске. Так же можно поставить квоту на inodes, т.е на уникальные идентификаторы файлов, каждому файлу присваивается уникальный идентификатор, следовательно, пользователь не может превысить их количество по квоте. Когда мы выполняем команду edquota, то для открытия открывается редактор, установленный по умолчанию. В данном случае редактор nano. Как было уже написано мягкая квота устанавливается на неделю и после чего начинает блокировать, если мы не уменьшили размер файлов или не уменьшили их количество, смотря какая квота была выставлена. Мы можем данный параметр изменить, выполнив sudo edquota –t. Думаю, открытый файл на редактирование, тут все интуитивно понятно. Меняем и сохраняем. Мы в файле /etc/fstab указали, что файловая система монтируется с применением квот, потом командой quotacheck создали квоты, а затем указали ограничения edquota. Но до сих пор квоты не включены, квоты не работают! Для того, чтобы квоты заработали используется команда sudo quotaon /mnt/hard. И как только мы эту команду дали, файлы созданные aquota.group и aquota.user будут отредактированы и квоты заработают. Чтобы посмотреть, как работают квоты, создадим файл текстовый. Но т.к монтировался раздел из под root, то необходимо сменить владельца папки /mnt/hard/. Это можно сделать командой chown siadmin:root /mnt/hard. И теперь спокойно можно создать файл touch test.txt. Теперь добавим в файл информацию несколько слов. edquota – u siadmin выполняем и видим, что число блоков изменилось. Добавим еще информации, еще раз поменяется количество блоков. Создадим еще один файл – изменится число inodes. Далее простым копирование увеличиваем количество файлов, пока не сработает квота. Соответственно мы одновременно можем использовать квоты и по размеру, и по inodes. Очень важный момент. Поднимаемся в корневую папку /. Команда sudo repqouta /mnt/hard покажет отчет по квотам. Есть еще интересная команда - man warnquota. Команда отправляет e-mail при превышении квоты. Но для этого необходимо настроить почтовый smtp сервер, который будет отправлять почту.
img
Сегодня в статье мы расскажем как перезапустить Агентов Управления (Management agents) в ESXi. Это может быть необходимо в случае если невозможно подключение напрямую к хосту ESXi или управление с помощью vCenter Server или если vCenter Server отображает сообщение об ошибке: Virtual machine creation may fail because agent is unable to retrieve VM creation options from the host (создание ВМ может потерпеть неудачу, из-за невозможности получения параметров создания виртуальных машин с хоста). Решение Для устранения неполадок с подключением ESXi перезапустите Агентов Управления на хосте ESXi Предупреждение: если LACP настроен на сеть VSAN не перезагружайте Агентов Управления при хостах ESXi под управлением vSAN. Перезапуск Агентов Управления может повлиять на задачи, которые выполняются на хосте ESXi в момент перезапуска Проверьте наличие каких-либо проблем с хранилищем перед перезапуском службы host deamon hostd или services.sh Перезапустите Агентов Управления ESXi используя Direct Console User Interface (DCUI) Подключитесь к консоли вашего ESXi хоста. Нажмите F2, чтобы настроить систему. Войдите в систему с правами администратора. Используйте стрелки вверх/вниз, чтобы перейти к устранению неполадок Troubleshooting Options -> Restart Management Agents (Функции -> Перезапустить Management Agents). Нажмите Enter. Нажмите F11 для перезапуска сервера. После перезапуска сервера, нажми Enter. Нажмите Esc для выхода Примечание: Вы можете также перезапустить службы с помощью Host Client. В Host Client выберите Host>> Manage>> Services и Restart (Хост >> Управление >> Услуги) и выберите услугу перезапуска. Перезапуск Агентов Управления с помощью ESXi Using ESXi Shell или Secure Shell (SSH) Войдите в систему ESXi Shell или SSH с правами администратора Перезапустите службы host deamon ESXi и vCenter Agent с помощью следующих команд: /etc/init.d/hostd restart /etc/init.d/vpxa restart Или Чтобы сбросить сеть управления на определенном интерфейсе VMkernel, по умолчанию vmk0 выполните команду: esxcli network ip interface set -e false -i vmk0; esxcli network ip interface set -e true -i vmk0 Примечание: Использование точки с запятой ; между двумя командами гарантирует то, что интерфейс VMkernel будет отключен, а затем снова включен. Если интерфейс управления не работает на vmk0, измените приведенную выше команду в соответствии с используемым интерфейсом VMkernel. Чтобы перезапустить все Агенты Управления на хосте, выполните команду: services.sh restart Внимание: Если LACP включен и настроен, не перезапускайте службы управления с помощью команды services.sh. Вместо этого перезапустите независимые службы, используя команду /etc/init.d/module restart Если проблема не устранена, и вы перезапускаете все службы, которые являются частью сценария services.sh, подождите, прежде чем переходить к сценарию. Если NSX настроен в среде, не запускайте для перезапуска команду /sbin/services.sh restart, поскольку это перезапустит все службы на хосте ESXi. Если вам нужно перезапустить management agents на хосте ESXi, перезапустите vpxa, host.d и fdm по отдельности. Если вам также необходимо выполнить команду перезапуска /sbin/services.sh restart, поскольку перезапуск каждого management agent не работает, то перенесите все VM с хоста ESXi и переведите хост в режим обслуживания, если это возможно. Если вы не уверены в том, что NSX для vSphere установлен на хосте ESXi, выполните эту команду, для проверки: esxcli software vib list --rebooting-image | grep esx-* Найдите следующие VIB, чтобы определить, установлен ли NSX на хосте ESXi: vsip-esx esx-vxlan Если вы используете общую графику в среде View (VGPU, vDGA, vSGA), не используйте services.sh. Это отключит службу xorg, которая отвечает за графику на уровне гостевого ОС. Отключив графику из гостевого уровня ОС, вы вызовете сбой нагрузки VDI с использованием общей графики. Убедитесь, что вы используете общую графику для перезапуска только hostd и vpxa, если вы не в режиме обслуживания.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59