По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие
наши статьи:
Хотите добавить среду рабочего стола для Ubuntu Server? Это можно сделать очень просто.
По умолчанию Ubuntu Server не включает графический интерфейс пользователя (GUI). Графический интерфейс занимает системные ресурсы (память и процессор), которые используются для задач, ориентированных на сервер. Однако некоторыми задачами и приложениями легче управлять с графического интерфейса.
Некоторым людям не нравится делать все с помощью команд в терминале. В конце концов, большинство людей привыкли пользоваться компьютером в графическом режиме. Но это работает, только если у вас есть прямой доступ к серверу. При подключении к удаленному серверу, например по SSH, вам все равно придется пользоваться консолью. Однако есть такие инструменты, как Webmin или Cockpit, которые позволяют вам управлять своими серверами графически в веб-браузере. Но все-таки на боевых серверах лучше не использовать графические интерфейсы.
Обновить репозитории и пакеты
Начнем с обновления репозиториев и списков пакетов:
sudo apt-get update && sudo apt-get upgrade
Нажмите Y и затем Enter, когда вас спросят, хотите ли вы продолжить.
Это гарантирует, что вы работаете с самыми последними обновлениями программного обеспечения.
После установки обновлений вы можете продолжить установку среды рабочего стола. Есть два способа сделать это:
Использование apt для установки пакетов
Использование инструмента под названием tasksel, который помогает с установкой нескольких пакетов в одном скоординированном процессе (задачах)
Любой из них позволит вам установить полную среду рабочего стола, которую вы выберете, как полный пакет, как если бы вы устанавливали настольную версию с нуля.
Если вы хотите использовать tasksel, вы должны сначала установить его, используя следующую команду:
sudo apt-get install tasksel
После завершения этой задачи вы можете использовать tasksel для установки среды рабочего стола (также называемой DE - Desktop Environment).
Установка Gnome
Вы, наверное, знаете, что есть много окружений рабочего стола. Некоторым средам рабочего стола требуется больше системных ресурсов (например, GNOME), в то время как некоторые используют меньше системных ресурсов (например, Xfce, MATE и другие). Начнем с установки GNOME, поскольку он является рабочим столом Ubuntu по умолчанию.
Если вы хотите использовать tasksel, выполните эту команду:
sudo tasksel install ubuntu-desktop
Если вы хотите использовать только apt, запустите эту команду:
sudo apt install ubuntu-desktop
Оба действия приведут к полной установке среды рабочего стола GNOME.
Либо можно просто выполнить команду tasksel и попасть в интерфейс, в котором можно найти рабочий стол Ubuntu, и многие другие.
Используйте клавишу пробела, чтобы выбрать его, нажмите Tab, чтобы выбрать OK внизу, затем нажмите Enter.
Установка и настройка диспетчера дисплея
После завершения процесса установки вам понадобится компонент, называемый Display Manager (диспетчер отображения), также известный как login manager. Этот инструмент будет отвечать за запуск сервера отображения и загрузку рабочего стола при управлении пользовательскими сеансами и аутентификацией.
По умолчанию GNOME Desktop использует GDM3 в качестве диспетчера отображения, но он немного тяжелее с точки зрения ресурсов. Вы можете использовать что-нибудь более легкое и ресурсосберегающее. В этом случае давайте возьмем lightdm, диспетчеру отображения, независимому от платформы. Установите его с помощью apt:
sudo apt install lightdm
При установке lightdm система запросит диспетчер отображения по умолчанию, потому что одновременно может работать только один (но у вас может быть несколько установленных).
Просто выберите lightdm из списка и нажмите OK. После выполнения этой задачи вы можете запустить Display Manager и загрузить графический интерфейс с помощью следующей команды:
sudo service lightdm start
Если вы хотите проверить, какой диспетчер отображения настроен в вашей системе, вы можете запустить:
cat /etc/X11/default-display-manager
Если все прошло по плану, у вас будет загружен экран приветствия.
Введите свои учетные данные, и ваш рабочий стол будет запущен.
Если вы хотите выключить графический интерфейс, откройте окно терминала и введите:
sudo service lightdm stop
Установка других окружений рабочего стола
Мы можем выбрать разные рабочие столы, поэтому давайте рассмотрим некоторые альтернативы.
KDE Plasma
KDE - одна из самых популярных сред рабочего стола. Она обладает широкими возможностями настройки и чрезвычайно легковесна.
Чтобы установить KDE Plasma, используйте следующую команду:
sudo apt-get install kde-plasma-desktop
Во время установки вам может быть предложено выбрать диспетчер отображения по умолчанию. С помощью клавиш со стрелками выберите нужный, а затем нажмите Enter.
MATE
MATE - это легкий рабочий стол, основанный на базовом коде GNOME2.
Чтобы установить MATE, нужно запустить:
sudo tasksel install ubuntu-mate-core
или
sudo apt install ubuntu-mate-core
Lubuntu / LXDE/LXQT
Lubuntu - очень легкий графический интерфейс. Используйте его, если вам нужен графический интерфейс, но вы хотите минимизировать влияние на системную память и процессор.
Установите его с помощью этой команды:
sudo tasksel install lubuntu-core
или
sudo apt install lubuntu-core
Xubuntu
Xubuntu - это производная Ubuntu, основанная на среде рабочего стола Xfce, легкая, простая, стабильная, но при этом легко настраиваемая.
Если вы хотите попробовать, используйте следующую команду:
sudo tasksel install xubuntu-core
или
sudo apt install xubuntu-core
Помимо вышеуказанных, есть еще множество различных оболочек, которые устанавливаются подобным образом.
Как удалить графический интерфейс с сервера Ubuntu?
Если вы понимаете, что среда рабочего стола требует слишком много вычислительных ресурсов, вы можете удалить ранее установленные пакеты.
Помните, что в некоторых случаях это может вызвать проблемы с зависимостями, поэтому сделайте резервную копию важных данных или создайте снепшот системы.
sudo apt remove ubuntu-desktop
sudo apt remove lightdm
sudo apt autoremove
sudo service lightdm stop
Перезагрузите вашу систему, и вы должны будете вернуться к обычному входу в командную строку. Привет CLI!
Перед тем как говорить о технологии 802.1ad (QinQ) нужно вспомнить о технологии 802.1q. Если коротко, то это технология тегирования трафика, то есть деление его на 2 уровне модели OSI (так как на L3 сеть мы делим уже по маске)
Чем же отличается трафик обычный от тегированного спросите вы? Практически ничем, кроме добавления добавление тега в заголовок фрейма.
Размер такого тега всего 4 байта (32 бита) и он состоит:
TPID (Tag Protocol Identifier): на него уходит половина размера тега и это значение равно 0x8100 для 802.1q (VLAN) , а для 802.1ad(QinQ) заголовок выглядит так: 0x88a8.
TCI (Tag Control Information): на это поле уходит оставшийся половина 16 бит тега.
В него входит:
PCP(Priority) - 3-битное поле, которое относится к классу обслуживания IEEE 802.1p и сопоставляется с уровнем приоритета кадра. (3 бита)
Drop eligible indicator (DEI) (ранее CFI - Canonical Format Indicator) - Может использоваться отдельно или вместе с PCP для обозначения фреймов, которые могут быть отброшены при наличии перегрузки. (1 бит )
VID (VLAN Identifier) - VLAN ID . размером он в 12 бит ,а это значит что в него можно заложить 2^12 = 4096 VLAN . Но на самом деле меньше ,так как 0 и 4095( 0x000 и 0xFFF) зарезервированы , в итоге 4094 получается. (12 бит)
Зачем же понадобилась технология двойного тегирования QinQ? Вот тут возникает как раз ограничение поля VID на количество VLAN (4094) и тут на помощь приходит стандарт 802.1ad, который позволяет уже увеличить количество VLAN. (4094*4094 = 16760836 - больше пока никому не потребовалось.)
Ниже укажу dump трафика вначале обычного 802.1q:
А потом 802.1ad наш QinQ о котором как раз и шла речь:
Как видно из вывода, тип трафика указывается в самом фрейме. (см картинки выше), а далее идёт тег и в случае QinQ ещё один тег.
Практика
А теперь давайте немного попрактикуемся.
Клиенты VPC1 и VPC2 будут находиться в одной подсети, это было сделано для удобства.
VPC1 : 172.16.20.1/24
VPC2 : 172.16.20.2/24
Теперь первый Mikrotik, который будет отвечать за access и trunk порты
/interface bridge
add name=bridge vlan-filtering=yes
/interface bridge port
add bridge=bridge interface=ether1 pvid=100
add bridge=bridge interface=ether2
/interface bridge vlan
add bridge=bridge tagged=ether2 vlan-ids=100
Mikrotik4 конфигурируется точно по такой же логике
/interface bridge
add name=bridge vlan-filtering=yes
/interface bridge port
add bridge=bridge interface=ether1 pvid=100
add bridge=bridge interface=ether2
/interface bridge vlan
add bridge=bridge tagged=ether2 vlan-ids=100
Теперь самое интересное: Mikrotik2
/interface bridge
add ether-type=0x88a8 name=bridge vlan-filtering=yes
/interface bridge port
add bridge=bridge interface=ether1 pvid=200 tag-stacking=yes
add bridge=bridge interface=ether2
/interface bridge vlan
add bridge=bridge tagged=ether1 vlan-ids=100
add bridge=bridge tagged=ether2 vlan-ids=200
Mikrotik3
/interface bridge
add ether-type=0x88a8 name=bridge vlan-filtering=yes
/interface bridge port
add bridge=bridge interface=ether1
add bridge=bridge interface=ether2 pvid=200 tag-stacking=yes
/interface bridge vlan
add bridge=bridge tagged=ether2 vlan-ids=100
add bridge=bridge tagged=ether1 vlan-ids=200
Я указал только простую настройку для понимания настройки его на оборудовании Mikrotik. Не стал копать глубоко и указывать что и зачем каждый заголовок значит, так как моей задачей было указать основную настройку оборудования и по какой логике работает Q-in-Q, и с этой задачей я справился. Удачи!
Так как многие используют у себя в качестве платформы виртуализации Hyper-V, сегодня мы решили немного рассказать о том, как "правильно" использовать данную платформу – в плане сохранения ресурсов и просто с точки зрения логики. Рекомендации описанные ниже вполне смогут сохранить вам немного драгоценных вычислительных ресурсов. Поэтому ниже вы найдете 14 хинтов, которые могут помочь сохранить ресурсы.
Не плодите виртуальные сущности!
Первый хинт, и достаточно очевидный -не создавайте ненужных виртуальных машин и не оставляйте их запущенными! Процесс VMMS.exe постоянно проверяет статус всех виртуальных машин, в том числе и без каких-либо активных процессов, помимо ОС запущенных на них. Таким образом, на данный процесс тратятся дорогие ресурсы.
Далее, задумайтесь, сколько виртуальных коммутаторов у вас создано – подумайте, в каком случае вы можете просто использовать VLAN или другие механизмы сегментирования для логического разделения сети между виртуальными машинами. Причина такая же как и в предыдущем случае – VMMS.exe постоянно проверяет состояние виртуальных свитчей и тратит ресурсы!
Настройте антивирус так, чтобы он не проверял Hyper-V процессы и директории, так как такое ПО как антивирус постоянно производит I/O операции для файлов, и, соответственно, может отобрать ресурс у процессов, выполняемых между виртуальными машинами. То есть:
Процессы Hyper-V - VMMS.exe и VMWP.exe
Папки с виртуальными машинами - файлы с виртуальными жесткими дисками и файлы конфигурации
Папки со снэпшотами-V - снэпшоты и чекпоинты
Используйте официально поддерживаемы гостевые ОС – будет быстрее!
Старайтесь использовать только те гостевые системы, на которые возможно установить Integration Services – дополнения, которые включают в себя VMBUS и VSP/VSC компоненты, используется для значительного улучшения связи между Windows, на котором установлен Hyper-V и виртуальными машинами. Список поддерживаемых систем можно найти по ссылке: https://docs.microsoft.com
Кроме того, старайтесь хранить виртуальные машины, которые не поддерживают установку Integration Services на отдельном сервере Hyper-V. Если это невозможно – используйте отдельный виртуальный свитч. Дело в том, что они используют совершенно разные механизмы общения с оригинальной системой – коммуникации через VMBUS и коммуникации через эмуляцию. Эмуляция быстрее, но возможна только при установленных Integration Services.
Старайтесь использовать виртуальные машины Generation Type 2 (второго поколения), которые загружаются с помощью SCSI контроллера, вместо IDE (SCSI быстрее). Кроме того, машины второго поколения используют VMBUS и VSP/VSC архитектуру на boot уровне, что улучшает общую производительность.
Внимательнее относитесь к расположению виртуальных машин!
Не храните виртуальные машины на одном жестком диске вместе с системными файлами и файлами гипервизора – опять же из-за того, что ОС занимает свою долю в операциях ввода-ввывода, и у жесткого диска легко не может хватить производительности для задач, выполняемых на виртуальных машинах. Соответственно, всегда изменяйте папку хранения виртуальных машин по умолчанию на что-то иное. Изначально, путь выглядит так:C:ProgramDataWindowsHyper-VVirtual Machines
Если возможно – используйте для каждой виртуальной машины разные тома. Наличие нескольких виртуальных машин на одном логическом томе также повышает количество производимых I/O операций.
Регулярно дефрагментируйте жесткий диск перед созданием виртуального жесткого диска и просто проводите дефрагментацию разделов, где хранятся виртуальные машины.
Старайтесь использовать SCSi контроллеры для виртуальных жестких дисков – выиграйте по скорости. Для приложений вроде SQL лучше хранить логи и сами данные на разных SCSi разделах
При создании виртуальной машины лучше используйте виртуальные жесткие диски фиксированного размера – это так же даст прирост производительности.
В общем о ресурсах
В то же время, рекомендуется использовать динамически аллоцируемую оперативную память. Однако, для некоторых приложений также лучше будет использовать изначально большой объем фиксированной ОЗУ – но это применимо только к узкому ряду приложений, вроде Sharepoint.
Старайтесь использовать Windows Server Core Operating System, так как там нет графической оболочки, система потребляет меньше ресурсов.
Если же вы используете обычный Windows с обычным, всем очень хорошо знакомым GUI всегда закрывайте другие окна, приложения и так далее – все, что хотя бы теоретически может повлиять на производительность.