По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Рост статичных веб-сайтов является доказательством того, что старые вещи возвращаются раз за разом. Сегодня как малые, так и крупные предприятия используют статические веб-сайты и свои расширенные преимущества. Статические веб-сайты вернулись, сильнее, чем когда-либо. Но в чем причина, которая стимулировала внезапный рост статических сайтов? Ну, тенденции в веб-разработке приходят и уходят, но одно остается постоянным всегда - желание иметь высокоэффективный сайт. Кроме того, поведение конечных пользователей быстро меняется, поскольку они ожидают быстрой загрузки страницы и более привлекательного опыта без места для разочарования. Чтобы удовлетворить этот спрос, веб-разработчики постоянно добавляют к веб-сайтам и приложениям больше функций. Но в процессе этого производительность веб-сайта оказывается под угрозой. Вот где статичные веб-сайты приходят на сцену! Что такое статичный веб-сайт? Существует распространенный миф, что статичные веб-сайты - это новая технология. На самом деле, статичные сайты – это самые первые сайты эпохи Интернета. Ранее для создания веб-сайта разработчики использовали чистый HTML, JavaScript и CSS без библиотек, плагинов или фреймворков. Проще говоря, контент на статичном веб-сайте остается одинаковым после каждого посещения, в отличие от динамического, где он меняется. Сервер создает эти статичные файлы и возвращает их браузерам. Эти веб-сайты могут извлекать данные практически из любого места, включая API, CMS и другие файлы данных. Такой веб-сайт отбрасывает ненужные сложности и в основном фокусируется на повышении эффективности и производительности. Она не опирается на базы данных; вместо этого он включает базовые HTML, JavaScript и CSS для создания невесомых бизнес-профилей и целевых страниц. В результате это помогает избавиться от долгих загрузок и раздражающих задержек. Таким образом, разработчики могут создавать быстрые, надежные и эффективные приложения, предлагая пользователям хорошие впечатления от работы на вашем сайте с меньшим временем разработки. Какие плюсы использования статичных веб-сайтов? Скорость Так как отсутствуют бэкэнд система, запросы клиент-сервер или запросы к базам данных, связанных с доставкой статического веб-сайта, такие сайты демонстрирует высочайшую производительность, поскольку его серверы всегда готовы к HTML-выводам. Кроме того, он может включать в себя функцию кэширования для устранения задержек. Безопасность Из-за отсутствия базы данных, а также подключаемых модулей и расширений статичные веб-сайты предлагают гораздо большую безопасность, чем динамический веб-сайт. Таким образом, вы избежите фишинговых кампаний, онлайн-отслеживаний, вредоносных программ или любой потери данных. Расширяемость Масштабирование статичных веб-сайтов относительно проще, в то время как сложные приложение более стабильны. Ввиду статичности файлов уменьшается нагрузка на серверы, а те легко справляются с обработкой огромного трафика. Хостинг и доступность Базовые HTML файлы требуют меньше места, что упрощает размещение этих веб-сайтов. Можно сократить расходы, направляя ресурсы на интеграцию автоматизированных сборок или Git для включения модификаций в систему. Звучит круто? Если ответ утвердительный, давайте выясним лучшие платформы, где можно разместить статичный веб-сайт, чтобы начать использовать его преимущества. 1. Netlify С помощью Netlify можно публиковать веб-проекты из репозиториев Git без сложных настроек и навыков обслуживания сервера. Поддерживается автоматизация процессов с помощью конвейера CI/CD для разработчиков веб-сайтов. Также есть возможность предварительного просмотра всего сайта, чтобы увидеть, как будет выглядеть веб-сайт, прежде чем публиковать его. Развернув статичный веб-сайт в глобальной сети CDN с несколькими облаками – Edge, вы получите хорошую производительность. Netlify поддерживает множество сторонних приложений и инструментов, включая такие надстройки, как Analytics, Identity, Forms и база данных Fauna. Netifly предоставляет удобные инструменты для автоматизации рабочих процессов, в том числе с помощью Atomic можно упростить развертывание новых сайтов, можно делать неограниченное количество снимков состояния и откатывать до них, можно назначать пользовательские заголовки, управлять DNS, перенаправлением и правилам прокси. Netlify размещает веб-сайт в отказоустойчивой глобальной сети доставки приложений для непрерывного и быстрого обслуживания веб-страниц. Можно также управлять зонами DNS с помощью их панели мониторинга. Автоматического HTTPS обеспечивает безопасность сайта, так как Netlify предлагает сертификат TLS бесплатно. Она обеспечивает расширенные функции, управляемые API, без сложных интеграций. Он предлагает шлюз API, управление доступом к данным на основе JWT, прокси-заголовки для аутентификации, сохраненные переменные и вебхуки. Благодаря Netlify Analytics можно получить подробную информацию о посетителях веб-сайта, источниках, просмотрах страниц и т.д. Также можно использовать функции AWS Lambda, управлять подписями, восстановлением паролей, входами в систему и т. д. без развертывания службы аутентификации. Управление отправками и формами без внедрения JavaScript или дополнительных кодов. Netlify Large Media позволяет управлять большими ресурсами и контролем версий файлов независимо от их размера. 2. Google Cloud Storage Высокая безопасность и масштабируемость платформы Google Cloud расширяет возможности компаний любого размера, от индивидуальных разработчиков до крупных предприятий. Возможность управления жизненным циклом объектов (Object Lifecycle Management OLM), которое можно использовать для настройки автоматического перехода всех данных на более недорогие хранилища. Можно легко устанавливать критерии для данных и управлять ими. Google Cloud включает в себя растущий список глобальных центров обработки данных с достаточно большим количеством вариантов автоматического резервирования. Можно выбрать расположение и способ хранения данных, чтобы оптимизировать веб-сайт для быстрого реагирования и создать полный план аварийного восстановления. С помощью класса хранения можно определить модель ценообразования, а также доступность, применимую к хранению данных. Вы можете выбрать из четырех возможных вариантов: Стандарт Nearline - один раз в месяц Coldline - раз в квартал Архивирование один раз в год Google Cloud предлагает управление версиями объектов, которое позволяет хранить копии объектов в случае их перезаписи или удаления. Можно определить периоды хранения данных перед безвозвратным удалением. Можно даже прикрепить объект, чтобы предотвратить его удаление. Шифрование и хранение объектных данных с помощью ключей шифрования, хранящихся в службе управления облачными ключами. Можно отключить ACL объектов для равномерного управления доступом к ресурсам в Google Cloud. Функция Bucket Lock включена для настройки политик хранения данных. Отправка уведомлений при создании, удалении или обновлении объектов. Ведение журналов доступа к данным и активности, и управление разрешениями доступа с помощью облачного управления удостоверениями и доступом (IAM). Google Cloud предлагает интегрированные репозитории для машинного обучения и аналитики. Альтернативы облачным хранилищам Google: Amazon S3 Amazon S3 включает прямые функции управления, чтобы позволить Вам организовать и настроить данные. Он предназначен для обеспечения высокой долговечности и хранения данных для огромного числа приложений. Amazon S3 может создать копии объекта, предлагает доступные тарифы для мест хранения, обладает возможностями аудита и утверждает, что соблюдает строгие меры безопасности как собственные в виде S3 Block Public Access, так и известные стандарты соответствия PCI-DSS, HITECH/HIPAA, FISMA, и т.д. Vultr Vultr поддерживает гибкую интеграцию через S3 API и предоставляет масштабируемому по требованию архитектуру, на которую вы можете полагаться. Она использует кэширование NVMe для обеспечения сверхпроизводительности и постоянной доступности данных. Можно также хранить статические данные мультимедиа, такие как изображения, видео и аудио. 3. Surge Surge предоставляет разработчику простой путь для развертывания проектов на высококачественном CDN через Grunt, NPM и Gulp. С каждым проектом можно использовать поддержку настраиваемого домена, поддержку pushState, бесплатную сертификацию SSL для доменов Surge, пользовательские страницы ошибок 404, развертывание CLI без ограничений, интеграцию с цепью инструментов Grunt и перекрестную поддержку ресурсов. Surge интегрируется с инструментом сборки, который используется для упрощения развертывания. Такие инструменты включают плагин Grunt, плагин Gulp, скрипт npm, хуки Git, Jekyll, Node.js, статические генераторы сайтов, службы CI и другие инструменты автоматического развертывания. Пригласите своих коллег и сотрудников. Все, что вам нужно для публикации содержимого на вашем веб-сайте – это ввести одну команду. 4. Render Легко разворачивайте статичный сайт в Render. Просто привяжите GitLab или репозиторий GitHub, и пусть он создаст ваш веб-сайт и обслуживает его на глобальном CDN. Лучше всего то, что статичные сайты с трафиком до 100 ГБ в месяц на Render можно размещать совершенно бесплатно. После превышения данного лимита за каждый гигабайт придется платить $0,10 в месяц. Render предлагает автоматическое и непрерывное развертывание и превентивное аннулирование кэша. Можно бесплатно присоединять к проекту сотрудников, чтобы получить их помощь в управлении сайтом. Render предлагает функцию Pull Request Preview, которая позволяет автоматически тестировать и просматривать введенные изменения перед публикацией. Хостинг предоставляет подробные графики пропускной способности, встроенную поддержку HTTP/2 для повышения скорости загрузки страниц, возможности перезаписи и перенаправления, поэтому для повышения производительности и безопасности не требуется писать дополнительный код и пользовательские заголовки HTTP. Для повышения производительности Render предлагает автоматическое сжатие Brotli, которое уменьшает размеры страниц и ускоряет работу сайтов. Render также включает автоматические перенаправления с HTTP на HTTPS, а также неограниченное количество пользовательских доменов. Помимо поддержки простых HTML/JavaScript/CSS сайтов, он предлагает мощные генераторы сайтов, такие как Create React Application, Jekyll, Vue.js, Gatsby, Hugo, Next.js и Docusaurus. Его глобальная сеть CDN невероятно быстрая, безопасная и надежная, и они также кэшируют весь ваш контент по всему миру, чтобы обеспечить наилучшие возможности для пользователей. 5. GitHub Pages Отдельные разработчики и желающие разместить статичные веб-сайты и развернуть коды онлайн могут использовать GitHub бесплатно. Добавить настраиваемый домен просто: для этого достаточно включить файл CNAM в свою учетную запись. Для создания статичного кода можно создать новый репозиторий из панели управления учетными записями и развернуть его с помощью поддомена, чтобы протестировать его. GitHub предоставляет вам один веб-сайт для каждой учетной записи GitHub, а также организацию вместе с неограниченными сайтами проектов. 6. Firebase Хотите статический хостинг сайта производственного уровня? Firebase - хороший вариант! В дополнение к размещению сайта, вы можете использовать его базу данных в реальном времени вместе с хранилищем файлов. Он предлагает бесплатный SSL сертификат и индивидуальный домен, даже в бесплатном тарифном плане. Однако для увеличения пропускной способности и объема хранилища можно купить платную версию. С помощью Firebase можно развернуть не только личный веб-сайт, но и одностраничное веб-приложение, прогрессивное веб-приложение и целевую страницу мобильного приложения без проблем. Не имеет значения, откуда пользователь обращается к вашему сайту; Firebase обеспечивает высокую производительность с помощью твердотельных накопителей на эффективных CDN. Вы получаете автоматически настроенный SSL абсолютно бесплатно для каждого сайта. Пользователи также могут подключать свои домены без нудной проверки. Развертывание сайта также возможно с помощью одной команды, и можно выполнить откат к предыдущей версии или просмотреть историю развертываний через консоль Firebase. 7. Vercel Платформа Vercel, которую можно назвать платформой все в одном, предлагает развертывание JAMStack и Static веб-сайтов. Она не требует настройки и работает с любым типом веб-инфраструктуры. С каждым сайтом вы получаете предварительный URL-адрес, которым вы можете поделиться со своей группой для совместной работы. Vercel обеспечивает высочайшую производительность сайта благодаря масштабируемым и упрощенным развертываниям. Просто перейдите в Git, чтобы оживить ваш сайт. Он поддерживает популярные фронтэнд-фреймворки, такие как Next.js, Vue.js, React, Angular, Gatsby, Hugo, Nuxt, Ember и Svelte. На данной платформе можно запускать мгновенные тесты для каждого развертывания, а затем выпускать их с полной уверенностью. Это облегчает интеграцию с такими поставщиками Git, как GitHub, Bitbucket и GitLab. Кроме того, Vercel предлагает динамическое восстановление сайта с помощью развертываемых хуков, что удобно при работе с CMS. Можно создать одну страницу за один раз, поэтому не нужно перестраивать весь сайт. Vercel благодаря своим сверхбыстрым глобальным CDN, расположенным в 70 городах, гарантирует доступность в 99,99%. Заключение Статичные сайты еще не забыты. Особенно сегодня, когда угрозы в Интернете вызывают наибольшую обеспокоенность во всем мире, статичные сайты становятся еще сильнее, чем когда-либо, чтобы снова управлять Интернетом и поддерживать ваш бизнес.
img
Допустим нам нужно отправить почтой посылку куда-то в Лондон. Что мы делаем? Идем в почту, берём специальный бланк и заполняем соответствующие поля. Отправитель Вася Пупкин, адрес: ул. Тверская, дом 40, кв. 36., Москва, Россия. Кому: Шерлок Холмс, Baker Street 221B, London, United Kingdom. То есть мы отправили посылку конкретному лицу, проживающему по конкретному адресу. Как и в реальном мире, в мире информационных технологий тоже есть своя адресация. В данном случае получателем выступает компьютер, за которым закреплён соответствующий IP адрес. IP aдрес это уникальный идентификатор устройства, подключённого к локальной сети или интернету. p> Видео про IP - адрес На данный момент существуют две версии IP адресов: IP версии 4 (IPv4) и IP версии 6 (IPv6). Смысл создания новой версии заключается в том, что IP адреса в 4-ой версии уже исчерпаны. А новые устройства в сети появляются с огромной скоростью и им всем нужно выделать свой уникальный адрес. IPv4 представляет собой 32-битное двоичное число. Удобной формой записи IP-адреса (IPv4) является запись в виде четырёх десятичных чисел (от 0 до 255), разделённых точками, например, 192.168.0.1. Но так как компьютеры понимают только двоичную систему исчисления, то указанный адрес преобразуют в двоичную форму - 11000000 10101000 00000000 00000000. Длина же IPv6 адресов равна 128-битам. IPv6 адрес представляется в виде строки шестнадцатеричных цифр, разделенной двоеточиями на восемь групп, по 4 шестнадцатеричных цифрр в каждой. Например: 2003:00af:café:3daf:1000:edaf:1001:afad. Каждая группа равна 16 битам в двоичном представлении. IP адреса принято делить на публичные и приватные. Публичный адрес это адрес, который виден в Интернете. Все сайты в глобальной сети имеют публичный или "белый" IP адрес. Для merionet.ru он равен 212.193.249.136. Да и ваш компьютер тоже имеет публичный адрес, который можете просмотреть либо на роутере, либо на специальных сайтах, например 2ip.ru. Но в вашем случае под одним IP адресом в Интернет могут выходить 10, 50, 100 пользователей из вашей же сети. Потому что на самом деле это адрес не конкретного компьютера в сети, а маршрутизатора, через который вы выходите в сеть. Публичные адреса должны быть уникальны в пределах всего Интернета. Приватные же адреса это такой тип адресов, которые используют в пределах одной локальной сети и не маршрутизируются в Интернет. Существуют следующие диапазоны приватных IP адресов: 10.0.0.0-10.255.255.255, 172.16.0.0-172.31.255.255, 192.168.0.0-192.168.255.255. Посмотреть свой локальный приватный адрес можете либо в свойствах сетевого адаптера, либо в командной строке набрав команду ipconfig. В начале зарождения Интернета IP адреса было принято делить на классы: Класс Начальный IP Конечный IP Число сетей Число хостов Класс A 0.0.0.0 127.255.255.255 126 16777214 Класс B 128.0.0.0 191.255.255.255 16382 65536 Класс C 192.0.0.0 223.255.255.255 2097150 254 Класс D 224.0.0.0 239.255.255.255 Класс E 240.0.0.0 254.255.255.255 При этом адрес 0.0.0.0 зарезервирован, он назначается хосту, когда он только что подключен к сети и не имеет IP адреса. Если в сети имеется DHCP сервер, то хост в качестве адреса источника отправляет адрес 0.0.0.0. Адрес 255.255.255.255 это широковещательный адрес. А адреса начинающиеся на 127 зарезервированы для так называемой loopback адресации. Адреса класса D зарезервированы для мультикаст соединений, адреса класса E для исследований (не только крысы страдают от исследований). IP адрес хоста имеет две части адрес сети и адрес узла. Где адрес сети, а где адрес узла - определяется маской сети. Маска сети это 32-битное число, где подряд идущие биты всегда равны 1. На самом деле каждое десятичное число IP адреса - это не что иное, как сумма степеней числа 2. Например, 192 это 1100000. Чтобы получить это значение переводим десятичное число в двоичное. Хотя это азы информатики, но подойдет любой калькулятор, даже встроенный в Windows: А теперь посмотрим как мы получаем 192 из суммы степеней двойки: 1 * 27+1*26+0*25+0*24+0*23+0*27+0*21+0*20 = 1*27+1*26 = 128 + 64 = 192. И так каждый октет может включать в себя следующие числа: 128 64 32 16 8 4 2 1. Если в IP адресе есть место одной из указанных чисел, то в двоичном представлении на месте этого числа подставляется 1, если нет 0. В маске сети все подряд идущие биты должны быть равны 1. Первый октет Второй октет Третий октет Четвёртый октет 255 255 255 0 11111111 11111111 11111111 00000000 Принадлежность адреса классу определяется по первым битам. Для сетей класса A первый бит всегда равен 0, для класса B 10, для класса С 110. При классовой адресации за каждым классом закреплена своя маска подсети. Для класса А это 255.0.0.0, класса B 255.255.0.0, а для класса C 255.255.255.0. Но со временем стало ясно, что классовая адресация не оптимально использует существующие адреса. Поэтому перешли на бесклассовую адресацию, так называемую Classless Inter-Domain Routing (CIDR), где любой подсети можно задать любую маску. Отличную от стандартной. При это, маску подсети можно увеличивать, но никак не уменьшать. Наверное не раз встречали адреса типа 10.10.121.25 255.255.255.0. Этот адрес по сути является адресом класса А, но маска относится к классу C. Но даже в случае бесклассовой адресации наблюдается перерасход IP адресов. В маленьких сетях, где всего один отдел с 40-50 компьютерами это не очень заметно. Но в больших сетях, где нужно каждому отделу выделить свой диапазон IP адресов этот вопрос стоит боком. Например, бухгалтерии вы выделили сеть с адресом 192.168.1.0/24, а там всего 25 хостов. В указанной сети же 254 адресов. Значит 229 адреса остаются не используемыми. На самом деле здесь 256 адресов, но первый 192.168.1.0 является адресом сети, а последний 192.168.1.255 широковещательнымадресом. Итого в распоряжении администратора всего 254 адреса. Существует формула расчета количества хостов в указанной сети. Выглядит она следующим образом: H=2n 2 Где H число хостов, n число бит отведенных под номер хоста. Например, 192.168.1.0 маска 255.255.255.0. Здесь первый 24 бит определяют номер сети, а оставшиеся 8 бит номер хоста. Исходя из этого, H=28-2 = 254. Тут и вспоминаем про деление сетей на подсети. Кроме экономии адресного пространства, сабнеттинг дает еще и дополнительную безопасность. Трафик между сетями с разной маской не ходит, а значит пользователи одной подсети не смогут прослушать трафик пользователей в другой. Это еще и упрощает управление разрешениями в сети, так как можно назначать списки доступа и тем самым ограничивать доступ пользователей в критически важные сегменты сети. С другой стороны, сегментирование сети позволяет увеличивать количество широковещательных доменов, уменьшая при этом сам широковещательный трафик. В сегментировании сети используется такой подход как маска подсети с переменной длиной VLSM (Variable Length Subnet Mask). Суть состоит в том, что вам выделяют диапазон IP адресов, и вы должны распределить их так, чтобы никто не мог проснифить трафик другого и всем досталось хотя бы по одному адресу. Выделением блоков IP адресов занимается организация IANA (Internet Assigned Numbers Authority ). Она делегирует права региональным регистраторам, которые в свою очередь выделяют блоки адресов национальным. Например, региональным регистратором для Европы является RIPE. А последние в свою очередь делят адреса, имеющиеся у них, между провайдерами. Например, нам выделили адрес 192.168.25.0 с маской подсети 255.255.255.0. Маску подсети можно указывать сокращенно: 192.168.25.0/24. 24 это число единиц в маске. Нам как администраторам предприятия предстоит разделить их между четырьмя отделами, в которых по 50 хостов. Начинаем вычисления. Нам нужно 5 * 50 = 250 уникальных адресов. Но основная задача, пользователи должны быть в разных подсетях. Значит необходимо четыре подсети. Для определения количества подсетей в сети есть специальная формула: N = 2n Где N число подсетей, а n число бит заимствованных из хостовой части IP адреса. В нашем случае мы пока не позаимствовали ничего значить подсеть всего одна: 20 = 1. Нам же нужно четыре подсети. Простая математика нам подсказывает, что должны позаимствовать минимум 2 бита: 22 = 4. Итак, маска у нас становиться 255.255.255.192 или /26. Остальные 6 битов нам дают количество адресов равных 64 для каждой подсети, из которых доступны 62 адреса, что полностью покрывает нужду наших подсетей: Сеть № Число хостов Маска подсети Первый IP Последний IP Номер подсети Широковещательный адрес Сеть 1 50 255.255.255.192 192.168.25.1 192.168.25.62 192.168.25.0 192.168.25.63 Сеть 2 50 255.255.255.192 192.168.25.65 192.168.25.126 192.168.25.64 192.168.25.127 Сеть 3 50 255.255.255.192 192.168.25.129 192.168.25.190 192.168.25.128 192.168.25.191 Сеть 4 50 255.255.255.192 192.168.25.193 192.168.25.254 192.168.25.192 192.168.25.255 Тестировать будем в виртуальной среде Cisco Packet Tracer. Как видно из рисунка, здесь три разных хоста маски у всех одинаковые, но маршруты по умолчанию разные. По умолчанию, трафик между всеми этими подсетями идет, так как у нас в сети существует маршрутизатор, который занимается передачей трафика из одной подсети в другую. Чтобы ограничить трафик нужно прописать соответствующие списки доступа Access Lists. Но мы не будем заниматься этим сейчас, так как тема статьи совсем другая. Чтобы определить к какой подсети относится хост, устройство выполняет операцию побитового "И" между адресом узла и маской подсети. Побитовое "И" это бинарная операция, действие которой эквивалентно применению логического "И" к каждой паре битов, которые стоят на одинаковых позициях в двоичных представлениях операндов. Другими словами, если оба соответствующих бита операндов равны 1, результирующий двоичный разряд равен 1; если же хотя бы один бит из пары равен 0, результирующий двоичный разряд равен 0.Покажем на примере: 192 168 1 125 1 1 0 0 0 0 0 0 1 0 1 0 1 0 0 0 0 0 0 0 0 0 0 1 0 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 255 255 255 0 1 1 0 0 0 0 0 0 1 0 1 0 1 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 192 168 1 0 На рисунке выше маска подсети для всех сетей одинаковая 255.255.255.192. Но давайте представим ситуацию, когда у нас подсетей так же 4, но количество хостов разное: Сеть 1 120 Сеть 2 60 Сеть 3 25 Сеть 4 12 В принципе, можно оставить и предыдущую маску, но мы провайдер, у нас много клиентов и мы не можем позволить себе тратить IP адреса впустую. Итак, в первой сети на нужно 120 IP адресов, значит маска сети должна быть где-то в районе 120. Мы могли бы выбрать маской 120, но это невозможно, так как 120 не является степенью двойки, поэтому выбираем 128. Для второй подсети первая доступная маска 64. Но так как первые 128 адресов выделены под Сеть 1, то выбираем следующие 64 адреса, а маска будет 192, потому что именно эта маска даст нам нужное количество адресов. Третья сеть у нас состоит из 25 хостов. Ближайший возможный блок адресов это 32. А маска 224 как раз даст эти 32 адреса. В четвёртой же сети нам нужно 16 адресов. Маска будет равна 240. Лайфхак: Чтобы быстро вычислить маску подсети из количества доступных адресов вычитываем необходимое. Например, в этой подсети 256 адресов, нам нужно 32 адреса. Производим простое вычисление: 256 32 = 224. Это число и будет в последнем октете. Сеть № Число хостов Маска подсети Первый IP Последний IP Номер подсети Широковещательный адрес Сеть 1 120 255.255.255.128 192.168.25.1 192.168.25.126 192.168.25.0 192.168.25.127 Сеть 2 60 255.255.255.192 192.168.25.129 192.168.25.190 192.168.25.128 192.168.25.191 Сеть 3 25 255.255.255.224 192.168.25.193 192.168.25.222 192.168.25.192 192.168.25.223 Сеть 4 12 255.255.255.240 192.168.25.225 192.168.25.238 192.168.25.224 192.168.25.239 А сейчас каждому интерфейсу маршрутизатора присвоен IP подсетей с масками разной длины. При этом в каждой подсети у нас остались как минимум 2 свободных адреса на случай добавления новых хостов. На самом деле в сети уже есть готовые таблицы, где уже произведены все подсчеты и прописаны маски для разных сетей. Но умение самому вычислять не помешает, так как на экзаменах по сетевой сертификации попадаются такие задания.
img
Что такое логи Linux? Все системы Linux создают и хранят файлы логов информации для процессов загрузки, приложений и других событий. Эти файлы могут быть полезным ресурсом для устранения неполадок системы. Большинство файлов логов Linux хранятся в простом текстовом файле ASCII и находятся в каталоге и подкаталоге /var/log. Логи создаются системным демоном логов Linux, syslogd или rsyslogd. В этом руководстве вы узнаете, как находить и читать файлы логов Linux, а также настраивать демон ведения системных логов. Как просматривать логи Linux 1. Сначала откройте терминал Linux как пользователь root. Это позволит получить root-права. 2. Используйте следующую команду для просмотра папки где находятся файлов логов: cd /var/log 3. Чтобы просмотреть логи, введите следующую команду: ls Команда отображает все файлы логов Linux, такие как kern.log и boot.log. Эти файлы содержат необходимую информацию для правильного функционирования операционной системы. Доступ к файлам логов осуществляется с использованием привилегий root. По определению, root - это учетная запись по умолчанию, которая имеет доступ ко всем файлам Linux. Используйте следующий пример строковой команды для доступа к соответствующему файлу: sudo less [log name here].log Эта команда отображает временную шкалу всей информации, относящейся к этой операции. Обратите внимание, что файлы логов хранятся в виде обычного текста, поэтому их можно просматривать с помощью следующих стандартных команд: zcat - Отображает все содержимое logfile.gz zmore - Просмотр файла по страницам, не распаковывая файлы zgrep - Поиск внутри сжатого файла grep - Найти все вхождения поискового запроса в файле или отфильтровать файл логов tail - Выводит последние несколько строк файлов head - Просмотр самого начала текстовых файлов vim - Просмотр при помощи текстового редактора vim nano - Просмотр при помощи текстового редактора nano Важные системные логи Linux Логи могут многое рассказать о работе системы. Хорошее понимание каждого типа файла поможет различать соответствующие логи. Большинство каталогов можно сгруппировать в одну из четырех категорий: Системные логи (System Logs) Логи событий (Event Logs) Логи приложений (Application Logs) Логи обслуживания (Service Logs) Многие из этих логов могут быть расположены в подкаталоге var/log. Системные логи Файлы логов необходимы для работы Linux. Они содержат значительный объем информации о функциональности системы. Наиболее распространенные файлы логов: /var/log/syslog: глобальный системный журнал (может быть в /var/log/messages) /var/log/boot.log: лог загрузки системы, где хранится вся информация, относящаяся к операциям загрузки /var/log/auth.log: логи аутентификации, который хранит все логи аутентификации, включая успешные и неудачные попытки (может быть в /var/log/secure) /var/log/httpd/: логи доступа и ошибок Apache /var/log/mysqld.log: файл логов сервера базы данных MySQL /var/log/debug: логи отладки, который хранит подробные сообщения, связанные с отладкой, и полезен для устранения неполадок определенных системных операций /var/log/daemon.log: логи демона, который содержит информацию о событиях, связанных с запуском операции Linux /var/log/maillog: логи почтового сервера, где хранится информация, относящаяся к почтовым серверам и архивированию писем /var/log/kern.log: логи ядра, где хранится информация из ядра Linux /var/log/yum.log: логи команд Yum /var/log/dmesg: логи драйверов /var/log/boot.log: логи загрузки /var/log/cron: логи службы crond Демон системных логов Логирование осуществляется при помощи демона syslogd Программы отправляют свои записи журнала в syslogd, который обращается к конфигурационному файлу /etc/syslogd.conf или /etc/syslog и при обнаружении совпадения записывает сообщение журнала в нужный файл журнала. Каждый файл состоит из селектора и поля ввода действия. Демон syslogd также может пересылать сообщения журнала. Это может быть полезно для отладки. Этот файл выглядит приерно так: Dec 19 15:12:42 backup.main.merionet.ru sbatchd[495]: sbatchd/main: ls_info() failed: LIM is down; try later; trying ... Dec 19 15:14:28 system.main.merionet.ru pop-proxy[27283]: Connection from 186.115.198.84 Dec 19 15:14:30 control.main.merionet.ru pingem[271] : office.main.merionet.ru has not answered 42 times Dec 19 15:15:05 service.main.merionet.ru vmunix: Multiple softerrors: Seen 100Corrected Softerrors from SIMM J0201 Dec 19 15:15:16 backup.main.merionet.ru PAM_unix[17405]: (sshd) session closed 'for user trent Логи приложений Логи приложений хранят информацию, относящуюся к любому запускаемому приложению. Это может включать сообщения об ошибках, признаки взлома системы и строку идентификации браузера. Файлы логов, которые попадают в эту категорию, включают логи системы печати CUPS, лог Rootkit Hunter, логи HTTP-сервера Apache, логи SMB-сервера Samba и лог сервера X11. Логи не в удобочитаемом формате Не все логи созданы в удобочитаемом формате. Некоторые предназначены только для чтения системными приложениями. Такие файлы часто связаны с информацией для входа. Они включают логи сбоев входа в систему, логи последних входов в систему и записи входа в систему. Существуют инструменты и программное обеспечение для чтения файлов логов Linux. Они не нужны для чтения файлов, так как большинство из них можно прочитать непосредственно с терминала Linux. Графические интерфейсы для просмотра файлов логов Linux System Log Viewer - это графический интерфейс, который можно использовать для отслеживания системных логов. Интерфейс предоставляет несколько функций для управления логами, включая отображение статистики лога. Это удобный графический интерфейс для мониторинга логов. В качестве альтернативы можно использовать Xlogmaster, который может отслеживать значительное количество файлов логов. Xlogmaster полезен для повышения безопасности. Он переводит все данные для выделения и скрытия строк и отображает эту информацию для выполнения действий, запрошенных пользователем. Как настроить файлы логов в Ubuntu и CentOS Начнем с примера CentOS. Чтобы просмотреть пользователей, которые в настоящее время вошли на сервер Linux, введите команду who от имени пользователя root: Здесь также отображается история входа в систему пользователей. Для просмотра истории входа системного администратора введите следующую команду: last reboot Чтобы просмотреть информацию о последнем входе в систему, введите: lastlog Выполнить ротацию лога Файлы логов, в конце которых добавлены нули, являются повернутыми файлами. Это означает, что имена файлов логов были автоматически изменены в системе. Целью ротации логов является сжатие устаревших логов, занимающих место. Ротацию лога можно выполнить с помощью команды logrotate. Эта команда вращает, сжимает и отправляет системные логи по почте. logrotate обрабатывает системы, которые создают значительные объемы файлов логов. Эта команда используется планировщиком cron и считывает файл конфигурации logrotate /etc/logrotate.conf. Он также используется для чтения файлов в каталоге конфигурации logrotate. Чтобы включить дополнительные функции для logrotate, начните с ввода следующей команды: var/log/log name here].log { Missingok Notifempty Compress Size 20k Daily Create 0600 root root } Он сжимает и изменяет размер желаемого файла логов. Команды выполняют следующие действия: missingok - сообщает logrotate не выводить ошибку, если файл логов отсутствует. notifempty - не выполняет ротацию файла логов, если он пуст. Уменьшает размер файла лога с помощью gzip size - гарантирует, что файл логов не превышает указанный размер, и поворачивает его в противном случае daily - меняет файлы журналов по ежедневному расписанию. Это также можно делать по недельному или ежемесячному расписанию. create - создает файл логов, в котором владелец и группа являются пользователем root Итоги Тщательное понимание того, как просматривать и читать логи Linux, необходимо для устранения неполадок в системе Linux. Использование правильных команд и инструментов может упростить этот процесс.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59