По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Сегодняшняя статья целиком посвящена новичкам, которые только делают первые шаги на этапе знакомства с операционной системой CentOS. В статье мы собрали топ – 20 команд, которые будут полезны в повседневной работе, управлении сервером и в базовом «траблшутинге». Команды Для подключения к серверу, воспользуйтесь любым SSH – клиентом (например, putty). В консоли клиента необходимо указать IP – адрес и выбрать чекбокс SSH Для подключения на пользователя root, воспользуйтесь командой su - Чтобы посмотреть содержимое директории, воспользуйтесь командой ls -al. Например, чтобы посмотреть все содержимое в директории IP – АТС Asterisk, дайте команду ls -al /etc/asterisk/ Если вы хотите перейти в другую директорию (папку), воспользуйтесь командой cd (change directory). Как пример cd /etc/asterisk/ Для удаления файлов, пользуйтесь командой rm. Например, команда rm –rf /var/spool/asterisk/monitor/2017/03/09/in-74996491913-79851234567-20170309-124606-1489052766.5.wav удалит входящий аудио – запись входящего звонка на номер 74996491913 с мобильного телефона 79851234567 от 09 марта 2017 года. Будьте аккуратны с этой командой :) Для просмотра или редактирования воспользуйтесь графическим редактором vim. Как пример vim /etc/asterisk/extensions_custom.conf Для начала редактирования файла нажмите O Сохранения нажмите Esc и :x! Для копирования файлов существует команда cp (copy). Как пример cp /etc/asterisk/extensions_custom.conf /home/admin/. Тем самым, в директорию /home/admin будет добавлен файл extensions_custom.conf. Чтобы сменить владельца файла, воспользуйтесь chown (change owner). Чтобы сменить владельца всех файлов в директории /etc/asterisk на пользователя asterisk дайте команду chown –R asterisk:asterisk /etc/asterisk Чтобы дать определенные права файлу существует команда chmod. Например, дадим максимальные права файлу /etc/asterisk/extensions_custom.conf командой chmod 777 /etc/asterisk/extensions_custom.conf. Более подробно про права в Linux можете почитать в этой статье. Для создания «символьной» ссылки на файл используйте команду ln. Например, ln –s /storage/test /etc/test. Важно! Файл /etc/test не должен быть создан до выполнения команды. Для перезагрузки нужных служб используется директория /etc/init.d/. Например, команда /etc/init.d/httpd restart перезагрузит WEB – сервер. Для выключения того или иного процесса, вы можете воспользоваться его PID. Чтобы его найти, дайте команду ps axu | grep -i asterisk | grep -v grep. PID процесса будет во второй колонке. Теперь, когда вы знаете PID процесса, дайте команду kill -0 #номер_процесса. Как пример, kill -9 1738. Чтобы узнать, какой из процессов больше всего «отъедает» ресурсы CPU воспользуйтесь командой top. Если вам необходимо настроить DNS сервера, то внесите изменения в файл /etc/resolv.conf. Например, откройте файл командой vim /etc/resolv.conf и добавьте в него DNS сервер: nameserver 8.8.8.8 Чтобы посмотреть загрузку оперативной памяти RAM в ОС CentOS, воспользуйтесь командой free -m. Вывод будет показан в мегабайтах, с указанием общего объема памяти, занятое и свободное пространство. Для проверки использования памяти на жестких дисках дайте команду df -h. Вы также увидите общий объем, занятое и свободное пространство. Для проверки использования памяти на жестких дисках дайте команду df -h. Вы также увидите общий объем, занятое и свободное пространство. Чтобы увидеть размер конкретной директории, воспользуйтесь командой du. Например, для определения размера директории /etc/asterisk/ воспользуйтесь du -sh /etc/asterisk/. Если вам необходимо узнать версию установленного пакет, воспользуйтесь командой rpm. Например, проверки версии yum дайте команду rpm -qa | grep -i yum. Узнать перечень полезных команд yum можно в этой статье.
img
Что такое оркестрация контейнеров? Контейнерные платформы, такие как Docker, в настоящее время очень популярны для упаковки приложений, основанных на микросервисной архитектуре. Контейнеры можно сделать высокомасштабируемыми, которые можно создавать по требованию. Это удобно, когда речь идет о нескольких контейнерах, но представьте, что у вас их сотни. Управление жизненным циклом контейнера и управление самим контейнером становится чрезвычайно трудным, когда число постоянно увеличивается по мере увеличения спроса. Оркестрация контейнеров решает проблему за счет автоматизации планирования, развертывания, масштабируемости, балансировки нагрузки, доступности и организации сетей контейнеров. Оркестрация контейнеров - это автоматизация и управление жизненным циклом контейнеров и услуг. Это процесс управления и организации архитектуры нескольких контейнеров и микросервисов в масштабе. К счастью, на рынке имеется много инструментов для оркестрации контейнеров. Давайте рассмотрим их! Что такое DevOps, что нужно знать и сколько получают DevOps - специалисты? 1. Kubernetes Kubernetes - платформа с открытым исходным кодом, изначально разработанная Google и в настоящее время поддерживаемая Cloud Native Computing Foundation. Kubernetes поддерживает как декларативную конфигурацию, так и автоматизацию. Это может помочь автоматизировать развертывание, масштабирование и управление контейнерной рабочей нагрузкой и услугами. API Kubernetes помогает установить связь между пользователями, компонентами кластера и внешними компонентами сторонних производителей. Уровень управления Kubernetes и сами узлы выполняются на группе узлов, которые вместе образуют кластер. Рабочая нагрузка приложения состоит из одного или нескольких модулей, которые выполняются на узле (узлах) Worker. Уровень управления контролирует группы контейнеров (Pod-ы) и рабочие узлы. Такие компании, как Babylon, Booking.com, AppDirect широко используют Kubernetes. Особенности Обнаружение служб и балансировка нагрузки Оркестрация системы хранения данных Автоматизированные развертывания и откаты Горизонтальное масштабирование Управление секретом и конфигурацией Самовосстановление Пакетное выполнение Двойной стек IPv4/IPv6 Автоматическая упаковка ячеек 2. OpenShift Redhat предлагает OpenShift Container Platform как сервис (PaaS). Он помогает автоматизировать приложения на безопасных и масштабируемых ресурсах в гибридных облачных средах. Он предоставляет платформы корпоративного уровня для создания, развертывания и управления контейнерными приложениями. Сервис построен на движке Redhat Enterprise Linux и Kubernetes. Openshift имеет различные функциональные возможности для управления кластерами через интерфейс пользователя и интерфейс командной строки. Redhat предоставляет Openshift еще в двух вариантах, Openshift Online - предлагается как программное обеспечение в качестве услуги (SaaS) Выделенный OpenShift - предлагается как управляемые услуги Openshift Origin (Origin Community Distribution) - родительский проект сообщества с открытым исходным кодом, который используется в OpenShift Container Platform, Openshift Online и OpenShift Distributed. 3. Nomad Nomad - это удобный, гибкий и простой в использовании оркестратор рабочей нагрузки для развертывания контейнеров и неконтейнерных приложений и управления ими не зависимо от того расположены они в облачной или в локальной среде. Nomad работает как единый двоичный файл с небольшим ресурсом (35MB) и поддерживается в macOS, Windows, Linux. Разработчики используют декларативную инфраструктуру как код (IaC) для развертывания своих приложений и определяют способ развертывания приложения. Nomad автоматически восстанавливает приложения после сбоев. Nomad подходит для оркестрации любого типа приложений (не только контейнеры). Она обеспечивает первоклассную поддержку Docker, Windows, Java, виртуальных машин и многого другого. Особенности Простота и надежность Модернизация устаревших приложений без перезаписи Проверенная масштабируемость Поддержка работы с несколькими облаками Встроенная интеграция с Terraform, Consul и Vault 4. Docker Swarm Docker Swarm использует декларативную модель. Можно определить требуемое состояние службы, и Docker будет поддерживать это состояние. Docker Enterprise Edition интегрировал Kubernetes с Swarm. Docker теперь обеспечивает гибкость в выборе движка оркестровки. Интерфейс командной строки Docker Engine используется для создания роя Docker движков, в которых могут быть развернуты службы приложений. Для взаимодействия с кластером используются команды Docker. Машины, которые присоединяются к кластеру, называются узлами, а управление действиями кластера осуществляет менеджер Swarm. Docker Swarm состоит из двух основных компонентов: Менеджер (Manager) узлы-менеджеры назначают задачи рабочим узлам роя. Лидер избирается на основе консенсусного алгоритма Рафта. Руководитель обрабатывает все решения по управлению роем и оркестровке задач для роя. Рабочий узел - рабочий узел получает задачи от узла менеджера и выполняет их. Особенности Управление кластерами, интегрированное с Docker Engine Децентрализованное проектирование Декларативная модель службы Масштабирование Выверка требуемого состояния Многосерверная сеть Обнаружение услуг Балансировка нагрузки Безопасность по умолчанию Скользящие обновления 5. Docker Compose Docker Compose предназначен для определения и запуска многопоточных приложений, работающих вместе. Docker-compose описывает группы взаимосвязанных служб, которые совместно используют программные зависимости, и организованы и масштабированы вместе. Для настройки служб приложения можно использовать файл YAML (dockerfile). Затем с помощью команды docker-compose up можно создать и запустить все службы из конфигурации. docker-compose.yml выглядит следующим образом: version: '3' volumes: app_data: services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:6.8.0 ports: - 9200:9200 - 9300:9300 volumes: - ./elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./elastic-certificates.p12:/usr/share/elasticsearch/config/elastic-certificates.p12 - ./docker-data-volumes/elasticsearch:/usr/share/elasticsearch/data kibana: depends_on: - elasticsearch image: docker.elastic.co/kibana/kibana:6.8.0 ports: - 5601:5601 volumes: - ./kibana.yml:/usr/share/kibana/config/kibana.yml app: depends_on: - elasticsearch image: asadali08527/app:latest ports: - 8080:8080 volumes: - app_data:/var/lib/app/ С помощью Docker Compose можно включить код приложения в несколько независимо работающих служб, которые взаимодействуют с помощью внутренней сети. Инструмент предоставляет интерфейс командной строки для управления всем жизненным циклом приложений. Docker Compose традиционно был сосредоточен на разработке и тестировании рабочих процессов, но сейчас они фокусируются на более ориентированных на производство функциях. Docker Engine может быть автономным экземпляром, подготовленным с помощью Docker Machine, или целым кластером Docker Swarm. Особенности Несколько изолированных сред на одном хосте Сохранять данные тома при создании контейнеров Воссоздавать только измененные контейнеры Переменные и перемещение композиции между средами 6. MiniKube Minikube позволяет пользователям запускать Kubernetes локально. С помощью Minikube можно локально тестировать приложения внутри одноузлового кластера Kubernetes на персональном компьютере. В Minikube интегрирована поддержка Kubernetes Dashboard. Minikube работает под управлением последнего стабильного выпуска Kubernetes и поддерживает следующие функции: Балансировка нагрузки Мультигруппа Постоянные тома NodePorts Конфигурационные карты и секреты Container Runtime: Docker, CRI-O Включение CNI (интерфейс контейнерной сети) 7. Marathon Marathon предназначен для Apache Mesos, который может организовывать как приложения, так и фреймворки. Apache Mesos - менеджер кластеров с открытым исходным кодом. Mesos - проект компании Apache, способный выполнять как контейнерные, так и неконтейнерные рабочие нагрузки. Основными компонентами в кластере Mesos являются узлы-агенты Mesos, Mesos мастер, ZooKeeper, фреймворки. Фреймворки вместе с мастером создают расписание заданий для узлов-агентов. Разработчики используют платформу Marathon в основном для планирования заданий. Планировщик Marathon использует ZooKeeper для поиска текущего хозяина для отправки заданий. Планировщик Marathon и мастер имеют второго мастера, чтобы обеспечить высокую доступность. Клиенты взаимодействуют с Marathon с помощью REST API. Особенности Высокая доступность Приложения с отслеживанием состояния Красивый и мощный пользовательский интерфейс Ограничения Обнаружение служб и балансировка нагрузки Проверки работоспособности Подписка на событие Метрики API REST 8. Cloudify Cloudify - облачное средство оркестровки с открытым исходным кодом для автоматизации развертывания и управления жизненным циклом контейнеров и микросервисов. Она предоставляет такие функции, как кластеры по требованию, автоматическое восстановление и масштабирование на уровне инфраструктуры. Cloudify может управлять контейнерной инфраструктурой и управлять службами, работающими на контейнерных платформах. Его можно легко интегрировать с менеджерами контейнеров на базе Docker и самим Docker, включая следующие: Docker Docker Swarm Docker Composes Kubernetes Apache Mesos Cloudify помогает создавать, восстанавливать, масштабировать и удалять кластеры контейнеров. Оркестровка контейнеров является ключевым фактором в обеспечении масштабируемой и высокодоступной инфраструктуры, на которой могут работать менеджеры контейнеров. Cloudify обеспечивает возможность управления разнородными службами между платформами. Приложения можно развернуть с помощью CLI и Cloudify Manager. 9. Rancher Rancher - платформа с открытым исходным кодом, использующая оркестровку контейнеров, известную как скот. Он позволяет использовать такие службы оркестрации, как Kubernetes, Swarm, Mesos. Rancher предоставляет программное обеспечение, необходимое для управления контейнерами, чтобы организациям не требовалось создавать платформы контейнерных услуг с нуля, используя отдельный набор технологий с открытым исходным кодом. Rancher 2.x позволяет управлять кластерами Kubernetes, работающими на указанных клиентом поставщиках. Начало работы с Rancher - это двухшаговый процесс. Подготовка хоста Linux Подготовьте узел Linux с 64-разрядным Ubuntu 16.04 или 18.04 (или другим поддерживаемым дистрибутивом Linux, и не менее 4GB памяти. Установите поддерживаемую версию Docker на узел. Запуск сервера Чтобы установить и запустить Rancher, выполните следующую команду Docker на хосте: $ sudo docker run -d --restart=unless-stopped -p 80:80 -p 443:443 rancher/rancher Пользовательский интерфейс Rancher позволяет управлять тысячами кластеров и узлов Kubernetes. 10. Containership Containership предназначен для развертывания инфраструктуры Kubernetes с несколькими облаками и управления ею. Он гибок в работе с общедоступными, частными облачными средами и локальными средами с помощью единого инструмента. Он позволяет обслуживать, управлять и контролировать кластеры Kubernetes всех основных облачных провайдеров. Containership построена с использованием облачных инструментов, таких как Terraform для выделения ресурсов, Prometheus для мониторинга и Calico для управления сетями и политиками. Он построен на чистом Kubernetes. Платформа Containership предлагает интуитивно понятную панель управления, а также мощный REST API для коплексной автоматизации. Особенности Панель управления с поддержкой нескольких облачных платформ Журналы аудита Поддержка экземпляра графического процессора Модернизация без прерывания работы Запланированные шаблоны Интегрированные метрики Ведение журнала в реальном времени Развертывание с нулевым временем простоя Поддержка постоянных хранилищ Поддержка частных реестров Автоматическое масштабирование рабочей нагрузки Управление ключами SSH 11. AZK AZK - это инструмент оркестровки с открытым исходным кодом для сред разработки через файл манифеста (Azkfile.js), который помогает разработчикам устанавливать, настраивать и запускать часто используемые инструменты для разработки веб-приложений с различными технологиями с открытым исходным кодом. AZK использует контейнеры вместо виртуальных машин. Контейнеры подобны виртуальным машинам с более высокой производительностью и более низким потреблением физических ресурсов. Файлы Azkfile.js можно повторно использовать для добавления новых компонентов или создания новых с нуля. Он может использоваться совместно, что обеспечивает полный паритет между средами разработки на разных машинах программистов и снижает вероятность ошибок во время развертывания. 12. GKE GKE предоставляет полностью управляемое решение для оркестровки контейнерных приложений на Google Cloud Platform. Кластеры GKE созданы на основе Kubernetes. Вы можете взаимодействовать с кластерами с помощью Kubernetes CLI. Команды Kubernetes можно использовать для развертывания приложений и управления ими, выполнения задач администрирования, установки политик и мониторинга работоспособности развернутых рабочих нагрузок. Расширенные функции управления Google Cloud также доступны с кластерами GKE, такими как балансировка нагрузки Google Cloud, пулы узлов, автоматическое масштабирование узлов, автоматическое обновление, автоматическое восстановление узлов, ведение журнала и мониторинг с помощью операционного пакета Google Cloud. Google Cloud предоставляет инструменты CI/CD, помогающие создавать и обслуживать контейнеры приложений. Cloud Build можно использовать для создания образов контейнеров (например, Docker) из различных репозиториев исходного кода, а Container Registry - для хранения образов контейнеров. GKE - готовое для предприятия решение с предварительно разработанными шаблонами развертывания. 13. AKS AKS является полностью управляемым сервисом Kubernetes, предлагаемым Azure, который предлагает безсерверные Kubernetes, безопасность и управление. AKS управляет кластером Kubernetes и позволяет легко развертывать контейнерные приложения. AKS автоматически настраивает все главные и подчиненные узлы Kubernetes. Необходимо только управлять узлами агента и выполнять их обслуживание. AKS бесплатен; вы платите только за узлы агентов в кластере, а не за мастер узеал. Кластер AKS можно создать на портале Azure или программно. Azure также поддерживает дополнительные функции, такие как расширенные сетевые возможности, интеграция Azure с Active Directory и мониторинг с помощью Azure Monitor. AKS также поддерживает контейнеры Windows Server. Производительность кластера и развернутых приложений можно контролировать с помощью Azure Monitor. Журналы хранятся в рабочей области Azure Log Analytics. AKS сертифицирован как как совместимый с Kubernetes. 14. AWS EKS AWS EKS - полностью управляемый сервис Kubernetes. AWS позволяет запускать кластер EKS с помощью AWS Fargate, который является безсерверной мощностью для контейнеров. Fargate устраняет необходимость в выделении ресурсов и управлении серверами, позволяя платить за ресурс за приложение. AWS позволяет использовать дополнительные функции EKS, такие как Amazon CloudWatch, Amazon Virtual Private Cloud (VPC), AWS Identity, группы автоматического масштабирования и управление доступом (IAM), приложения мониторинга, масштабирования и балансировки нагрузки. EKS интегрируется с сеткой AWS App и предлагает собственный опыт Kubernetes. EKS работает под управлением последнего Kubernetes и сертифицирован как совместимый с Kubernetes Заключение Надеемся, что приведенный выше список дал общее представление о различных инструментах оркестрации контейнеров, и теперь в зависимости от ваших требований, будет легче выбрать подходящий.
img
В производственной среде даже минимальное время простоя недопустимо. Это может привести к потере доходов и, что хуже всего, репутации. Чтобы отладить возможные сценарии, которые приводят к простою, развертываются разные системы регистрации событий и мониторинга. Это помогает экономить средства и своевременно выявлять проблемы, которые могут возникнуть в будущем. В настоящее время большинство организаций, вне зависимости от размера, так или иначе использует принципы и инструменты DevOps. Наиболее популярны контейнеры и Kubernetes. И мониторинг такой системы проводится очень эффективно с помощью Prometheus. Но там, где Prometheus отстает – узкая часть. Она не обеспечивает централизованную систему логирования, и именно здесь на сцену выходит Loki. Что такое Grafana Loki? Grafana Loki - система агрегации логов с нескольких источников, запущенная компанией Grafana в 2018 году и выпущенная под лицензией Apache 2.0. Разработки системы были вдохновлены Prometheus. Он широко используется с поставщиками облачных технологий и такими инструментами, как Prometheus и Grafana. Loki аналогичен стеку ELK/EFK, но его проще настроить и использовать, и предлагает лучшие функциональными возможностями. Loki не индексирует содержимое журнала, а индексирует метки времени и набор меток для потока журнала. Это делает индекс меньше, что упрощает операции и в конечном итоге снижает стоимость. Преимущества Loki Ниже приведены преимущества использования Loki в стеке: Благодаря индексации только метаданных, Loki очень экономичен. Выполнение индексов для полнотекстовой обработки требует большей оперативной памяти, которая стоит дорогой. Хранение журналов на объектах хранения, как S3, также уменьшает себестоимость. Он поддерживает использование нескольких источников с использованием tenantID, поэтому данные из каждого ресурса хранятся отдельно. Loki можно запускать локально для небольших операций или легко масштабировать по горизонтали для крупномасштабных операций. Он использует динамический стиль для обеспечения согласованности кворума для операций чтения и записи. По умолчанию он настроен на создание 3 реплик журналов для защиты от сбоев процессов и внезапных выходов с места потери журналов. Да, это повлечет за собой дополнительные расходы, но не такие высокие – целостность данных более критична. Легко интегрируется с такими популярными инструментам, как Kubernetes, Prometheus и визуализация в Grafana. Архитектура Loki Архитектура Loki состоит из трех компонентов - Promtail, Loki и Grafana. Promtail - это агент, который должен быть установлен на каждом узле, на котором выполняются приложения или службы. Основной обязанностью Promtail является обнаружение цели, прикрепление меток к потокам подов, и сохранение этих логов в экземпляры Loki. Агент promtail передает журналы из локальной файловой системы на центральный сервер Loki. После этого можно выполнить обратный запрос журналов с помощью Grafana. Сценарии использования Loki Ниже приведены популярные сценарии использования системы ведения журнала, подобных Loki. Бизнес-аналитика: Это, пожалуй, самый распространённый пример использования, создание действенного понимания на основе данных журнала всегда может быть очень полезным. Loki может помочь в понимании данных журнала и даст возможность создавать новые стратегии для роста бизнеса. Например, с помощью данных журнала организации можно узнать коэффициенты эффективности рекламного канала. Мониторинг: Prometheus часто используется для мониторинга в разных отраслях. Но вы можете многое идентифицировать, отслеживая свои журналы с помощью таких инструментов, как Loki. Она, просматривая журналы и отправляя предупреждения после превышения порога, поможет вам отслеживать частоту ошибок на вашем веб-сайте. Отладка и устранение неполадок: Loki может помочь команде DevOps быстро находить ответ на такие вопросы, как когда произошел сбой приложения, причина его сбоя, его последний статус перед сбоем и т.д. Кибербезопасность: За последние несколько лет число кибератак на порталы электронной коммерции увеличивается в геометрической прогрессии. С помощью Loki можно выполнить проверку журналов, чтобы выявить любые угрозы, проблемы или вредоносные действия, происходящие в системе вашей организации. Если взлом был успешным, Loki мог бы быть полезным для криминалистов, чтобы детально понять, что происходило в системе. Это поможет им отследить хакеров. Соблюдение норм: Для соблюдения отраслевых норм организации должны вести журналы аудита до 7 лет. Местные власти могут проверять журналы в любое время. Loki может безопасно хранить ваши журналы аудита. Установка Loki и Promtail Далее покажем, как установить и визуализировать журналы на Grafana. В этой демонстрации мы используем общую конфигурацию, которая будет собирать журналы из /var/log/* log. Перейдите на страницу релизов Loki на Github, прокрутите вниз до Assets. Здесь вы найдете несколько пакетов Loki и Promtail. Загрузите пакет Loki в соответствии с используемой системой. Не устанавливайте пакеты cli или canary Loki. Я загружаю loki-linux-amd64.zip и promtail-linux-amd64.zip для моей системы Ubuntu. После завершения загрузки разархивируйте файлы Loki и Promtail и поместите их в единый каталог. Теперь загрузите общий файл конфигурации Loki и Promtail. Чтобы запустить Loki, выполните приведенную ниже команду с файлом конфигурации Loki. Это приведет к запуску Loki и отображению журналов Loki в терминале. loki-linux-amd64 loki-local-config.yaml promtail-linux-amd64 promtail-local-config.yaml Чтобы запустить Promtail, выполните приведенную ниже команду с файлом конфигурации Promtail. Promtail должен получить журналы в Loki. ./loki-linux-amd64 -config.file=loki-local-config.yaml Визуализация логов с помощью Loki и Grafana Grafana обеспечивает встроенную поддержку Loki. Loki уже присутствует в источниках данных Графаны. Шаг 1. Перейдите к разделу Конфигурации Grafana и нажмите кнопку Data Sources (Источники данных). Шаг 2. В окне источников данных можно выполнить поиск источника по имени или типу. Шаг 3. Введите в строку поиска слово Loki. Этот источник данных уже присутствует в Grafana. Нажмите кнопку Select (Выбрать). Шаг 4. Введите имя, которое вы хотите дать источнику данных, и поместите http://localhost:3100 (измените его на IP-адрес сервера, если Loki работает на сервере, отличном от Grafana) в строку URL. Порт прописываем потому, что мы запустили Loki на порту 3100. Нажмите кнопку Save and Test внизу. Если настройка Loki выполнена правильно, появится следующее сообщение в зеленом поле. Шаг 5.Нажмите на вкладку Explore (Обзор) на левой части панели. Выберите Loki в раскрывающемся списке выбора источника данных. Теперь неплохо было бы визуализировать активность журналов Grafana. Для этого необходимо добавить запрос {filename = "/var/log/grafana/grafana.log "} в строку обозревателя журналов. Зеленые полосы ниже представляют собой записи событий в файле журнала. Можно выбрать временной диапазон, для которого визуализация должна отображаться на панели мониторинга, а также задать интервал обновления запроса. Чтобы просмотреть более подробную информацию о событии, прокрутите вниз и щелкните по одной из записей журнала, она выведет всю имеющуюся информацию, связанные с данным событием. Заключение Распределенная система состоит из множества приложений или микросервисов, каждый из которых генерирует тысячи событий. Нужен экономичный способ сбора журналов, их хранения и последующего использования. Loki - идеальное решение для таких случаев. Фактически, за счет интеграции Loki в производственную среду, затраты на ведение журналов и мониторинг можно сократить до 75%.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59