По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
В современной среде информационной безопасности преобладают криптоминирующие вредоносные программы, также известные как криптоджеккинг. В 2019 году 38% всех компаний в мире пострадали от такого вредоносного ПО. В этой статье мы подробно рассмотрим типологию крипто-вредоносных программ и обсудим пять самых крупных крипто-вредоносных атак. Кроме того, дадим несколько кратких рекомендаций о том, как защититься от таких программ. Типология крипто-вредоносных программ Крипто-вредоносные программы можно разделить на три категории: вредоносные ПО для крипто-майнинга; крипто-вымогатели; крипто-кражи. Вредоносные ПО для крипто-майнинга Вредоносное ПО для крипто-майнинга — это вредоносное ПО, которое заражает компьютер, чтобы использовать его вычислительную мощность для того, чтобы майнить криптовалюту без авторизации. После заражения компьютера этот тип вредоносных программ может оставаться незамеченным в течение долгого времени, поскольку он предназначен для работы без привлечения внимания. Одним из признаков, указывающих на заражение вредоносным ПО для шифрования, является медленная работа зараженного компьютера. В некоторых крайних случаях вредоносное ПО может полностью блокировать работу зараженного компьютера из-за полного истощения ресурсов этого ПК. Вредоносное ПО для крипто-майнинга может затронуть не только настольные компьютеры, но и ноутбуки, мобильные телефоны и устройства Интернета вещей (IoT). Чтобы проиллюстрировать работу подобного вредоносного ПО, мы кратко обсудим один конкретный тип такого вредоносного ПО, а именно WannaMine. Он использует зараженный компьютер, чтобы генерировать криптовалюту Monero. WannaMine использует хакерский инструмент EternalBlue. Первоначально его разработалоАгентство национальной безопасности США (NSA), но позже послужил основой для различных вредоносных приложений, включая печально известный WannaCry. Криптовалюта, генерируемая через WannaMine, добавляется в цифровой кошелек мошенников. По оценкам, более 500 миллионов пользователей Интернета добывают криптовалюты на своих вычислительных устройствах, не зная об этом. Крипто -вымогатели Крипто-вымогатель — это вредоносная программа для шифрования файлов, которые хранятся на зараженном компьютере, и просит пользователей этого компьютера заплатить выкуп за доступ к зашифрованным файлам. Выкуп, как правило, варьируется от 300 до 500 долларов США и должен быть оплачен в биткойнах или другой криптовалюте. Крипто-вымогатели могут нанести существенный урон мировой экономике. Например, предполагаемые убытки от крипто-вымогателей WannaCry составляют 4 миллиарда долларов США. Около 230 000 компьютеров по всему миру заразились этой программой, включая компьютеры больниц и телекоммуникационных компаний. За два месяца до появления WannaCry Microsoft выпустила исправление безопасности, которое защищало пользователей Microsoft Windows от WannaCry и других вредоносных программ, основанных на эксплойте EternalBlue. Однако, поскольку многие люди и организации не обновили свои операционные системы своевременно, WannaCry удалось заразить большое количество компьютеров. Как только WannaCry заражает компьютер, он шифрует файлы, хранящиеся на этом компьютере, и требует выкуп: от 300 до 600 долларов. Однако большинство жертв, которые заплатили запрошенный выкуп, не расшифровали свои файлы. Некоторые исследователи утверждают, что никому не удалось расшифровать файлы, которые зашифровала WannaCry. Крипто-кража Крипто-кража направлена на тайную кражу криптовалюты у пользователей зараженных компьютеров. Например, хакерская группа Lazarus из Северной Кореи использовала приложение для обмена сообщениями Telegram для распространения вредоносных программ, позволяющих злоумышленникам красть криптовалюты. Такое вредоносное ПО часто разрабатывают хакеры из Северной Кореи, поскольку криптовалюты позволяют северокорейцам уклоняться от экономических санкций, введенных рядом стран и международных организаций. Согласно отчету ООН от 2019 года, Северная Корея получила более 2 миллиардов долларов США в виде криптовалюты путем взлома криптовалютных бирж и других организаций. Топ 5 крипто-вредоносных атак: 1. Retadup Retadup, ПО для крипто-майнинга, должно быть первым в списке, потому что ему удалось заразить и создать ботнет из 850 000 компьютеров. Ботнет, который считался одним из крупнейших в мире, обнаружила и уничтожила французская полиция. 2. Smominru Программное обеспечение для крипто-вымогательства Smominru находится на втором месте, поскольку оно затронуло более 500 000 машин. 3. CryptoLocker Вредоносная программа CryptoLocker получает бронзовую медаль, поскольку она также затронула более 500 000 компьютеров. Однако ущерб, причиненный им, пока неясен. 4. Bayrob Group Вредоносное ПО для крипто-майнинга Bayrob Group, затронувшее более 400 000 компьютеров, занимает четвертое место. Стоит отметить, что два члена преступной группы были экстрадированы из Румынии в США и осуждены за киберпреступность и мошенничество. 5. WannaCry Пятое место занимает WannaCry, крипто-вымогатель, который более подробно обсуждался выше. Заражено 230 000 компьютеров. Как защититься от крипто-вредоносных программ Частные лица и организации, которые хотят защитить себя от крипто-вредоносных программ, должны повышать свою осведомленность в области информационной безопасности посредством образования и обучения. Это связано с тем, что крипто-вредоносные программы обычно распространяются, заманивая компьютерных пользователей открывать вредоносные вложения или нажимать на мошеннические веб-сайты. В дополнение к повышению осведомленности о крипто-вредоносных программах, необходимо регулярно устанавливать обновления программного обеспечения и исправления, чтобы предотвратить использование хакерами таких уязвимостей, как EternalBlue. И последнее, но не менее важное: крайне важно установить надежное решение для защиты от вредоносного ПО, которое выявляет и удаляет его безопасно, быстро и эффективно.
img
CentOS дистрибутив линукс основанный на коммерческом дистрибутиве RHEL от компании RED HAT. Считается, что CentOS имеет более высокую степень защиты, чем Ubuntu server. И именно поэтому системные администраторы предпочитают его устанавливать в качестве серверного ПО. В данной статье мы рассмотрим установку данной ОС. Для тестовой установки выбрана виртуальная машина, развертывание ВМ на VMware, не является предметом данной статьи. Установка CentOS 7 Подключаем скаченный с официального сайта CentOS дистрибутив (в нашем случае 7, версия 8 и 8.1 устанавливаются аналогично) и запускаем ВМ. Загрузчик предлагает сделать выбор: 1-й вариант - это непосредственно сама установка 2-й вариант - это проверка вашего "железа" и в случае отсутствия ошибок дальнейшая установка. На следующем экране программа предлагает сделать выбор языка и раскладки клавиатуры. В большинстве случаев, на данных серверах работает серверное ПО и подключаются для управления только администраторы. Не вижу большого смысла менять язык интерфейса и раскладку клавиатуры. Нажимаем Continue. Основной экран настроек будущей Операционной системы. Предлагаю начать с настройки сети и имени сервера. Меняем hostname. Рекомендую писать понятные имена или вообще завести классификацию. В дальнейшем это очень облегчит жизнь. Вводим и нажимаем Apply Далее нажимаем кнопку Configure и проваливаемся в настройки сетевого адаптера. Идем в настройки IPv6 и отключаем данный протокол. Это делаем по следующим соображениям. Мало кто использует данный протокол в локальной сети. Для новичков он более сложен в освоении и использовании, чем протокол ipv4. Поэтому он навряд ли вам понадобится. А тот, кто умеет его использовать, данная инструкция будет не интересна. Поэтому в поле Method щелкам и из списка выбираем Ignore. Настраиваем протокол ipv4. Данный протокол самый распространенный. Для настройки, нам потребуется сетевые параметры. Ip, mask, Gateway, DNS и если у вас есть то имя домена. Нажимаем ADD и добавляем ip , маску можно задать 2-мя вариантами CIDR или развернуто. Прописываем ip адрес шлюза. Шлюз должен иметь сетевую связанность с ip адресом машины, т. к. автоматически в системе пропишется маршрут по умолчанию через данный шлюз. DNS cервера. Если у нас один DNS сервер, то просто пишем его Ip адрес, если более их можно указать, через символ запятой. И последнее указываем домен если он у вас есть Search domains. Если нету, то можно оставить поле пустым. Если сетевые пакеты данных должны ходить, каким-то хитрым способом, то для этого есть кнопка Routers, где можно описать маршруты, но думаю новичкам это не понадобится. Жмем кнопку Save и сохраняем настройки. Возвращаемся к главному меню. Следующее Date and Time. В отличии от windows машин, часовой пояс и время, а также синхронизация на серверах CentOS может оказаться критичной. Поэтому данный параметр лучше настроить сразу, как и синхронизацию с ntp сервером. В поле Region выбираем Регион и в поле City выбираем ближайший город. Фактически данные настройки позволяют установить региональный часовой пояс. Данная настройка позволит адекватно анализировать записи логов на сервере и сопоставлять произошедшее с реальным временем. Network Time должно быть включено - это означает, что часы на сервере будут синхронизироваться с серверами ntp в глобальной сети или нажав на значок шестеренок мы можем указать другой ntp сервер с которым наша ОС, будет синхронизироваться. По окончанию настройки нажимаем Done. Следующая настройка, это разбивка Жесткого диска на разделы. В данном разделе можно оставить все в автоматическом режиме, если нет специфических требований к логическим разделам жесткого диска. Можно галочкой отметить шифрование и ввести пароль если данная опция требуется. А также можно выбрать "I will configure partitioning", если предполагается отклонение от рекомендуемых параметров разбивки. Если рекомендуемая конфигурация устраивает, то убедитесь, что галочка установлена как на изображении и жмите Done. Следующий раздел Software Selection. В данном разделе можно выбрать набор прикладного ПО, которое будет установлено на сервер. В данном разделе можно очень гибко настроить, то, что будет установлено вместе с ОС. Minimal Install - это базовая установка функционала по сути это только ОС. Конечно в процессе эксплуатации можно все доставить, но не всегда удобно. Но этого в принципе достаточно для базового функционирования сервера. Остальные пункты можно самостоятельно просмотреть и выбрать то, что необходимо. Жмем на кнопку Done и выходим в главное меню. Основные параметры установки ОС настроены. Можно начинать процесс установки. Жмем Begin Installation. Начинается установка. В процессе установки необходимо задать пароль root. И можно создать пользователя, даже наделить правами Администратора (root). По окончанию процесса вам программа установки предложит перезагрузить ВМ. Жмем Reboot. Установка завершена. Базовая настройка ОС CentOS 7 Для управления серверными *nix ОС, системные администраторы используют подключение по SSH протоколу для этого на Firewall должен быть открыт 22 порт, для подключения и настроен OpenSSH. В базовой установке CentOS7 обычно сразу устанавливается OpenSSH и настраивается правило, открывающее порт 22 на сервере. НО по умолчанию запрещено подключение от пользователя root по ssh к серверу, это сделано в целях безопасности. Поэтому 2 варианта: Если вы создали на этапе установки пользователя и дали ему root права, подключится с помощью ssh. Через окно инсталляции ВМ внести изменение в конфигурацию openssh. Для подключения по ssh в классическом варианте используется программа putty, но на самом деле можно использовать любой ssh клиент. Даже встроенный в ОС Windows. При удачном подключении вы увидите приглашение к авторизации на сервере. Вводим логин и пароль и попадаем в консоль ОС. Примерно это выглядит так. Знак "$" говорит, что мы в пользовательском режиме. Знак "#", о том, что в привилегированном. Мы будем работать в пользовательском режиме для повышения прав используя команду "sudo". Первое, что необходимо сделать это поставить обновления. sudo yum update sudo yum upgrade После обновления для удобства рекомендую поставить Midnight Commander sudo yum install mc -y Устанавливаем сетевые утилиты: sudo yum install net-tools -y sudo yum install bind-utils -y Ставим удобный текстовый редактор nano sudo yum install nano -y Отключаем SElinux sudo setenforce 0 Или отключаем на постоянной основе через sudo nano /etc/sysconfig/selinux и редактируем строчку SElinux=disable. Сохраняем и перезагружаем сервер. Reboot. На этом первоначальная настройка сервера закончена.
img
Это продолжение статьи про пакетную коммутацию. Первая часть тут. Схемы агрегации каналов берут несколько физических каналов и объединяют их в один виртуальный канал. В целях протоколов маршрутизации и алгоритмов предотвращения петель, таких как связующее дерево, виртуальный канал обрабатывается, как если бы он был одним физическим каналом. Агрегирование каналов используется для увеличения пропускной способности между узлами сети без необходимости замены более медленных физических каналов на более быстрые. Например, два канала 10 Гбит/с можно объединить в один канал 20 Гбит/с, тем самым удвоив потенциальную полосу пропускания между двумя узлами, как показано на рисунке 6. Слово «потенциал» было выбрано тщательно, поскольку агрегированные каналы на практике не масштабируются линейно. Проблема, с которой сталкивается агрегация каналов, заключается в определении, какие пакеты должны быть отправлены по какому элементу связи. Интуитивно это может показаться не проблемой. В конце концов, казалось бы, имеет смысл использовать группу каналов связи в циклическом режиме. Первоначальный фрейм будет отправлен по первому элементу связки, второй фрейм - по второму элементу и так далее, в конечном итоге возвращаясь к первому элементу связки. Таким образом, канал должен использоваться идеально равномерно, а пропускная способность - линейно. В реальной жизни существует очень мало подобных реализаций, в которых агрегированные каналы используются на такой циклической основе, как эта, потому что они рискуют доставить неупорядоченные пакеты. Предположим, что первый кадр Ethernet отправляется первому звену нисходящего канала, а второй кадр - второму элементу нисходящего канала сразу после него. По какой-то причине второй кадр попадает на другой конец раньше первого кадра. Пакеты, содержащиеся в этих кадрах, будут доставлены принимающим узлам в неупорядоченном порядке - пакет два перед пакетом один. Это проблема, потому что теперь на хост возлагается вычислительная нагрузка по переупорядочению пакетов, чтобы можно было правильно собрать всю дейтаграмму. Поэтому большинство поставщиков реализуют хеширование потоков, чтобы гарантировать, что весь поток трафика использует один и тот же элемент пакета. Таким образом, нет никакого риска того, что хост получит пакеты не по порядку, так как они будут отправляться последовательно через один и тот же элемент канала. Хеширование потока работает путем выполнения математической операции над двумя или более статическими компонентами потока, такими как MAC-адреса источника и получателя, IP-адреса источника и получателя, протокол управления передачей (TCP) или протокол дейтаграмм пользователя (UDP). номера портов для вычисления элемента связи, который будет использовать поток. Поскольку характеристики потока статичны, алгоритм хеширования приводит к идентичным вычислениям для каждого кадра или пакета в потоке трафика, гарантируя, что один и тот же канал будет использоваться в течение всего срока службы потока. Хотя хеширование потока решает проблему неупорядоченных пакетов, оно создает новую проблему. Не все потоки имеют одинаковый размер. Некоторые потоки используют большую полосу пропускания, например те, которые используются для передачи файлов, резервного копирования или хранения. Их иногда называют «слоновьими потоками» (elephant flows). Другие потоки довольно малы, например, те, которые используются для загрузки веб-страницы или связи с использованием передачи голоса по IP. Их иногда называют «мышиными потоками» (mouse flows). Поскольку потоки имеют разные размеры, некоторые элементы связи могут работать на полную мощность, а другие - недостаточно. Это несоответствие в использовании возвращает нас к вопросу о линейном масштабировании. Если бы фреймы были сбалансированы по нагрузке через агрегированный набор каналов совершенно равномерно, то добавление новых каналов в набор равномерно увеличило бы емкость. Однако алгоритмы хэширования в сочетании с непредсказуемым объемом потоков трафика означают, что связанные каналы не будут загружаться равномерно. Задача сетевого администратора - понять тип трафика, проходящего через агрегированный канал, и выбрать доступный алгоритм хеширования, который приведет к наиболее равномерному распределению нагрузки. Например, некоторые соображения по этому поводу: Обмениваются ли многие хосты в одном широковещательном домене друг с другом через агрегированный канал? Хеширование против MAC-адресов, найденных в заголовке кадра Ethernet, является возможным решением, потому что MAC-адреса будут разными. Обменивается ли небольшое количество хостов с одним сервером через агрегированный канал? В этом сценарии может не хватить разнообразия MAC-адресов или IP-адресов. Вместо этого хеширование по номерам портов TCP или UDP может привести к наибольшему разнообразию и последующему распределению трафика по агрегированным ссылкам. Протокол управления агрегацией каналов (LACP) При объединении каналов связи необходимо учитывать сетевые устройства на обоих концах канала связи и проявлять особую осторожность, чтобы обеспечить формирование пакета каналов связи при сохранении топологии без петель. Наиболее распространенным способом решения этой проблемы является использование отраслевого стандарта Link Aggregation Control Protocol (LACP), кодифицированного как стандарт 802.3 ad института инженеров электротехники и электроники (IEEE). На каналах, обозначенных сетевым администратором, LACP объявляет о своем намерении сформировать агрегированный канал с другой стороной. Другая сторона, также выполняющая LACP, принимает это объявление, если объявленные параметры действительны, и формирует канал. Как только группа каналов сформирована, агрегированный канал переводится в состояние пересылки. Затем операторы сети могут запросить LACP для получения информации о состоянии агрегированного канала и о состоянии его членов. LACP также знает, когда элемент связки выходит из строя, так как управляющие пакеты больше не проходят через сбойный канал. Эта возможность полезна, так как позволяет процессу LACP уведомлять сетевую операционную систему о необходимости пересчета хэшей потока. Без LACP сетевой операционной системе может потребоваться больше времени, чтобы узнать о сбойном канале, что приведет к хешированию трафика к элементу связи, который больше не является допустимым путем. Существуют и другие протоколы управления агрегацией каналов. В некоторых случаях также возможно создавать пакеты каналов вручную без защиты управляющего протокола. Однако LACP доминирует в качестве стандарта, используемого сетевыми поставщиками, а также ведущими операционными системами и поставщиками гипервизоров для агрегации каналов. Multichassis Link Aggregation Multichassis Link Aggregation (MLAG) - это функция, предлагаемая некоторыми сетевыми поставщиками, позволяющая одному агрегированной связке каналов охватывать два или более сетевых коммутатора. Чтобы облегчить это, специальный протокол управления поставщика будет работать между коммутаторами-членами MLAG, заставляя несколько сетевых коммутаторов действовать так, как если бы они были одним коммутатором, в отношении LACP, протокола связующего дерева (STP) и любых других протоколов. Обычным обоснованием для MLAG является физическая избыточность, когда сетевому инженеру требуется более низкий уровень (например, Ethernet) смежности между сетевыми устройствами (вместо маршрутизируемого соединения), а также требуется, чтобы связка каналов оставалась включенной, если удаленная сторона канала выходит из строя. Распространение связки каналов между двумя или более коммутаторами позволяет выполнить это требование. Рисунок 7 демонстрирует это. В то время как многие сети используют некоторые разновидности MLAG в производстве, другие уклоняются от этой технологии, по крайней мере частично, потому что MLAG является собственностью. Нет такой вещи, как multivendor MLAG. Тенденции к лучшему проектированию сети в сторону от широко рассредоточенных коммутируемых доменов, сценарий, который выигрывает у MLAG. Вместо этого при проектировании сети наблюдается тенденция к ограниченным коммутируемым доменам, взаимосвязанным посредством маршрутизации, что устраняет необходимость в технологиях MLAG. Маршрутизированные параллельные каналы Маршрутизируемые плоскости управления, называемые протоколами маршрутизации, иногда вычисляют набор нескольких путей через сеть с равными затратами. В случае маршрутизации несколько каналов с одинаковой стоимостью могут даже не подключать одну пару устройств; Рисунок 8 демонстрирует это. На рисунке 8 есть три пути: [A, B, D] общей стоимостью 10 [A, D] общей стоимостью 10 [A, C, D] общей стоимостью 10 Поскольку эти три пути имеют одинаковую стоимость, все они могут быть установлены в локальной таблице переадресации в точках A и D. Маршрутизатор A, например, может пересылать трафик по любому из этих трех каналов в направлении D. Когда маршрутизатор имеет несколько вариантов. чтобы добраться до того же пункта назначения, как он решает, какой физический путь выбрать? Как и в случае с ECMP нижнего уровня, ответ - хеширование. Маршрутизированное хеширование ECMP может выполняться в различных областях. Общие поля для хеширования включают IP-адреса источника или назначения и номера портов источника или назначения. В результате хеширования выбирается согласованный путь на протяжении потока L3. Только в случае сбоя канала потребуется перестроить поток и выбрать новый канал пересылки. Механизмы обработки пакетов Шаги, связанные с маршрутизацией одного пакета, могут показаться очень простыми—найдите пункт назначения в таблице, создайте (или извлеките) перезапись заголовка MAC, перепишите заголовок MAC, а затем поместите пакет в правильную очередь для исходящего интерфейса. Как бы просто это ни было, все равно требуется время, чтобы обработать один пакет. На рисунке 9 показаны три различных пути, по которым пакет может быть коммутироваться в сетевом устройстве. Рисунок 9 иллюстрирует три различных пути коммутации через устройство; это не единственные возможные пути коммутации, но они являются наиболее распространенными. Первый путь обрабатывает пакеты через программное приложение, работающее на универсальном процессоре (GPP), и состоит из трех этапов: Пакет копируется с физического носителя в основную память Физический сигнальный процессор, чип PHY, посылает сигнал на GPP (вероятно, но не обязательно, главный процессор в сетевом устройстве), называемый прерыванием. Прерывание заставляет процессор останавливать другие задачи (вот почему это называется прерыванием) и запускать небольшой фрагмент кода, который будет планировать запуск другого процесса, приложения коммутации, для выполнения позже. Когда приложение коммутации запустится, оно выполнит соответствующий поиск и внесет соответствующие изменения в пакет. После коммутации пакета он копируется из основной памяти исходящим процессором. Такое переключение пакета через процесс часто называется коммутацией процесса (по понятным причинам) или иногда медленным путем. Независимо от того, насколько быстрым является GPP, для достижения полной линейной скорости коммутации на высокоскоростных интерфейсах требуется большая настройка - до такой степени, что это практически невозможно. Второй путь коммутации, показанный на рисунке 9, был разработан для более быстрой обработки пакетов: Пакет копируется с физического носителя в основную память Микросхема PHY прерывает GPP; код обработчика прерывания, а не вызов другого процесса, фактически обрабатывает пакет. После коммутации пакета, пакет копируется из основной памяти в процесс вывода, как описано ниже. По понятным причинам этот процесс часто называют interrupt context switching; многие процессоры могут поддерживать коммутацию пакетов достаточно быстро, чтобы передавать пакеты между интерфейсами с низкой и средней скоростью в этом режиме. Сам код коммутации, конечно же, должен быть сильно оптимизирован, потому что коммутация пакета заставляет процессор прекращать выполнение любых других задач (например, обработки обновления протокола маршрутизации). Первоначально это называлось - и до сих пор иногда называется fast switching path. Для действительно высокоскоростных приложений процесс коммутации пакетов должен быть выгружен с главного процессора или любого типа GPP на специализированный процессор, предназначенный для конкретной задачи обработки пакетов. Иногда эти процессоры называются сетевыми процессорами (Network Processing Units -NPU), подобно тому, как процессор, предназначенный для обработки только графики, называется графическим процессором (Graphics Processing Unit-GPU). Эти специализированные процессоры являются подмножеством более широкого класса процессоров, называемых специализированными интегральными схемами (Application-Specific Integrated Circuits -ASIC), и инженеры часто просто называют их ASIC. Переключение пакета через ASIC показано как шаги с 7 по 9 на рисунке 9: Пакет копируется с физического носителя в память ASIC Микросхема PHY прерывает работу ASIC; ASIC обрабатывает прерывание путем переключения пакета. После коммутации пакета пакет копируется из памяти ASIC в процесс вывода, как описано ниже. Многие специализированные ASIC для обработки пакетов имеют ряд интересных функций, в том числе: Структуры внутренней памяти (регистры) настроены специально для обработки различных типов адресов, используемых в сетях. Специализированные наборы команд, предназначенные для выполнения различных требований к обработке пакетов, таких как проверка внутренних заголовков, переносимых в пакете, и перезапись заголовка MAC. Специализированные структуры памяти и наборы инструкций, предназначенные для хранения и поиска адресов назначения для ускорения обработки пакетов Возможность повторного использования пакета через конвейер пакетов для выполнения операций, которые не могут поддерживаться за один проход, таких как глубокая проверка пакетов или специализированные задачи фильтрации.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59