По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Каждый день в цифровом мире "рождаются" новые уязвимости. Администраторы систем часто заняты управлением серверами и игнорируют очевидные проблемы безопасности. Сканирование сервера Linux на наличие проблем с безопасностью - непростая задача. Вот почему существует множество инструментов, которые помогут сисадминам. OpenVAS является одним из таких инструментов с открытым исходным кодом, который позволяет проверять ваш сервер Linux на наличие существующих уязвимостей. Можно установить собственные правила или использовать правила, предоставленные сообществом. На протяжении многих лет OpenVAS эффективно использует свои возможности для системных администраторов, а также для специалистов по безопасности. Рассмотрим это подробнее. Что такое OpenVAS? OpenVAS – это открытая система оценки уязвимости (Open Vulnerability Assessment Scanner). В основном OpenVAS предоставляет пользователю удобный и простой интерфейс, чтобы вам не приходилось существенно изменять программное обеспечение. Кроме того, он предоставляет базу данных встроенных тестов, которые обновляются ежедневно. Как будет показано ниже в этом учебном пособии, при входе пользователя в устройство, которое он хочет сканировать, программное обеспечение будет проверять версии любого программного обеспечения, которое работает в системе, и если какие-либо уязвимости будут записаны в базе данных OpenVAS, она покажет пользователю возможные уязвимости программного обеспечения в системе. Возьмем, например, программное обеспечение VSFTPD с версией v2.3.4. Известно, что это обеспечение уязвимо и позволяет злоумышленнику использовать команды для запуска зараженной системы. Если бы вы не знали об этом, быстрое сканирование OpenVAS уведомило бы вас. Как установить OpenVAS? Система OpenVAS должна быть доступна во всех основных дистрибутивах Linux. Просто используйте диспетчер пакетов своего дистрибутива, чтобы установить ее. Чтобы установить OpenVAS на Ubuntu, необходимо включить пространство хранилища. sudo add-apt-repository universe sudo apt update sudo apt install openvas Установка может занять довольно много времени, даже если качество и скорость вашего подключения надежны. Последней строкой в окне установки будет указан код, созданный для системного администратора, который рекомендуется хранить в безопасном месте. Как использовать OpenVAS? Рассмотрим, как настроить OpenVAS и запустить его. Управление пользователями OpenVAS Чтобы создать нового пользователя или изменить пароль системного администратора или другого пользователя, необходимо выполнить следующие действия: openvasmd –create-user=<user> openvasmd –user=<user> --new-password=<password> Запуск и остановка OpenVAS Для запуска сканера уязвимостей OpenVAS необходимо выполнить следующую команду: sudo openvas-start Чтобы остановить OpenVAS, просто замените start на stop: sudo openvas-stop После запуска OpenVAS его веб-интерфейс можно найти по адресу https://localhost: 9392 После принятия самозаполняющегося сертификата и подключения перед вами появится главная панель управления. На панели мониторинга отображаются все сведения о выполняемом сканировании. Им можно управлять, а также выполнять новое сканирование с панели мониторинга. В разделе «Сканирование» (Scans) вы увидите следующие рубрики: задачи, отчет, результаты (Tasks, Report, Results) . Задачи: В этом разделе можно создать и запустить новое сканирование. Отчет: В окне «Отчеты» (Reports) можно просмотреть сведения о выполненном программой или подготовленном вами отчете. Результаты: Наконец, в этом разделе можно увидеть результаты сканирования и их критичность. Это поможет вам выбрать соответствующие меры безопасности для вашего сервера. Время обновления: В правом верхнем углу можно увидеть опцию: нет автоматического обновления. Это означает, что в преддверии результатов, если вы хотите увидеть, что OpenVAS нашел до этого момента, вы должны обновить страницу самостоятельно. Это, конечно, можно изменить и модифицировать на 30 секунд, 1 минуту, 2 минуты и 5 минут соответственно. Сканирование слабых мест Чтобы проверить нашу систему или сервер на наличие уязвимостей, необходимо создать задачу. Перейдите в раздел Сканирования -> Задача -> Новая задача. Здесь имеется несколько вариантов: В поле Имя необходимо указать имя сканирования. Возможно, это имя сервера, который необходимо сканировать, или вы также можете задать текущую дату. Вам решать. Можно указать тип сканера. Можно выполнить поиск CVE, cve хранятся в базе данных. Кроме того, можно настроить конфигурацию сканирования для определения скорости и детализации сканирования. В целях сканирования необходимо указать IP-адрес сервера Linux, который требуется сканировать. На данном этапе следует отметить, что проверяемый IP-адрес не обязательно должен находиться в одной сети. Можно также сканировать общедоступный сервер. Возможности сканирования не ограничиваются только одним IP-адресом. Также можно использовать несколько IP-адресов и портов или услуги, например, SSH. И, наконец, вы готовы начать сканирование. Запустите сканирование и дождитесь результатов. Сканирование может занять несколько минут. Если вам нужен безопасный сервер Linux, я думаю, вы можете подождать несколько минут. После завершения сканирования результат будет доступен на вкладке Результаты. Преимущество системы в том, что все результаты сканирования сохраняются на вкладке Отчеты. Это означает, что можно проконсультироваться и проанализировать результаты прошлых сканирований. Лично я предпочитаю OpenVAS среди всех сканеров уязвимостей. Он обеспечивает детальное сканирование через достаточно удобный для пользователя интерфейс. Это свободный и открытый исходный код. Я также предлагаю использовать Fail2Ban для защиты вашего сервера Linux от атак bruteforce.
img
Big Data (Большие данные) – это термин, обозначающий большое количество информации – структурированной и неструктурированной – наводняющей сферу бизнеса ежедневно. Но обилие этой информации – не самое важное, гораздо важнее то, что организации делают с ней. Большие данные анализируются для принятия решений и построения стратегий развития бизнеса. История Больших данных Термин «большие данные» относится к данным, настолько обильным и сложным, чей быстрый прирост сложно или невозможно обрабатывать при помощи традиционных подходов. Получение и хранение большого количества информации долгое время были камнем преткновения аналитиков, поэтому концепт больших данных набрал обороты в ранних 2000-х годах. Тогда Дуглас Б. Лейни сформулировал «правило трёх V», которое сейчас используется повсеместно, а тогда было основой концепта больших данных: Объем (Volume): Организации получают информацию от множества источников, включая биржу, смарт-девайсы («Интернета Вещей» - IoT), промышленное оборудование, видео, социальные сети и еще ряд ресурсов. В прошлом проблемой было хранение этих данных, но бюджетные хранилища на таких платформах как Hadoop и так называемых «озерах данных» облегчили это бремя. Скорость прироста (Velocity): С развитием Интернета Вещей, потоки информации наводнили бизнес-поле с беспрецедентной скоростью, и обрабатываться они должны своевременно. RFID-метки, сенсоры и интеллектуальные счетчики позволяют иметь дело с потоками данных в режиме почти реального времени. Многообразие (Variety): Данные поступают во всех возможных форматах – от структурированных, числовых данных с традиционных баз, до текстовых документов, электронных писем, видео, аудио файлов и биржевых данных. Нам, представляются релевантными еще два признака, свойственные большим данным: Переменчивость (Variability): Вдобавок к скорости прироста и многообразию, течение потока данных непредсказуемо – оно меняется часто и значительно. Это непросто, но владельцам бизнеса необходимо знать, что находится в трендах социальных сетей и как обуздывать сезонные и тематические пики выгрузки данных. Достоверность (Veracity): Достоверность – это качество данных. Из-за вариативности источников процесс связки, подбора, очищения и трансформации данных в системе затруднен. Бизнесам необходимо выстраивать отношения и коррелировать иерархию многочисленных ссылок на данные в единую систему. В противном случае, их данные быстро выйдут из-под контроля. Почему важны Большие данные? Важно не количество данных, которыми вы обладаете, а то, что вы с ними делаете. Вы можете взять информацию из любого источника и проанализировать ее, чтобы найти ответы на следующие вопросы: Как уменьшить цены? Как сэкономить время? Как оптимизировать предложения и развивать свой продукт? Как принимать мудрые решения? Комбинируя мощные аналитические подходы и большие данные можно достичь выполнения таких бизнес-задач, как: Определение причин провалов, выявление проблем и дефектов производства в практически реальном времени. Генерирование купонов на распродажу в соответствии с привычками и особенностями покупателя. Пересчет всеобщего портфолио рисков за минуты. Предупреждение мошенничества. Кому интересны большие данные? Большие данные представляют собой большой интерес для производителей. Натиск Интернета Вещей и связанных с ним устройств создал мощный всплеск информации, которую организации собирают, структурируют и анализируют. Большие данные – это всегда возможность сделать большие открытия – для любой организации, крупной или нет. Углубленное изучение требует наличия больших данных, потому что они позволяют отделить скрытые схемы от ответов на интересующие Вас вопросы без «подгонки» данных. Чем глубже вы изучаете, тем выше качество данных, тем лучше результаты. Мотивированные данными инновации Сегодня эксабайты больших данных открывают бесчисленные возможности улучить производство. От более точных прогнозов до повышения оперативной эффективности и улучшения впечатления покупателя – всё возможно, если использовать большие данные с умом. Аналитика – двигатель перемен, затрагивающих весь мир. Это ключ к улучшению условий жизни, исцелению болезней, защиты уязвимых слоев населения и сохранению ресурсов. Как работать с Большими данными? Прежде, чем большие данные начнут работать на бизнес, необходимо осознать, какой путь - источники, системы, обладателей и пользователей – проходят большие данные. Ниже приведены пять ключевых шагов к тому, чтобы стать Большим Боссом Больших Данных – структурированных, неструктурированных и полуструктурированных. Шаг 1. Постройте стратегию больших данных В идеале, стратегия больших данных – это план, выработанный для того, что бы Вы могли видеть все доступные пути для принятия, хранения, обработки, распределения и использования данных внутри компании и за ее пределами. Стратегия больших данных устанавливает планку для успеха бизнеса на фоне обилия информации. Разрабатывая стратегию, важно учесть существование – и будущее развитие – бизнеса, его технологий, целей и инициатив. Это призывает к тому, чтобы с большими данными обращались, как и с любым другим ценным активом, а не как с второсортным приложением. Шаг 2. Узнайте об источниках данных Потоки данных поступают из Интернета Вещей и сопряженных с ним устройств, вливающихся в информационные системы из умной одежды, машин, медицинских устройств, промышленного оборудования и прочего. Эту информацию можно анализировать прямо в момент поступления, решая, что из нее нужно оставить, от чего – избавиться, и что подлежит дальнейшему анализу. Данные социальных сетей поступают из таких источников, как Facebook, YouTube, Instagram, так далее. Эта категория включает в себя огромное количество изображений, видео, голосовых, текстовых и аудио данных, пригодных для маркетинга, распродаж и поддерживающих функций. Эти данные зачастую неструктурированы или полу-структурированы, поэтому их анализ и обработка представляют собой неповторимое испытание. Публично доступные данные поступают из массивов открытых источников, например, data.gov, которым руководит правительство США, или Всемирная книга фактов ЦРУ и Портал открытых данных ЕС. Другие источники больших данных – такие, как «озера», облака поставщиков и покупателей. Шаг 3. Получите доступ к большим данным, обрабатывайте их и храните Современные компьютерные системы способны обеспечить необходимую для обработки массивов данных скорость, мощность и гибкость. Помимо надежного доступа, компании нуждаются в методиках сбора данных, проверки их качества и обеспечения управления данными, а так же их хранения и подготовки к аналитике. Некоторые данные могут храниться в локальной системе традиционных хранилищ, но существуют так же и доступные, недорогие способы хранения данных в облаках, «озерах» и Hadoop. Шаг 4. Анализируйте С помощью высокопроизводительных технологий, таких как грид-вычисления или in-memory аналитика, организации могут использовать все свои большие данные для анализа. Другой подход заключается в предварительном определении актуальности данных. В обоих случаях, аналитика больших данных – это ценный опыт для любой компании. Большие объемы данных все чаще используются в современных аналитических разработках, таких как искусственный интеллект. Шаг 5. Принимайте умные, мотивированные информацией решения Хорошо обработанные данные, которым можно доверять, позволят проводить качественный анализ, на основе которого можно принимать надежные решения. Любому бизнесу необходимо использовать большие данные и действовать, основываясь на информации, которую они предоставляют, чтобы оставаться конкурентоспособными. Принимать решения, продиктованные аналитическими результатами, а не интуицией. Преимущества таких решений очевидны. Организации, управляемые данными, работают лучше, являются более развитыми и более прибыльными. Дальнейшие шаги Большие данные требуют чуткого управления и поддержки продвинутых аналитических технологий. Чтобы подготовить большие данные, меняющиеся ежесекундно, для аналитической обработки, Вам необходимо получить доступ, оформить профиль, очистить данные и преобразовать их. При наличии большого количества источников, объемов и скорости прироста, подготовка данных может занимать огромное количество времени, и тут не обойтись без профессиональной помощи.
img
Про хоботистый проект, который изменил многое Интернет, на текущее время, это непрерывно развивающаяся сеть планетарного масштаба. Ее существование невозможно представить без поисковых программ и социальных сетей. Большинство пользователей интернета, ежедневно заходящих в Facebook или ищущих информацию в Yahoo, даже не задумываются, как работает эта система то есть, контактируют только с пользовательским интерфейсом программы. И мало кто знает, что продукты такого типа работают на основе распределенных программам. Их работа основана на кластерах наборах узлов, которые используются для поиска нужной клиенту информации. И одним из основных наборов инструментов, который используется при разработке такого рода программ, является Hadoop. Что же это такое? Как говорилось выше, это не отдельная программа, а целый набор инструментов, библиотек и приложений, а также инструмент для удобной работы с ними. Для удобства, назовем весь этот комплекс "фреймворком". Всё это предназначено для разработки и использования распределенных программ. В этой статье мы разберемся, из чего состоит основной инструментарий Hadoop и упомянем о самых распространенных программах из набора. Строго говоря, разработчиком Hadoop является компания Apache Software Foundation. Однако, в силу того, что данный набор программ является свободно распространяемым, ряд сторонних разработчиков (Hortonworks, MapR, Cloudera) создали на основе Apache Hadoopряд своих сборок, которые завоевали у пользователей большую популярность. Это произошло потому, что такие сборки гораздо стабильнее ведут себя в работе и гораздо удобнее в использовании. Основной базовой частью Hadoop является распределенная файловая система HDFS. От обычных файловых систем ее отличает то, что хранение и работа с файловыми дескрипторами осуществляется с отдельного сервера имён, а данные находятся на отдельных серверах данных. Это делает систему исключительно надежной, поскольку даже при внештатных ситуациях процент безвозвратной потери данных очень мал. Кроме того, система позволяет узнать, на какой конкретной машине расположен интересующий блок данных. Пару слов о движках: Развитие проекта привело к тому, что классическая схема MapReduce, с которой проект начинал свою работу, сейчас заменяется на варианты Spark или Tez, поскольку значительно ускоряют работу с данными. Spark более универсальная модель движка, применяемая повсеместно, Tez в свою очередь более узко специализирован. К наиболее популярным системам управления базами данных в данном решении можно отнести базовый вариант Hive, а также альтернативные варианты, такие как Impala от Cloudera, или Spark SQL. Данные продукты имеют свои достоинства и недостатки, но возможность выбора лучшего решения делает проект в общем и целом достаточно гибким и удобным для пользования. Свою нишу в данном проекте также имеет отдельная NoSQL-база Hbase. Это важное решение для всей системы Hadoop, поскольку эффективно поддерживает работу с отдельными записями в режиме реального времени. Для импорта данных на текущий момент, пожалуй, единственным эффективным вариантом остается Kafka от оригинального разработчика Apache. Уникальность данного решения в том, что импорт серьезных объемов данных в данном случае заложен в саму архитектуру проекта. Конечно, Kafka обладает рядом минусов, но работы над обновлением и оптимизацией ведутся постоянно. Помимо этого набора программ, который можно считать базовым, Hadoop обладает рядом других полезных инструментов. Это и алгоритмы машинного обучения для оптимизации работы всей системы (MLlib, Mahout), и программа-координатор ZooKeeper, обладающая широчайшими возможностями по конфигурированию и управлению, программы для планирования задач в проектах Azkaban и Oozie, а так же многие другие подключаемые модули различного назначения и, соответственно, различной полезности в рамках того или иного проекта.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59