По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие наши статьи:
img
Создание единого устройства обработки пакетов - маршрутизатор (или коммутатор уровня 3, который теперь обычно называют просто коммутатором), являющийся наиболее распространенным примером, был до этого момента в центре внимания. Пришло время соединить маршрутизаторы вместе. Рассмотрим сеть на рисунке 1. Приложение, работающее на хосте A, должно получить некоторую информацию от процесса, запущенного на F. Устройства B, C, D и E, конечно же, являются обработчиками пакетов (маршрутизаторами). Для пересылки пакетов между хостами A и F маршрутизатор B будет вызван для пересылки пакетов на F, даже если он не подключен к F. аналогично маршрутизаторам C и D потребуется пересылать пакеты как A, так и F, даже если они не подключены ни к одному из этих хостов. В том разделе рассматривается следующий вопрос: Как сетевые устройства создают таблицы, необходимые для пересылки пакетов по свободным от петель путям в сети? Ответ гораздо сложнее, чем может показаться на первый взгляд, поскольку на самом деле в нем содержится несколько проблем: Как устройства узнают о топологии сети, какие каналы связи подключены к каким устройствам и назначениям. Как плоскости управления принимают эту информацию и создают в сети пути без петель? Как плоскости управления обнаруживают изменения в сети и реагируют на них? Каким образом уровни управления масштабируются для удовлетворения потребностей крупномасштабных сетей? Какие политики реализованы на уровне управления и как? Все эти проблемы будут рассмотрены далее. Обнаружение топологии Сетевые диаграммы обычно показывают всего несколько типов устройств, включая маршрутизаторы, коммутаторы, системы, подключенные к сети (различные типы хостов) и различные типы устройств (например, межсетевые экраны). Они часто связаны между собой каналами, представленными в виде линий. Пример представлен на рисунке 2. Сетевые диаграммы, как и многие другие формы абстракции, скрывают много информации, чтобы сделать встроенную информацию более доступной. Во-первых, сетевые диаграммы обычно находятся где-то между логическим и физическим представлением сети. Такие диаграммы обычно не показывают каждое физическое соединение в сети. Например, сетевая диаграмма может показывать связку каналов как одну линию связи или один физический провод, который был мультиплексирован как несколько логических каналов (например, Ethernet или какой-либо другой канал широковещательной передачи, который представляет собой один физический канал, используемый несколькими устройства для связи). Примечание В сетевой инженерии часто возникает некоторая путаница с термином мультиплексирование. Многие инженеры склонны рассматривать совместное использование двух виртуальных каналов как единственную форму сетевого мультиплексирования. Однако всякий раз, когда есть несколько устройств, совместно использующих одну линию связи, ситуация, в конечном счете требующая некоторой формы адресации, временного разделения трафика или частотного разделения трафика, используется мультиплексирование. Виртуализацию можно рассматривать как второй уровень мультиплексирования или мультиплексирование поверх мультиплексирования. Во-вторых, сетевые схемы часто не учитывают логическую сложность сервисов. Однако плоскость управления не маскирует такого рода сложности. Вместо этого плоскость управления должна собирать информацию о сети локально и с других плоскостей управления, объявлять ее другим устройствам, на которых работает плоскость управления, и создавать набор таблиц, которые плоскость данных может использовать для пересылки трафика через каждое устройство в сети от источника к месту назначения. В этой статье мы рассмотрим проблему: Как плоскость управления узнает о сети? Этот вопрос можно разбить на несколько частей: О чем пытается узнать плоскость управления? Или, возможно, каковы компоненты топологии сети? Как плоскость управления узнает об устройствах, подключенных к сети? Какие основные классификации используются при описании объявления информации о сети? Узлы сети, границы и достижимый пункт назначения. Первая проблема, которую необходимо решить, на самом деле является мета-вопросом: какие виды информации должна изучать и распространять плоскость управления, чтобы строить пути без петель в сети? Однако небольшое предупреждение по поводу следующего материала статьи: сетевые термины трудно однозначно определить, поскольку отдельные термины часто используются для описания множества "вещей" в сети, в зависимости от контекста, в котором они используются. Узел Узел либо обрабатывает пакеты (включая пересылку пакетов), либо отправляет пакеты, либо принимает пакеты в сети. Термин взят из теории графов, где их также можно назвать вершинами, хотя этот термин более широко применяется в сетевой инженерии. В сети есть несколько типов узлов, в том числе: Транзитный узел: любое устройство, предназначенное для приема пакетов на одном интерфейсе, их обработки и отправки на другом интерфейсе. Примерами транзитных узлов являются маршрутизаторы и коммутаторы. Их часто просто называют узлами, так они будут именоваться здесь в статье, а не транзитными узлами. Конечный узел: также называется конечной системой или хостом: любое устройство, предназначенное для запуска приложений, которые генерируют и/или принимают пакеты от одного или нескольких интерфейсов. Это сетевые источники и приемники, чаще всего эти узлы на самом деле называются хостами, а не конечными узлами, чтобы отличать их от shorthand узлов, что обычно означает транзитный узел. В этих двух определениях есть много очевидных дыр. Как должно называться устройство, которое принимает пакет на одном интерфейсе, завершает соединение в локальном процессе или приложении, генерирует новый пакет, а затем передает этот новый пакет из другого интерфейса? Проблема усложняется, если информация, содержащаяся в двух пакетах, примерно одинакова, как в случае с прокси-сервером или каким-либо другим подобным устройством. В этих случаях полезно классифицировать устройство как конечное или узел в определенном контексте, в зависимости от роли, которую оно играет по отношению к другим устройствам в контексте. Например, с точки зрения хоста прокси-сервер действует как устройство сетевой переадресации, поскольку работа прокси-сервера (в некоторой степени) прозрачна для хоста. Однако с точки зрения соседнего узла прокси-серверы являются хостами, поскольку они завершают потоки трафика и (как правило) участвуют в плоскости управления так же, как и хост. Граница (край) Граница - это любое соединение между двумя сетевыми устройствами, через которое пересылаются пакеты. Номинальный случай - соединение точка-точка (point-to-point), соединяющее два маршрутизатора, но это не единственный случай. В теории графов ребро соединяет ровно два узла. В сетевой инженерии существуют понятия мультиплексированных, многоточечных и других типов мультиплексированных каналов. Чаще всего они моделируются как набор соединений point-to-point, особенно при построении набора маршрутов без петель в сети. Однако на сетевых диаграммах мультиплексированные каналы часто изображаются как одна линия с несколькими присоединенными узлами. Достижимый пункт назначения Достижимый пункт назначения может описывать один узел или службу, или набор узлов или служб, доступных через сеть. Номинальным примером достижимого пункта назначения является либо хост, либо набор хостов в подсети, но важно помнить, что этот термин может также описывать службу в некоторых контекстах, таких как конкретный процесс, запущенный на одном устройстве, или множество вариантов службы, доступных на нескольких устройствах. Рисунок 3 иллюстрирует это. В сети, показанной на рисунке 3, достижимые пункты назначения могут включать: Любой из отдельных хостов, например A, D, F, G и H Любой из отдельных узлов, например B, C или E Служба или процесс, работающий на одном хосте, например S2. Служба или процесс, работающий на нескольких хостах, например S1. Набор устройств, подключенных к одному физическому каналу или границе, например F, G и H Этот последний достижимый пункт назначения также представлен как интерфейс на конкретном канале или на границе сети. Следовательно, маршрутизатор E может иметь несколько достижимых пунктов назначения, включая: Интерфейс на линии, соединяющей маршрутизатор E с C Интерфейс на линии, соединяющей маршрутизатор E с B Интерфейс на линии, соединяющей маршрутизатор E с хостами F, G и H Сеть, представляющая достижимость для хостов F, G и H Любое количество внутренних служб, которые могут быть объявлены как отдельные адреса, порты или номера протоколов Любое количество внутренних адресов, присоединенных к виртуальным каналам связи, которые не существуют в физической сети, но могут использоваться для представления внутреннего состояния устройства (не показано на рисунке3) Таким образом, концепция достижимого пункта назначения может означать множество разных вещей в зависимости от контекста. В большинстве сетей достижимый пункт назначения - это либо одиночный хост, одиночный канал (и хосты, подключенные к нему), либо набор каналов (и хосты, прикрепленные к этим каналам), объединенные в один достижимый пункт назначения. Теперь, почитайте материал про топологию сетей.
img
В этом подробном руководстве показано, как установить ffmpeg в Ubuntu и других дистрибутивах Linux. Он также демонстрирует некоторые полезные команды ffmpeg для практического использования. ffmpeg - это утилита командной строки (CLI) для обработки мультимедийных файлов. Это фреймворк с множеством функций и, благодаря лицензии с открытым исходным кодом, является основой для многих распространенных приложений, таких как VLC, YouTube, iTunes и многих других. Ряд видеоредакторов для Linux используют ffmpeg под GUI. В этом руководстве мы расскажем, как установить ffmpeg, и как использовать его базовые и продвинутые функции. Установка ffmpeg в Linux Установка ffmpeg - это простой процесс. Это популярное приложение, которое доступно в большинстве дистрибутивов Linux через менеджер пакетов. Установка ffmpeg в Ubuntu В Ubuntu ffmpeg доступен в репозитории Universe , поэтому убедитесь, что он включен. а затем обновите список пакетов и установите ffmpeg. Вы можете сделать все это, используя следующие команды в терминале: sudo add-apt-repository universe sudo apt update sudo apt install ffmpeg Готово! Чтобы проверить установку выполните: ffmpeg Вы должны увидеть вывод, описывающий вашу конфигурацию ffmpeg, включая версию. Как вы можете видеть на скриншоте выше, установлена версия 3.4.4. Однако последняя версия ffmpeg на момент написания этой статьи - 4.2. Чтобы установить любую версию 4.x, вы должны установить ffmpeg через PPA (персональный архив пакетов). Существует неофициальный PPA, который вы можете использовать для установки последней версии ffmpeg. Просто используйте эти команды: sudo add-apt-repository ppa:jonathonf/ffmpeg-4 sudo apt update sudo apt install ffmpeg -y Установка ffmpeg в дистрибутивах на основе Arch Чтобы установить ffmpeg в дистрибутивах на основе Arch, используйте следующую команду: sudo pacman -S ffmpeg Установка ffmpeg в дистрибутивах на основе Fedora Чтобы установить ffmpeg в дистрибутивы Linux на основе Fedora, вы можете использовать эту команду: sudo dnf install ffmpeg Установка ffmpeg в CentOS/RHEL FFmpeg недоступен в репозиториях CentOS 8 по умолчанию. Вы можете собрать инструменты ffmpeg из исходного кода или установить его с помощью утилиты dnf из репозитория Negativo17. Репозиторий Negativo17 зависит от репозиториев EPEL (Extra Packages for Enterprise Linux) и PowerTools. Для их включения используйте: sudo dnf install epel-release sudo yum config-manager --set-enabled PowerTools sudo yum-config-manager --add-repo=https://negativo17.org/repos/epel-multimedia.repo После включения этих репозиториев уже можно установить сам ffmpeg: sudo dnf install ffmpeg Установка ffmpeg в Debian Официальные репозитории Debian содержат пакеты FFmpeg, которые можно установить с помощью менеджера пакетов apt. sudo apt install ffmpeg Как использовать ffmpeg: Основы С установленным ffmpeg перейдем к основным командам, чтобы вы начали использовать этот мощный инструмент. Основные строительные блоки ffmpeg: ffmpeg - инструмент командной строки для конвертации мультимедийных файлов между форматами ffplay - простой медиаплеер на основе SDL и библиотек FFmpeg ffprobe - простой мультимедийный анализатор потоков ffmpeg также содержит библиотеки для разработчиков - libavutil, libavcodec, libavformat, libavdevice, libavfilter, libswscale и libswresample. Процесс транскодирования в ffmpeg для может быть описан следующей схемой: 0. Команды ffmpeg Основная форма команды ffmpeg: ffmpeg [global_options] {[input_file_options] -i input_url} ... {[output_file_options] output_url} ... Вы должны иметь в виду, что все параметры файла применяются только к файлу, который следует за ними (и вы должны будете записать их снова для следующего файла). Любой файл, которому не предшествует -i, считается выходным файлом. ffmpeg использует столько входов и выходов, сколько вы предоставляете. Вы также можете использовать одно и то же имя как для входного, так и для выходного файла, но вам придется добавить тег -y перед именем выходного файла. Вы не должны смешивать входы и выходы: сначала укажите входные файлы, затем укажите выходные файлы. 1. Получить информацию медиа файла Первое использование ffmpeg - отображение информации о медиафайле. Это можно сделать, не вводя никаких выходных файлов. Просто введите: ffmpeg -i file_name Это работает для аудио и видео файлов: ffmpeg -i video_file.mp4 ffmpeg -i audio_file.mp3 Хотя эта команда полезна, она отображает слишком много информации, которая не относится к вашему файлу (информация о ffmpeg). Чтобы пропустить это, добавьте флаг -hide_banner: ffmpeg -i video_file.mp4 -hide_banner ffmpeg -i audio_file.mp3 -hide_banner Как вы можете видеть, команда теперь выводит только информацию, касающуюся указанного вами медиа-файла (кодировщик, потоки и так далее). 2. Конвертировать медиа файлы Еще один очень полезный способ использования ffmpeg - это беспроблемное преобразование между различными форматами мультимедиа. Вам нужно только указать входные и выходные файлы, так как ffmpeg получит требуемый формат из расширений файлов. Это работает для преобразования видео в видео и аудио в аудио. Вот некоторые примеры: ffmpeg -i video_input.mp4 video_output.avi ffmpeg -i video_input.webm video_output.flv ffmpeg -i audio_input.mp3 audio_output.ogg ffmpeg -i audio_input.wav audio_output.flac Вы даже можете указать больше выходных файлов: ffmpeg -i audio_input.wav audio_output_1.mp3 audio_output_2.ogg Это преобразует входные файлы во все указанные форматы. Чтобы увидеть список всех поддерживаемых форматов, используйте: ffmpeg -formats Опять же, вы можете добавить -hide_banner, чтобы опустить информацию о приложении. Вы можете указать параметр -qscale 0 перед выходным файлом, чтобы сохранить качество видеофайла: ffmpeg -i video_input.wav -qscale 0 video_output.mp4 Кроме того, вы можете указать кодеки, которые вы хотите использовать, добавив -c:a (для аудио) и -c:v (для видео) с последующим названием кодеков, или скопировать, если хотите использовать те же кодеки, что и оригинальный файл: ffmpeg -i video_input.mp4 -c:v copy -c:a libvorbis video_output.avi 3. Извлечение аудио из видео Чтобы извлечь аудио из видеофайла, вы делаете простое преобразование и добавляете флаг -vn: ffmpeg -i video.mp4 -vn audio.mp3 Обратите внимание, что эта команда будет использовать битрейт (скорость передачи) исходного файла. Вы можете установить его вручную, и для этого использовать -ab (audio bit rate): ffmpeg -i video.mp4 -vn -ab 128k audio.mp3 Некоторые распространенные битрейты: 96 КБ, 128 КБ, 192 КБ, 256 КБ, 320 КБ (максимальный битрейт, поддерживаемый mp3). Другими общими параметрами являются -ar (частота звука: 22050, 441000, 48000), -ac (количество аудиоканалов), -f (формат аудио, хотя обычно определяется автоматически). -ab также можно заменить на -b:a. Например: ffmpeg -i video.mov -vn -ar 44100 -ac 2 -b:a 128k -f mp3 audio.mp3 4. Отключение звука в видео Как и в последнем примере, для этого мы добавим простой тег: -an (вместо -vn). ffmpeg -i video_input.mp4 -an -video_output.mp4 Примечание: Тег -an сделает все параметры звука для этого выходного файла бесполезными, поскольку в результате операции не будет звука. 5. Извлечение изображений из видео Допустим, у вас есть серия изображений (например, слайд-шоу), и вы хотите получить все изображения из этого. Просто введите: ffmpeg -i video.mp4 -r 1 -f image2 image-%3d.png -r указывает частоту кадров (сколько кадров извлекается в изображения за одну секунду, по умолчанию: 25), -f указывает формат вывода. Последний параметр (выходной файл) имеет несколько интересное название: в конце он использует %3d. Это просто нумерует ваши изображения с 3 цифрами (000, 001 и так далее). Вы также можете использовать %2d (двухзначный формат) или даже %4d (четырехзначный формат), если хотите. 6. Изменение разрешения видео или соотношения сторон Еще одно простое задание для ffmpeg. Все, что вам нужно сделать, чтобы изменить размер видео, это указать новое разрешение после флага -s: ffmpeg -i video_input.mov -s 1024x576 video_output.mp4 Кроме того, вы можете указать -c:a, чтобы убедиться в правильности аудиокодеков выходного файла: ffmpeg -i video_input.h264 -s 640x480 -c:a video_output.mov Вы также можете изменить соотношение сторон, используя -aspect: ffmpeg -i video_input.mp4 -aspect 4:3 video_output.mp4 7. Добавить изображение обложки в аудио Это отличный способ превратить аудио в видео, используя одну фотографию (например, обложку альбома) для аудио. Это очень полезная функция, когда вы хотите загружать аудиофайлы на сайты, на которых не разрешено ничего, кроме видео и изображений (YouTube и Facebook являются примерами таких сайтов). Вот пример: ffmpeg -loop 1 -i image.jpg -i audio.wav -c:v libx264 -c:a aac -strict experimental -b:a 192k -shortest output.mp4 Просто измените кодеки (-c:v указывает видеокодеки, -c:a указывает аудиокодеки) и имена ваших файлов. Также вам не нужно использовать -strict experimental, если вы используете более новую версию (4.x). 8. Добавить субтитры к видео С ffmpeg просто добавить субтитры к видео. Введите следующее: ffmpeg -i video.mp4 -i subtitles.srt -c:v copy -c:a copy -preset veryfast -c:s mov_text -map 0 -map 1 output.mp4 Конечно, вы можете указать любые кодеки, которые вы хотите (и любые другие дополнительные параметры, связанные с аудио и видео). 9. Сжатие медиа-файлов Сжатие файлов значительно уменьшает размер файла, экономя вам много места. Это может быть важно для передачи файлов. С ffmpeg есть несколько способов уменьшить размер файла. Примечание: Слишком большое сжатие файлов заметно ухудшит качество получаемого файла. Прежде всего, для аудиофайлов просто уменьшите битрейт (используя -b:a или -ab): ffmpeg -i audio_input.mp3 -ab 128k audio_output.mp3 ffmpeg -i audio_input.mp3 -b:a 192k audio_output.mp3 Опять же, некоторые значения битрейта: 96k, 112k, 128k, 160k, 192k, 256k, 320k. Чем выше битрейт, тем выше размер файла и качество. Для видео файлов у вас есть больше вариантов. Один из способов - уменьшить битрейт видео (используя -b:v): ffmpeg -i video_input.mp4 -b:v 1000k -bufsize 1000k video_output.mp4 Вы можете установить флаг -crf (Constant Rate Factor - коэффициент постоянной скорости). Чем ниже CRF, тем выше скорость передачи данных. Также помогает использование libx264 в качестве видеокодека. Вот очень эффективное уменьшение размера с очень небольшим снижением качества: ffmpeg -i video_input.mp4 -c:v libx264 -crf 28 video_output.mp4 CRF от 20 до 30 распространен, но можно выставлять и другие значения. Снижение частоты кадров (фреймрейта) может работать в некоторых случаях (хотя это может очень легко сделать видео медленным): ffmpeg -i video_input.mp4 -r 24 video_output.mp4 -r указывает частоту кадров (в данном случае 24). Вы также можете попробовать уменьшить разрешение видео (смотри выше как это сделать). Дополнительным советом является сжатие звука, делая его стереофоническим и снижая скорость передачи данных. Например: ffmpeg -i video_input.mp4 -c:v libx264 -ac 2 -c:a aac -strict -2 -b:a 128k -crf 28 video_output.mp4 Примечание: -strict -2 и -ac 2 позаботятся о стерео части 10. Обрезать медиа файлы Чтобы обрезать файлы с самого начала, вы должны указать продолжительность, используя -t: ffmpeg -i input_video.mp4 -t 5 output_video.mp4 ffmpeg -i input_audio.wav -t 00:00:05 output_audio.wav Как видите, это работает как для видео, так и для аудио файлов. Обе команды выше делают одно и то же: сохраняют первые 5 секунд входного файла в выходной файл. Можно использовать различные способы ввода длительности, как видно в примере - одно число (количество секунд) и ЧЧ:ММ:СС (часы, минуты, секунды). Вы можете пойти еще дальше, указав время начала с -ss и даже время окончания с -to: ffmpeg -i input_audio.mp3 -ss 00:01:14 output_audio.mp3 ffmpeg -i input_audio.wav -ss 00:00:30 -t 10 output_audio.wav ffmpeg -i input_video.h264 -ss 00:01:30 -to 00:01:40 output_video.h264 ffmpeg -i input_audio.ogg -ss 5 output_audio.ogg Вы можете тут видеть время начала -ss (ЧЧ:ММ:СС), длительность -t в секундах, время окончания -to (ЧЧ:ММ:СС) и время начала -s (начать после указанного времени в секундах). Как использовать ffmpeg: Расширенное использование Теперь мы расскажем о чуть более продвинутых функциях, таких как запись экрана, использование устройств и другие. 1. Обрезка медиа-файлов Чтобы разделить файл на несколько частей, нужно указать несколько разделений (указать время начала, время окончания или продолжительность перед каждым выходным файлом). Посмотрите на этот пример: ffmpeg -i video.mp4 -t 00:00:30 video_1.mp4 -ss 00:00:30 video_2.mp4 Синтаксис довольно прост. Мы указали -t 00:00:30 как продолжительность для первой части (первая часть будет состоять из первых 30 секунд исходного видео). Далее мы указали, что мы хотели бы, чтобы остальные были частью второго видео (начиная с конца последней части, 00:00:30). Это можно сделать для любого количества частей. Имейте в виду, что это работает со звуком тоже. 2. Склейка медиа-файлов ffmpeg также может выполнить противоположный процесс: собрать несколько частей вместе. Для этого вам нужно будет создать новый текстовый файл и начать редактировать его, используя предпочитаемый вами редактор. В примере мы будем использовать touch и >vim. Неважно, как вы называете этот файл. Например, назовем его join.txt и создадим, используя touch: touch videos_to_join.txt Теперь отредактируем его в vim vim videos_to_join.txt Здесь введите полные пути ко всем файлам, которые вы хотите присоединить (они будут объединены в том порядке, в котором вы их здесь пишете), по одному на строку. Убедитесь, что они имеют одинаковое расширение (например, mp4). Вот пример: /home/ubuntu/Desktop/video_1.mp4 /home/ubuntu/Desktop/video_2.mp4 /home/ubuntu/Desktop/video_3.mp4 Сохраните файл, который вы только что отредактировали. Этот метод работает для любых аудио или видео файлов. Теперь введите следующее: ffmpeg -f concat -i join.txt output.mp4 Примечание: наш выходной файл - output.mp4, потому что все наши входные файлы имеют расширение mp4. Это должно объединить все файлы, которые мы записали в join.txt, в один выходной файл. 3. Соедините изображения в видео Таким образом вы можете создать слайдшоу или что-то подобное. Первое, что мы рекомендуем сделать, это убедиться, что фотографии, которые вы хотите собрать, находятся в одном каталоге. Мы поместим наши в папку my_photos. Для картинок рекомендуются расширения .png и .jpg. Какой бы вариант вы ни выбрали, убедитесь, что все изображения имеют одинаковое расширение. Формат -f нашего преобразования должен быть image2pipe. Для ввода необходимо указать дефис -. image2pipe позволяет вам пайпировать (pipe), используя |, результаты команды, такой как cat, в ffmpeg вместо того, чтобы вводить все имена одно за другим. Чтобы это работало, мы также должны упомянуть, что мы хотим, чтобы видеокодеки были скопированы -c:v copy (чтобы правильно использовать изображения): cat my_photos/* | ffmpeg -f image2pipe -i - -c:v copy video.mkv Если вы воспроизводите этот файл, вы можете подумать, что в слайд-шоу были добавлены только некоторые изображения. На самом деле все ваши фотографии были добавлены, но ffmpeg проходит по ним их как можно быстрее. Это означает 1 кадр на фотографию, ffmpeg по умолчанию работает со скоростью около 23 кадров в секунду. Чтобы изменить это, вам нужно указать желаемую частоту кадров -framerate: cat my_photos/* | ffmpeg -framerate 1 -f image2pipe -i - -c:v copy video.mkv В нашем примере мы устанавливаем частоту кадров равную 1, что означает, что каждый кадр (что также означает каждое изображение) появляется в течение 1 секунды. Чтобы добавить аудио, например, фоновую песню, нам нужно указать аудиофайл в качестве входного файла -i audo_file и скопировать аудиокодеки -c: copy. Для кодеков вы можете копировать аудио и видео кодеки одновременно с -c copy. Убедитесь, что вы установили кодеки прямо перед указанием выходного файла. Вы также можете установить частоту кадров, чтобы все ваши изображения синхронизировались с продолжительностью звука, который вы хотите использовать. Чтобы сделать это, разделите количество изображений на продолжительность аудио (в секундах). Для нашего примера у нас есть аудиофайл длиной 22 секунды и 9 изображений. 9 разделить на 22 составляет приблизительно 0,40, поэтому мы будем использовать это для нашей частоты кадров: cat my_photos/* | ffmpeg -framerate 0.40 -f image2pipe -i - -i audio.wav -c copy video.mkv 4. Запись экрана Тут нужно использовать формат -f x11grab. Это запишет ваш XSERVER. В качестве входных данных вы должны будете указать номер вашего экрана (основной экран обычно должен быть 0:0). Но это будет захватывать только верхнюю левую часть экрана. Вы должны добавить размер экрана (или экранов). Наш размер - 1920?1080. Размер экрана должен быть указан перед вводом: ffmpeg -f x11grab -s 1920x1080 -i :0.0 output.mp4 Нажмите q или CTRL + C в любое время, чтобы остановить запись. Вы можете сделать размер выходного файла полноэкранным, введя следующее для размера (вместо 1920?1080 или любого другого установленного разрешения): -s $(xdpyinfo | grep dimensions | awk '{print $2;}') Полная команда: ffmpeg -f x11grab -s $(xdpyinfo | grep dimensions | awk '{print $2;}') -i :0.0 output.mp4 5. Запишите свою веб-камеру Запись ввода с вашей веб-камеры (или другого устройства, такого как USB-камера) еще проще. В Linux устройства хранятся в /dev как /dev/video0, /dev/video1 и так далее: ffmpeg -i /dev/video0 output.mkv И также нажмите q или CTRL + C, чтобы остановить запись. 6. Запишите ваше аудио Linux обрабатывает аудио в основном через ALSA и pulseaudio. ffmpeg может записывать оба, но мы рассмотрим pulseaudio, так как дистрибутивы на основе Debian включают его по умолчанию. Синтаксис немного отличается для двух методов. Для pulseaudio, вы должны использовать force -f alsa и указать устройство ввода по умолчанию как input -i default: ffmpeg -f alsa -i default output.mp3 В настройках звука у дистрибутива убедитесь, что записывающим устройством по умолчанию является то устройство, которое вы хотите записать. Конечно, для любого типа записи вы также можете указать кодеки. Вы можете выбрать конкретную частоту кадров -r. Вы также можете совмещать запись звука с записью с веб-камеры/экрана. ffmpeg -i /dev/video0 -f alsa -i default -c:v libx264 -c:a flac -r 30 output.mkv Вместо записи звука вы можете так же легко добавить аудиофайл в качестве звука поверх для записи экрана или веб-камеры: ffmpeg -f x11grab -s $(xdpyinfo | grep dimensions | awk '{print $2;}') -i :0.0 -i audio.wav -c:a copy output.mp4 Записи в ffmpeg мелкими, поэтому очень маленькая запись может не сохраниться. Мы рекомендуем сделать запись немного дольше и затем обрезать ее (если вам нужно всего несколько секунд), просто чтобы убедиться, что файл действительно будет записан на ваш диск. Основное использование фильтров в ffmpeg Фильтры являются невероятно мощной функцией ffmpeg. Вам доступно огромное количество фильтров, что делает ffmpeg полностью способным обрабатывать любые потребности редактирования. Основная структура для использования фильтра: ffmpeg -i input.mp4 -vf "filter=setting_1=value_1:setting_2=value_2" output.mp4 ffmpeg -i input.wav -af "filter=setting_1=value_1:setting_2=value_2" output.wav Как вы можете видеть, мы указываем видео фильтры -vf, (сокращенно от -filter:v) и аудио фильтры -af, (сокращенно от -filter:a). Фактические фильтры пишутся в двойных кавычках " и могут быть объединены в цепочку через запятую ,. Вы можете указать столько фильтров, сколько хотите. Общая форма фильтра: filter=setting_2=value_2:setting_2=value_2 Различные настройки фильтра и их значения разделены двоеточиями. Вы также можете выполнять математические операции в качестве значений для различных настроек. Более подробное описание различных констант, используемых в выражениях, и различных настроек можно найти в официальной документации фильтра ffmpeg. 1. Масштабирование видео Это очень простой фильтр. Единственными настройками являются ширина w и высота h: ffmpeg -i input.mp4 -vf "scale=w=800:h=600" output.mp4 Как мы уже упоминали, вы можете использовать математические операции для значений: ffmpeg -i input.mkv -vf "scale=w=1/2*in_w:h=1/2*in_h" output.mkv Эта команда устанавливает размер вывода равным половине (1/2) от размера ввода in_w, in_h. 2. Обрезка видео Что касается фильтра масштабирования, настройки - это ширина и высота результирующего файла. При желании вы можете указать координаты для верхнего левого угла разреза (по умолчанию: центр входного видео): ffmpeg -i input.mp4 -vf "crop=w=1280:h=720:x=0:y=0" output.mp4 ffmpeg -i input.mkv -vf "crop=w=400:h=400" output.mkv Как уже отмечалось, вторая обрезка будет вырезать в центре входного файла (так как мы не указали координаты x и y для верхнего левого угла). Первая команда будет вырезать из левого верхнего угла x=0:y=0. Вот пример, который использует математические выражения в качестве значений: ffmpeg -i input.mkv -vf "crop=w=3/4*in_w:h=3/4*in_h" output.mkv Эта команда устанавливает размер вывода на 3/4 от размера ввода (in_w, in_h). 3. Поворот видео Вы также можете повернуть видео по часовой стрелке на определенную величину в радианах. Чтобы упростить задачу, вы можете указать значение в градусах и преобразовать его в радианы, умножив это значение на PI/180: ffmpeg -i input.avi -vf "rotate=90*PI/180" ffmpeg -i input.mp4 -vf "rotate=PI" Первая команда повернет видео по часовой стрелке на 90 градусов. Вторая команда перевернет видео вверх ногами (PI рад = 180 градусов). 4. Преобразование аудиоканала Это может быть полезно, если вы каким-то образом получаете звук только в правом ухе или что-то подобное. Вы можете сделать звук слышимым из обоих ушей (в данном конкретном случае) следующим образом: ffmpeg -i input.mp3 -af "channelmap=1-0|1-1" output.mp3 Это мапит правый 1 аудиоканал на левый 0 и правый 1 аудиоканалы (левое число представляет собой вход, правое число представляет собой выход). 5. Увеличение громкости звука Вы можете умножить громкость звука на любое действительное число. Вам нужно только указать множитель: ffmpeg -i input.wav -af "volume=1.5" output.wav ffmpeg -i input.ogg -af "volume=0.75" output.ogg Первая команда увеличивает громкость в 1,5 раза. Вторая команда делает звук в 1/4 (0,25) раза тише. 6. Настройка скорости воспроизведения Фильтр для видео - setpts (PTS = presentation time stamp). Поскольку мы на самом деле модифицируем PTS, больший коэффициент означает более медленный результат, и наоборот: ffmpeg -i input.mkv -vf "setpts=0.5*PTS" output.mkv ffmpeg -i input.mp4 -vf "setpts=2*PTS" output,mp4 Первая команда удваивает скорость воспроизведения, а вторая команда замедляет видео до 1/2 скорости. Фильтр для аудио - atempo. Есть одно маленькое предостережение: оно может принимать значения только от 0,5 (половина скорости) до 2 (удвоение скорости). Чтобы обойти это, вы можете использовать их один за другим: ffmpeg -i input.wav -af "atempo=0.75" output.wav ffmpeg -i input.mp3 -af "atempo=2.0,atempo=2.0" ouutput.mp3 Первая команда замедляет звук на 1/4 от первоначальной скорости. Вторая команда ускоряет звук в 4 раза (2*2) Чтобы изменить скорость воспроизведения видео и аудио с помощью одной и той же команды, вам нужно использовать filtergraphs 7. Добавить водяной знак Для размещения водяного знака используем фильтр overlay, вместе с координатами его расположения на видео. Например, вотермарк размером 100*100 мы хотим расположить в центре видео с размерами 1280?720. Получим по горизонтали x = (1280 - 100) / 2 = 590 и по вертикали y = (720 - 100) / 2 = 310. Поэтому значение будет overlay=590:310. Но удобнее использовать формулу overlay=(main_w-overlay_w)/2:(main_h-overlay_h)/2, где main_w и main_h - высота и ширина видео, а overlay_w и overlay_h - водяного знака. Получим команду: ffmpeg -i source_video.mp4 -i watermark.png -filter_complex "overlay=(main_w-overlay_w)/2:(main_h-overlay_h)/2" -codec:a copy video_protected.mp4 Завершение В этом руководстве мы рассмотрели установку, базовое использование, расширенное использование и основы фильтров ffmpeg. Мы надеемся, что это может быть полезно для всех, кто хочет попробовать ffmpeg, для кого-то, кто хочет использовать ffmpeg для нескольких задач, или даже просто для того, кто хочет больше узнать о широких возможностях этой удивительной утилиты.
img
Сериализация – это процесс, в котором одна служба берет структуру данных, такую как словарь в Python, упаковывает ее и передает другой службе для чтения. Это максимально простое определение. Представьте, что мне нужно отправить кому-то сообщение. Итак, я записываю текст на уже собранный пазл. Далее я разбираю части пазла, добавляю несколько инструкций о том, как его собрать, и отправляю его. Затем получатель сообщения, получив кусочки головоломки, собирает их вместе. И теперь у него есть мое сообщение. Техническое определение этого понятия немного интереснее. А именно, сериализация – это процесс преобразования объекта данных в поток байтов и сохранения состояния объекта для хранения на диске или передачи по сети. Это сокращает необходимый размер хранилища и упрощает передачу информации по сети. Маршалинг и сериализация – в чем разница? Здесь на ум может прийти понятие маршалинга (Marshalling). Маршалинг – это процесс преобразования представления объекта в памяти в форму, подходящую для передачи. Хотя маршалинг и сериализация в общих чертах похожи, между ними все-таки есть принципиальная разница. Например, при создании программы в Golang для считывания JSON данных в структуру данных Golang вы можете использовать маршалинг для преобразования пары «ключ-значение» JSON в пару «ключ-значение» Golang. Разница в том, что маршалинг используется для преобразования данных. А сериализация, напротив, отправляет или сохраняет данные в потоке байтов и повторно собирает их в исходную форму. Оба процесса вроде бы выполняют процесс сериализации, но с разными намерениями. Вы можете увидеть структуру, которую я создал для взаимодействия с данными Twitter, ниже, как пример процесса маршалинга в действии. В Golang вы можете вставлять подсказки, называемые тегами, легко преобразовывая этот объект в данные JSON с помощью встроенной службы маршалинга Golang. Что такое Endianness? Я также хотел бы немного затронуть тему порядка следования байтов. Endianness – это термин, который используется для описания порядка байтов в памяти. Представьте, что память – это блок, в котором хранятся биты данных. Чтобы сериализация работала, поток байтов должен передавать типы данных независимо от изменения порядка следования байтов из одной системы в другую. Здесь вы можете увидеть большие различия и не очень. Очень важно, чтобы порядок следования байтов из одной системы в другую совпадал или каким-либо образом преобразовывался, поскольку не все системы упорядочивают свои биты одинаково. Little endian (от младшего к старшему) и big endian (от старшего к младшему) Варианты использования сериализации Наш вариант использования в полной мере использует все функции сериализации. Мы планируем получить некоторую информацию от сканируемого оборудования, упаковать эту информацию в поток байтов и отправить ее по сети в другую службу, которая восстановит данные. Процесс обратной сериализации и восстановления данных в исходную форму называется десериализацией. Есть и другие варианты использования сериализации. Например, REST API или протоколы обмена сообщениями, такие как AMQP, могут использовать сериализацию для сжатия и отправки данных. AMQP – это протокол обмена сообщениями, в котором вы отправляете сообщение брокеру AMQP, а служба-получатель «прослушивает» этого брокера в поисках сообщения. Серверные специалисты должны быть хорошо с этим знакомы, так как это часто используется для отправки данных туда и обратно в распределенных системах. Многие языки программирования включают возможность легкого развертывания некоторой сериализации. Так что это языково-независимая тема. Пример сериализации Приведем краткий пример. Код, приведенный ниже, использует библиотеку kombu для отправки сообщений через AMQP. Мы используем ее для отправки сообщений из одного программного пакета в другой по сети. Данный код предназначен для службы, отправляющей сообщение брокеру AMQP: Обратите внимание на метод publish. Мы передаем метод сериализации в качестве аргумента, чтобы библиотека понимала, как сериализовать данные, которые мы передаем. Сообщение с данными преобразуется в поток байтов, который, если на него посмотреть, выглядит просто как длинная строка букв и цифр. И мы отправляем сообщение. Соответствующая служба будет использовать тот же метод сериализации для восстановления данных в их исходное состояние. Это важная функция, поскольку мы создаем набор инструментов, которые должны иметь возможность отправлять сообщения друг другу, чтобы все работало. Форматы данных сериализации В основном я использую JSON для сериализации, когда этого требует задача. Но тем не менее, вы можете использовать и другие варианты. У JSON много издержек, но для меня он идеален, потому что он читабелен. Вы также можете использовать Protobuf, YAML или XML. Это лишь некоторые из возможных. Заключение Сериализация становится необходимостью, когда вы строите свои каналы связи. Полезно знать о таком понятии, чтобы чувствовать себя уверенно при подходе к любому инструменту, который вы используете, с соответствующими базовыми знаниями.
ВЕСЕННИЕ СКИДКИ
40%
50%
60%
До конца акции: 30 дней 24 : 59 : 59