Medien-Conversion

Derek Herman
Derek Herman
Joe Medley
Joe Medley

In diesem Artikel lernen Sie einige gängige Befehle zum Konvertieren und Bearbeiten bestimmter Eigenschaften von Mediendateien kennen. Wir haben zwar versucht, für alle Verfahren entsprechende Vorgänge zu zeigen, aber nicht alle Vorgänge sind in beiden Anwendungen möglich.

In vielen Fällen können die hier gezeigten Befehle in einem einzigen Befehlszeilenvorgang kombiniert werden, wenn sie tatsächlich verwendet werden. So können Sie beispielsweise die Bitrate einer Ausgabedatei im selben Vorgang wie eine Dateikonvertierung festlegen. In diesem Artikel werden diese Vorgänge aus Gründen der Übersichtlichkeit oft als separate Befehle dargestellt.

Die Konvertierung erfolgt mit folgenden Anwendungen:

Displaymerkmale

Sowohl Shaka Packager als auch FFmpeg können verwendet werden, um den Inhalt einer Mediendatei zu prüfen und dann die Eigenschaften eines Streams anzuzeigen. Sie liefern jedoch unterschiedliche Ergebnisse für dieselben Medien.

Merkmale mit Shaka Packager

packager input=glocken.mp4 --dump_stream_info

Die Ausgabe sieht so aus:

File "glocken.mp4":
Found 2 stream(s).
Stream [0] type: Video
 codec_string: avc1.640028
 time_scale: 30000
 duration: 300300 (10.0 seconds)
 is_encrypted: false
 codec: H264
 width: 1920
 height: 1080
 pixel_aspect_ratio: 1:1
 trick_play_factor: 0
 nalu_length_size: 4

Stream [1] type: Audio
 codec_string: mp4a.40.2
 time_scale: 48000
 duration: 481280 (10.0 seconds)
 is_encrypted: false
 codec: AAC
 sample_bits: 16
 num_channels: 2
 sampling_frequency: 48000
 language: eng
 seek_preroll_ns: 20833

Eigenschaften mit FFmpeg

ffmpeg -i glocken.mp4

Die Ausgabe sieht so aus:

Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'glocken.mp4':
  Metadata:
    major_brand     : isom
    minor_version   : 512
    compatible_brands: isomiso2avc1mp41
    encoder         : Lavf57.83.100
  Duration: 00:00:10.03, start: 0.000000, bitrate: 8063 kb/s
    Stream #0:0(eng): Video: h264 (High) (avc1 / 0x31637661), yuvj420p(pc), 1920x1080, 7939 kb/s, 29.97 fps, 29.97 tbr, 30k tbn, 59.94 tbc (default)
    Metadata:
      handler_name    : VideoHandler
    Stream #0:1(eng): Audio: aac (LC) (mp4a / 0x6134706D), 48000 Hz, stereo, fltp, 127 kb/s (default)
    Metadata:
      handler_name    : SoundHandler
At least one output file must be specified

Audio- und Videostreams demux (getrennt)

Für die Konvertierung von Dateien ist bei Shaka Packager ein Demuxing erforderlich. Das ist auch für die Verwendung von Media-Frameworks erforderlich.

Demuxing mit Shaka Packager

MP4

packager input=myvideo.mp4,stream=video,output=myvideo_video.mp4
packager input=myvideo.mp4,stream=audio,output=myvideo_audio.m4a

Oder:

packager \
  input=myvideo.mp4,stream=video,output=myvideo_video.mp4 \
  input=myvideo.mp4,stream=audio,output=myvideo_audio.m4a

WebM

packager \
  input=myvideo.webm,stream=video,output=myvideo_video.webm \
  input=myvideo.webm,stream=audio,output=myvideo_audio.webm

FFmpeg-Entschachtelung

MP4

ffmpeg -i myvideo.mp4 -vcodec copy -an myvideo_video.mp4
ffmpeg -i myvideo.mp4 -acodec copy -vn myvideo_audio.m4a

WebM

ffmpeg -i myvideo.webm -vcodec copy -an myvideo_video.webm
ffmpeg -i myvideo.webm -acodec copy -vn myvideo_audio.webm

Audio- und Videostreams remuxen (kombinieren)

In einigen Fällen musst du Audio und Video wieder in einem einzigen Container kombinieren. Das gilt insbesondere, wenn kein Medien-Framework verwendet wird. FFmpeg kann das recht gut verarbeiten, was bei Shaka Packager derzeit nicht der Fall ist.

ffmpeg -i myvideo_video.webm -i myvideo_audio.webm -c copy myvideo.webm

Eigenschaften ändern

Bitrate

Bei FFmpeg können wir das während der Umwandlung in .mp4 oder .webm tun.

ffmpeg -i myvideo.mov -b:v 350K myvideo.mp4
ffmpeg -i myvideo.mov -vf setsar=1:1 -b:v 350K myvideo.webm

Abmessungen (Auflösung)

ffmpeg -i myvideo.webm -s 1920x1080 myvideo_1920x1080.webm

Dateityp

Shaka Packager kann .mov-Dateien nicht verarbeiten und kann daher nicht zum Konvertieren von Dateien dieses Formats verwendet werden.

.mov bis .mp4

ffmpeg -i myvideo.mov myvideo.mp4

.mov bis .webm

ffmpeg -i myvideo.mov myvideo.webm

Audio und Video synchronisieren

Damit Audio und Video während der Wiedergabe synchronisiert werden, können Sie Keyframes einfügen.

ffmpeg -i myvideo.mp4 -keyint_min 150 -g 150 -f webm -vf setsar=1:1 out.webm

MP4/H.264

ffmpeg -i myvideo.mp4 -c:v libx264 -c:a copy myvideo.mp4

Audio für eine MP4-Datei

ffmpeg -i myvideo.mp4 -c:v copy -c:a aac myvideo.mp4

WebM/VP9

ffmpeg -i myvideo.webm -v:c libvpx-vp9 -v:a copy myvideo.webm

Audio für eine WebM-Datei

ffmpeg -i myvideo.webm -v:c copy -v:a libvorbis myvideo.webm
ffmpeg -i myvideo.webm -v:c copy -v:a libopus myvideo.webm

Video-on-Demand und Livestreaming

In diesem Artikel werden zwei Arten von Streamingprotokollen vorgestellt. Das erste ist Dynamic Adaptive Streaming over HTTP (DASH), eine Streamingtechnik mit adaptiver Bitrate und eine webbasierte Methode zur Präsentation von Video-on-Demand. Das zweite ist HTTP Live Streaming (HLS), der Standard von Apple für Livestreaming und Video-on-Demand im Web.

DASH/MPD

In diesem Beispiel wird die MPD-Ausgabedatei (Media Presentation Description) aus den Audio- und Videostreams generiert.

packager \
  input=myvideo.mp4,stream=audio,output=myvideo_audio.mp4 \
  input=myvideo.mp4,stream=video,output=myvideo_video.mp4 \
  --mpd_output myvideo_vod.mpd

HLS

Diese Beispiele generieren eine M3U8-Ausgabedatei aus den Audio- und Videostreams, bei der es sich um eine UTF-8-codierte Multimediaplaylist handelt.

ffmpeg -i myvideo.mp4 -c:a copy -b:v 8M -c:v copy -f hls \
  -hls_time 10 -hls_list_size 0 myvideo.m3u8

ODER:

packager \
  'input=myvideo.mp4,stream=video,segment_template=output$Number$.ts,playlist_name=video_playlist.m3u8' \
  'input=myvideo.mp4,stream=audio,segment_template=output_audio$Number$.ts,playlist_name=audio_playlist.m3u8,hls_group_id=audio,hls_name=ENGLISH' \
  --hls_master_playlist_output="master_playlist.m3u8"

Nachdem wir nun hoffentlich eine gute Vorstellung davon haben, wie Dateien konvertiert werden, können wir auf dem aufbauen, was wir in diesem Artikel gelernt haben, und uns als Nächstes mit der Medienverschlüsselung befassen.