In diesem Artikel lernen Sie einige gängige Befehle zum Konvertieren und Bearbeiten bestimmter Eigenschaften von Mediendateien kennen. Wir haben zwar versucht, für alle Verfahren entsprechende Vorgänge zu zeigen, aber nicht alle Vorgänge sind in beiden Anwendungen möglich.
In vielen Fällen können die hier gezeigten Befehle in einem einzigen Befehlszeilenvorgang kombiniert werden, wenn sie tatsächlich verwendet werden. So können Sie beispielsweise die Bitrate einer Ausgabedatei im selben Vorgang wie eine Dateikonvertierung festlegen. In diesem Artikel werden diese Vorgänge aus Gründen der Übersichtlichkeit oft als separate Befehle dargestellt.
Die Konvertierung erfolgt mit folgenden Anwendungen:
Displaymerkmale
Sowohl Shaka Packager als auch FFmpeg können verwendet werden, um den Inhalt einer Mediendatei zu prüfen und dann die Eigenschaften eines Streams anzuzeigen. Sie liefern jedoch unterschiedliche Ergebnisse für dieselben Medien.
Merkmale mit Shaka Packager
packager input=glocken.mp4 --dump_stream_info
Die Ausgabe sieht so aus:
File "glocken.mp4":
Found 2 stream(s).
Stream [0] type: Video
codec_string: avc1.640028
time_scale: 30000
duration: 300300 (10.0 seconds)
is_encrypted: false
codec: H264
width: 1920
height: 1080
pixel_aspect_ratio: 1:1
trick_play_factor: 0
nalu_length_size: 4
Stream [1] type: Audio
codec_string: mp4a.40.2
time_scale: 48000
duration: 481280 (10.0 seconds)
is_encrypted: false
codec: AAC
sample_bits: 16
num_channels: 2
sampling_frequency: 48000
language: eng
seek_preroll_ns: 20833
Eigenschaften mit FFmpeg
ffmpeg -i glocken.mp4
Die Ausgabe sieht so aus:
Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'glocken.mp4':
Metadata:
major_brand : isom
minor_version : 512
compatible_brands: isomiso2avc1mp41
encoder : Lavf57.83.100
Duration: 00:00:10.03, start: 0.000000, bitrate: 8063 kb/s
Stream #0:0(eng): Video: h264 (High) (avc1 / 0x31637661), yuvj420p(pc), 1920x1080, 7939 kb/s, 29.97 fps, 29.97 tbr, 30k tbn, 59.94 tbc (default)
Metadata:
handler_name : VideoHandler
Stream #0:1(eng): Audio: aac (LC) (mp4a / 0x6134706D), 48000 Hz, stereo, fltp, 127 kb/s (default)
Metadata:
handler_name : SoundHandler
At least one output file must be specified
Audio- und Videostreams demux (getrennt)
Für die Konvertierung von Dateien ist bei Shaka Packager ein Demuxing erforderlich. Das ist auch für die Verwendung von Media-Frameworks erforderlich.
Demuxing mit Shaka Packager
MP4
packager input=myvideo.mp4,stream=video,output=myvideo_video.mp4
packager input=myvideo.mp4,stream=audio,output=myvideo_audio.m4a
Oder:
packager \
input=myvideo.mp4,stream=video,output=myvideo_video.mp4 \
input=myvideo.mp4,stream=audio,output=myvideo_audio.m4a
WebM
packager \
input=myvideo.webm,stream=video,output=myvideo_video.webm \
input=myvideo.webm,stream=audio,output=myvideo_audio.webm
FFmpeg-Entschachtelung
MP4
ffmpeg -i myvideo.mp4 -vcodec copy -an myvideo_video.mp4
ffmpeg -i myvideo.mp4 -acodec copy -vn myvideo_audio.m4a
WebM
ffmpeg -i myvideo.webm -vcodec copy -an myvideo_video.webm
ffmpeg -i myvideo.webm -acodec copy -vn myvideo_audio.webm
Audio- und Videostreams remuxen (kombinieren)
In einigen Fällen musst du Audio und Video wieder in einem einzigen Container kombinieren. Das gilt insbesondere, wenn kein Medien-Framework verwendet wird. FFmpeg kann das recht gut verarbeiten, was bei Shaka Packager derzeit nicht der Fall ist.
ffmpeg -i myvideo_video.webm -i myvideo_audio.webm -c copy myvideo.webm
Eigenschaften ändern
Bitrate
Bei FFmpeg können wir das während der Umwandlung in .mp4
oder .webm
tun.
ffmpeg -i myvideo.mov -b:v 350K myvideo.mp4
ffmpeg -i myvideo.mov -vf setsar=1:1 -b:v 350K myvideo.webm
Abmessungen (Auflösung)
ffmpeg -i myvideo.webm -s 1920x1080 myvideo_1920x1080.webm
Dateityp
Shaka Packager kann .mov
-Dateien nicht verarbeiten und kann daher nicht zum Konvertieren von Dateien dieses Formats verwendet werden.
.mov
bis .mp4
ffmpeg -i myvideo.mov myvideo.mp4
.mov
bis .webm
ffmpeg -i myvideo.mov myvideo.webm
Audio und Video synchronisieren
Damit Audio und Video während der Wiedergabe synchronisiert werden, können Sie Keyframes einfügen.
ffmpeg -i myvideo.mp4 -keyint_min 150 -g 150 -f webm -vf setsar=1:1 out.webm
MP4/H.264
ffmpeg -i myvideo.mp4 -c:v libx264 -c:a copy myvideo.mp4
Audio für eine MP4-Datei
ffmpeg -i myvideo.mp4 -c:v copy -c:a aac myvideo.mp4
WebM/VP9
ffmpeg -i myvideo.webm -v:c libvpx-vp9 -v:a copy myvideo.webm
Audio für eine WebM-Datei
ffmpeg -i myvideo.webm -v:c copy -v:a libvorbis myvideo.webm
ffmpeg -i myvideo.webm -v:c copy -v:a libopus myvideo.webm
Video-on-Demand und Livestreaming
In diesem Artikel werden zwei Arten von Streamingprotokollen vorgestellt. Das erste ist Dynamic Adaptive Streaming over HTTP (DASH), eine Streamingtechnik mit adaptiver Bitrate und eine webbasierte Methode zur Präsentation von Video-on-Demand. Das zweite ist HTTP Live Streaming (HLS), der Standard von Apple für Livestreaming und Video-on-Demand im Web.
DASH/MPD
In diesem Beispiel wird die MPD-Ausgabedatei (Media Presentation Description) aus den Audio- und Videostreams generiert.
packager \
input=myvideo.mp4,stream=audio,output=myvideo_audio.mp4 \
input=myvideo.mp4,stream=video,output=myvideo_video.mp4 \
--mpd_output myvideo_vod.mpd
HLS
Diese Beispiele generieren eine M3U8
-Ausgabedatei aus den Audio- und Videostreams, bei der es sich um eine UTF-8-codierte Multimediaplaylist handelt.
ffmpeg -i myvideo.mp4 -c:a copy -b:v 8M -c:v copy -f hls \
-hls_time 10 -hls_list_size 0 myvideo.m3u8
ODER:
packager \
'input=myvideo.mp4,stream=video,segment_template=output$Number$.ts,playlist_name=video_playlist.m3u8' \
'input=myvideo.mp4,stream=audio,segment_template=output_audio$Number$.ts,playlist_name=audio_playlist.m3u8,hls_group_id=audio,hls_name=ENGLISH' \
--hls_master_playlist_output="master_playlist.m3u8"
Nachdem wir nun hoffentlich eine gute Vorstellung davon haben, wie Dateien konvertiert werden, können wir auf dem aufbauen, was wir in diesem Artikel gelernt haben, und uns als Nächstes mit der Medienverschlüsselung befassen.