Kabbone schriebhaben die zweit Outputs denn auch die gleiche Bitrate?
Falls nein, könntest du als zusätzlichen Parameter noch -b:v Bitrate angeben.
Die Bitraten sind tatsächlich stark unterschiedlich. In VLC kann man sich die Bitraten beim Abspielen anzeigen lassen.
Hier mal ein Snapshot von beiden Filmen, nach bzw. bei 1min16sec Abspielzeit
Input/Lese Mediengröße Input-Bitrate Größe demuxter Daten Daten-Bitrate
Film kodiert mit h264 4724 KiB 313 kb/s 4141 KiB 548 kb/s
Film kodiert mit h264_nvenc 18394 KiB 2069 kb/s 17946 KiB 2517 kb/s
Ich habe jetzt nochmals beide Konvertierungen erneut durchgeführt, nun aber bei beiden auch eine feste Bitrate von 1000kb/s vorgeben:
$ time ffmpeg -i RobertWaldinger_2015X-480p.mp4 -acodec copy -vcodec h264_nvenc -b:v 1000k test_h264_nvenc_1000kb.mp4
real 0m29,633s
user 1m6,411s
sys 0m2,256s
Dateigröße / Auflösung / Bildwiederholungsrate: 100M / 854x480 / 24
Größe demuxter Daten: 9384 KiB
$ time ffmpeg -i RobertWaldinger_2015X-480p.mp4 -acodec copy -vcodec h264 -b:v 1000k test_h264_1000kb.mp4
real 5m20,473s
user 14m36,429s
sys 0m5,726s
Dateigröße / Auflösung / Bildwiederholungsrate: 101M / 854x480 / 24
Größe demuxter Daten: 10043 KiB
Zusammenfassend:
nun, jetzt wo beide Zielvideos auch die selbe Größe/Auflösung/Bitrate haben, zeigt sich, das der h264_nvenc den "normalen" h264 Codec tatsächlich um ein Vielfaches in der Zeit schlägt ... so sollte es ja auch sein :-)
Wäre dennoch schön, irgendwie verläßlich nachprüfen zu können, dass dieser enorme Zeitgewinn tatsächlich daher kommt, dass der h264_nvenc die Power meiner Nvidia Grafikkarte nutzt. Theoretisch könnte es ja immer noch sein, dass auch mit dem h264_nvenc Codec die Transkodierung immer noch über die CPU liefen und "nur" schneller war, da der h264_nvenc einfach besser programmiert ist, Wo oben ja bereits beschrieben, bin ich überrascht, wo stark auch im h264_nvenc Fall, die CPU-Last nach oben springt.