Gleiche Bitrate wie die von der Kamera verwenden?

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Gleiche Bitrate wie die von der Kamera verwenden?

      Mein Sony Camcorder zeichnet mit 16 Mbps im AVCHD-Format. Dazu kommt noch eine Dolby Digital 5.1 Ton Spur mit 640 kbps.

      Export soll wieder H.264 sein. Mehr Bitrate wird wohl keinen Sinn machen, da das Ausgangsmaterial ja die gleiche Bitrate hatte.

      Oder sehe ich das falsch?

      Bei älteren Encodern von Schnittprogrammen habe ich vorsichtshalber 17 Mbps verwendet, da frühere Encoder von Schnittprogrammen vielleicht nicht so gut waren, wie der H.264-Encoder von Camcorder.
    • In deinem Fall würde ich mich auch so um die 26 bis 28 Mbps bewegen.

      Der Camcorder meines Vaters zeichnet gemäß AVCHD 2.0 mit 28 Mbps und 50p auf. Für eine 50i-BluRay-Ausgabe nehmen wir beim 2-VBR-Verfahren jetzt 28 Mbps als Ziel-Bitrate und 35 als Maximal-Bitrate her.

      Mein älterer Camcorder von Sony geht eben noch nach dem AVCHD 1.0 Standard, das maximal 24 Mbps unterstützen würde (und ja ich weiß, dass das mit dem Encoden danach selbst nichts zu tun hat, es dient nur als Richtwert für mich). Da die Maximal-Bitrate meines Camcorders bei 16 Mbps liegt, war meine Annahme, dass ich diese als Ziel-Bitrate beim Encoden verwende und als Maximal-Bitrate beim 2-VBR-Verfahren gehe ich von 24 Mbps aus.

      Optisch gesehen, sehe ich keinen Unterschied bei meinem 40 Zoll Fernseher.

      Mein Vater hat bis vor kurzem immer mit konstanten 30 Mbps in MPEG-2 codiert, dann hat er mal 25 Mbps in H.264 ausprobiert und sieht bei seinem 60 Zoll keinen Unterschied und er ist ein sehr kritischer Mensch normalerweise.
    • Grundsätzlich: wenn man keine Platzprobleme hat, etwa weil das Material nicht mehr ganz auf eine Blu-ray paßt, würde ich durchaus mit den Encodern in Schnittprogrammen durchaus die höheren Datenraten wählen. Bei geringeren Datenraten verliert man vielleicht doch Qualität, das Material ist typischerweise ja eine Rendergeneration älter - und es gibt Encoder die bei tiefen Datenraten auch sehr gut sind (etwa der Sony AVC Encoder in Vegas), und es gibt andere Encoder die eben erst bei höheren Datenraten gut werden.

      Die Datenrate, mit der aufgezeichnet worden ist, ist dabei nur ein Kriterium - mal abgesehen davon dass ich, wenn ich genug Karten habe (und so teuer sind die nicht mehr), immer mit der höchsten Datenrate filmen würde.

      Ausgabe also in der bestmöglichen Qualität machen. Und weitere Ausgaben - etwa für youtube mit tieferer Datenrate - kann man dann ja nochmals mit geringerer Datenrate zusätzlich machen.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Die Qualität des H.264 Encoders ist ja entscheidend, deswegen war ich zur Anfangszeiten da verständlicherweise noch skeptisch. Natürlich sollte man die Bitrate nicht unbedingt nach unten ausrichten, wenn man genug Platz hat, was ja bei den heutigen Festplatten und BluRays kein Problem darstellt. (außer es wird dafür benötigt, zB für die Ausgabe auf YouTube, etc.)

      Die Frage stellt sich aber in wie weit soll man das ganze dann (künstlich) nach oben schrauben?

      Deine Kamera zeichnet mit 45 bis 55 Mbps aus, was spricht also dagegen diese Bitrate auch beim Encoden zu verwenden? So hat man den geringsten Qualitätsverlust.

      Meine Annahme ist ja nur, diese Bitrate zu verwenden, die auch die Kamera hat, da eine höhere auch keine Qualitätsverbesserung meines Erachtens mehr bringen kann.

      In deinem Fall steht dir aber von vornherein quasi schon das Maximum zur Verfügung. Da stellt sich also die Frage, ob man die Bitrate überhaupt reduzieren sollte, außer das Ausgabemedium erfordert es (BluRay erlaubt ja nur maximal 35 Mbps zB)
    • Es kommt auf Dein Schnittprogramm an, wie es beim encodieren mit dem Material umgeht. Hast Du Zugriff auf Feineinstellungen des Encoders, würde ich bei problematischen Szenen z.B bei der Bewegungssuche mit der Größe des Suchbereichs spielen. Beim Mainconcept MPEG-Pro-Encoder, welcher in einigen Schnittprogrammen in abgespeckter Form integriert ist, erreicht man bei entsprechender Einstellung erstaunliche Qualität, die nahe am Original ist, ohne die Datenrate unnötig aufzublasen. Google mal nach MPEGProHD_en.pdf , da werden die einzelnen Funktionen recht gut erklärt.
    • Schlussendlich zählt doch auch das subjektive Betrachten und wenn man bei einem 40 Zoll Fernseher keinen Qualitätsunterschied feststellen kann, muss es wohl passen.

      Im Übrigen habe ich eine interessante Dokumentation betreffend MPEG-2/H.264/HEVC gefunden: ec2-50-16-227-110.compute-1.am…12 - Goldman v2 (ppt).pdf

      Wahnsinn, was alles möglich ist, bei jeder Codec-Generation spart man teilweise 40 bis 60 % und das ohne sichtbaren Qualitätsverlust.

      4K BluRays sollen ja auch auf HEVC setzen.