Fixe oder variable Datenrate?

  • Ich frage mich, warum man zwischen den beiden Dingen wählen kann. Warum wird eine variable Datenrate angeboten, wenn ich einen Film rendere?
    Hat das Vor- bzw. Nachteile?


    Ich habe bis jetzt immer eine feste mbps eingestellt, weil ich dachte, dann ist die Qualiät besser.

  • Die Datenrate hängt bei MPEG2/4 von der Bewegung im Bild ab. Je weniger Bewegung desto geringer die notwendige Datenrate. Bei variabler Datenrate werden also die Szenen mit wenig Bewegung auch mit einer geringeren Datenrate abgelegt und die mit viel Bewegung dafür mit einer höheren.

  • Also wäre ja variable Datenrate, dann im Prizip besser, weil sich das Programm anpasst und die Datei evtl. nicht ganz so groß würde.


    Wie groß sollte den der Unterschied zwischen max und min. sein? Die HF nimmt ja mit 17 mbps auf. Wenn ich jetzt den Film z.B, schneide etc. und möchte ihn dann in gleichwertiges MP4 rendern, müsste ich ja mindestens auch 17 mbps nehmen, oder?


    Für Vimeo nehme ich meisten 4 oder 6 mbps, aber da sieht man dann schon, dass die Qualität nicht dem Original entspricht.

    Einmal editiert, zuletzt von mos ()

  • Zitat

    Original von mos
    Also wäre ja variable Datenrate, dann im Prizip besser, weil sich das Programm anpasst und die Datei evtl. nicht ganz so groß würde.


    Das ist im Prinzip korrekt, nur leider scheinen das die Programme nicht so perfekt zu beherrschen. Die Filmbrennerei 6 z.B. bringt bei variabler Datenrate ein sichtbar schlechteres Ergebnis wie bei fixer Datenrate.


    Und was die Datenrate für die HF100 betrifft, würde ich persönlich im Moment das Ergebnis nach MPEG2 mit 25 oder noch besser 35-40 Mbps bei 1920x1080 rendern, was ja bei BluRay zulässig ist. Die MPEG4 Konverter (zumindest die der unteren Preisklasse) kommen an diese Qualität im Moment anscheinend noch nicht heran. Aber ich hoffe das wird sich in nächster Zeit noch ändern.


    Gilt übrigens auch für Studio 12 wie ich in den letzten Tagen feststellen musste. Die Files meiner HF100 nach BluRay/MPEG2 gerendert schauen auf meiner SONY PS3 besser aus wie die BluRay/AVC.


    Wie es bei VEGAS oder Adobe ausschaut kann ich leider nicht beurteilen. Vielleicht sind da die MPEG4-Encoder ja schon besser ???

    Einmal editiert, zuletzt von muek ()

  • Das ist im Prinzip korrekt, nur leider scheinen das die Programme nicht so perfekt zu beherrschen.


    Nur sollte man nicht von der Güte eines Encoders auf den nächsten schließen. Das hängt wirklich stark vom verwendeten Werkzeug ab.

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung

  • Zitat

    Original von wolfgang
    Das ist im Prinzip korrekt, nur leider scheinen das die Programme nicht so perfekt zu beherrschen.


    Nur sollte man nicht von der Güte eines Encoders auf den nächsten schließen. Das hängt wirklich stark vom verwendeten Werkzeug ab.


    Deshalb habe ich ja konkret geschrieben, dass es im Moment für Filmbrennerei 6 und Studio 11/12 gilt. Für die beiden Programme habe ich das getestet. Über die anderen kann ich nichts sagen weil ich sie selbst nicht verwende.

  • Premiere (Adobe) beherrscht die variable Datenrate so gut, dass ich zumindest keinen Nachteil erkennen kann. Aber auch keinen Vorteil.. Das Rendern in eine VBR im 2-Pass Verfahren (das man dabei tunlichst anwenden sollte) dauert allerdings doppelt so lange.. Persönlich konnte ich auch noch keine bessere Wiedergabe feststellen, wenn eine höhere Datenrate zur Anwendung kam, als sie im Quellmaterial vorliegt. Das heißt: Meine Mpeg2 Projekte rendere ich (adäquat zum Quellmaterial) ebenfalls zu Mpeg2 mit 25 Mbit CBR. Ebenfalls hat sich gezeigt, dass bei AVCHD-Ausgangsmaterial das Ergebnis am Besten (weil verlustärmsten) in einen Mpeg2 Stream gerendert werden sollte. Das logisch erscheinende AVC zu AVC verliert sichtbar an Qualität..

  • Zitat

    Original von Mr Jo
    Ebenfalls hat sich gezeigt, dass bei AVCHD-Ausgangsmaterial das Ergebnis am Besten (weil verlustärmsten) in einen Mpeg2 Stream gerendert werden sollte. Das logisch erscheinende AVC zu AVC verliert sichtbar an Qualität..


    Das entspricht exakt meiner eigenen Erfahrung, nur was ist der Grund dafür? Warum verliert AVC zu AVC sichtbar an Qualität? Das kann doch eigentlich nur an den NOCH schwächeren Encodern liegen, oder gibt's da eine andere techn. Erklärung dafür?

  • Wie Mr. Jo bereits andeutete sollte bei VBR dringend auch das 2 Pass Verfahren angewendet werden. Warum? Weil der Encoder einfach keine Ahnung hat was als nächstes kommt!
    Stellen wir und mal einen Clip nit einen 10 Sek. Standbild gefolgt von einer Szene mit wilden Bewegungen und Schwenks vor. Zuerst wird der Encoder Bild für Bild bemerken, daß sich nichts in im Folgebild verändert. Er wird daher die niedrigste Bitrate anwenden. Jetzt kommt er zum ersten Bild das dich stark vom vorhergehenden unterscheidet. Er wird erst mal versuchen auch das Bild mit nidrigster Bitrate zu encoden, bis ihm dann irgenwann das "Bit - Budget" augeht. Also wird er für das nächste Bild die Bitrate erhöhen, aber mindestens ein bild ist bereits versaubeutelt (= mäßig gut). Beim 2 Pass Verfahren schaut der Encoder im ersten Durchgang wo und wie viel Änderung im Bild stattfindert und schreibt diese Informationen weg. Im 2ten Durchgang weiß er dann präzise was auf ihn zukommt und kann die Bitrate rechtzeitig anpassen. Wer jetzt denkt, daß daß es recht unwichtig ist wenn nur ein Bild versaut ist, der irrt. Viele Codecs und Encoder können die Bitrate nur am nöchsten I-Frame (Vollbild) ändern, somit ist im Zweifel eine ganze GOP (Bildergruppe) ver-sau-beutelt und das sieht man sehr wohl :Zwinkern:

  • Ich bleibe bei konstanter Bitrate und zwar die höchste, die vom Medium möglich ist.


    Das wäre bei DVD sowas um die 9 MB/s und bei BluRay 40 MB/s.


    Okay, wenn ich HDV-Material habe, das konstante 25 MB/s als Bitrate aufweist, werde ich da natürlich bei den 25 MB/s bleiben. Das Bild wird durch die höhere Bitrate ja nicht besser, dafür steigt der Speicherplatz ganz schön.


    AVCHD-Material berechne ich aber mit der höchsten Bitrate für BluRay im MPEG-2 Format um den Qualitätsverlust, der durch das Konvertieren von AVCHD (H.264 / MPEG-4) auf MPEG-2 so oder so entsteht, möglichst gering zu halten.


    Mit variablen Bitraten oder generell einer geringeren Bitrate setze ich mich dann auseinander, wenn der Platz auf der DVD / BluRay zu knapp wird.


    Bevor ich aber versuche mehrere Filme auf eine DVD zu quetschen, brenn ich lieber mehrere DVDs, dafür ist die Qualität besser.


    Bei BluRay ist das aber im Gegenzug zur DVD im Moment noch eine Preisfrage.
    Aber 25 GB ist Platz genug für einen normalen HD-Film aus dem privaten Bereich.


    Außerdem fallen die Preise ständig, die 50 GB BluRay kommt auch langsam ins Rollen,... Festplattten werden größer und billiger!


    Bis ich also wahrscheinlich Platzprobleme habe, kosten 50 GB BluRays wahrscheinlich soviel wie heute die 8,5 GB DVDs, Festplatten wird es dann auch mit einer Größe von 2-3 TB um den Preis einer heutigen 1 TB geben.

  • Wenn ich genügend Platz auf dem Datenträger habe nehme ich immer eine konstante Bitrate. Ich sehe in der variablen Bitrate nur den Vorteil der Platzersparnis.
    Allerdings sehe ich bislang keinen Sinn darin, über die Bitrate des Quellmaterials hinaus zu gehen, es sei denn, man wandelt AVCHD in MPEG2.
    Vielleicht habe ich da aber auch etwas übersehen.

  • Der Hauptvorteil der variablen Datenrate ist die Zuweisung von einer höheren Datenrate an Stellen des Videos, wo eben aufgrun der Bildinhalte höere Datenraten benötigt werden. An anderen Stellen spart der Encoder diese Datenrate wieder ein, wo das eben nicht benötigt wird. In Summe erreichen gute Encoder durchaus die mittlere Datenrate recht gut.


    Das 2- oder 3-pass Encoden optimiert diese Angelegenheit noch weiter. Hier ist der Aufwand halt eher in den deutlich längeren Encodierzeiten zu sehen, aber professionelle Encoder bringen dann natürlich sehr gute Ergebnisse, sind aber auch oft sehr teuer.

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung

  • Habe mal eine Fotoshow mit konstanter und variabler Bitrate probeweiser berechnen lassen.


    Die Qualität war bei der konstanten immer besser.
    Erst als ich die varibale bei allen Reglern fast beim Maximum hatte, merkte ich keinen Unterschied mehr. Allerdings bringt das ja eigentlich gar nichts mehr, weil man hier kaum oder gar keinen Speicherplatz mehr einsparen kann.


    War übrigens ein 2-Pass Verfahren mit Adobe Media Encoder (PP CS3).


    Wie gesagt: Bei HDV bleibe ich bei den konstanten 25 MB/s. (ist ja schon MPEG-2)
    Bei AVCHD rendere ich aber nach MPEG-2 mit konstanten 40 MB/s um den Qualitätsverlust möglichst gering zu halten.


    Bei DV habe ich immer in MPEG-2 mit konstanten 9 MB/s für die DVD berechnen lassen.
    Bin damit jetzt jahrelang gut gefahren!


    Braucht vielleicht am meisten Speicherplatz, aber wie oben schon erwähnt: Das ist heutzutage wohl echt kein Problem!


    Auf einer DVD paßt eine ganze Stunde SD-Video in bester Qualität rauf (9 MB/s).
    Da die meisten Filme aber von mir nicht einmal diese Filmlänge erreichen, geschweige denn überschreiten... warum sollte ich dann bei der Bitrate sparen um einen möglichen bemerkbaren Qualitätsverlust riskieren?


    Bei BluRay ist das ja nicht anders: Bei konstanter Bitrate von 40 MB/s in MPEG-2 passt ja auch ungefähr eine Stunde auf den Rohling!


    Und welcher Privatfilmer hat einen HD-Film mit Längen jenseits von einer Stunde?
    Die meisten Filme von mir haben eine durchschnittliche Dauer von 20-45 min., wenn sie mal fertig geschnitten sind.
    Bisher hatte ich einen SD-Film mit einer Gesamtlänge von 1:22, dafür habe ich aber dann einen 8,5 GB Rohling verwendet!

  • Zitat

    Und welcher Privatfilmer hat einen HD-Film mit Längen jenseits von einer Stunde?


    Ich. :lips:


    Nicht zu vergessen: Wenn ein NLE von 25 MB/s auf 40 MB/s rendern muss, dann wird der Film auf jeden Fall dekodiert und dann wieder neu enkodiert. Bei Vegas 8 erfolgt bei gleicher Datenrate (und ohne Filter und Effekte) ein Smartrendern, wobei das Material vom Inhalt her nicht angefasst (neu berechhnet) wird. Ich sehe daher keinen Sinn darin, HDV-Material auf 40 MBit/s hochzurendern.

  • Ich rechne HDV auch nicht zu 40 MB/s hoch, das bleibt bei konstanten 25 MB/s, vor allem im Hinblick eben auf SmartRendering.


    Die 40 MB/s wende ich für die Konvertierung von AVCHD in MPEG-2 an.


    Kurz gesagt: Wenn das Roh-Material das gleiche Format aufweist wie das Endformat (HDV -> MPEG-2) bleibe ich natürlich auch bei der gleichen Bitrate.


    Bei der Wandlung von DV auf MPEG-2 (SD) oder AVCHD auf MPEG-2 (HD) allerdings nehme ich die höchste Bitrate um den Konvertierungsverlust möglichst gering zu halten.


    Gut, wenn Filme länger als eine Stunde dauern, dann kann man sich ja mit variabler Bitrate beschäftigen oder vielleicht generell über eine niedrigere Bitrate nachdenken.


    Zum Beispiel:
    Habe ja einen Film mit einer Dauer von 1:22 in SD-Qualität!
    Früher gab's ja auch noch keine 8,5 GB DVDs oder sie waren einfach unverhältnismäßig teuer.
    Da musste der Film eben auf einer 4,7 GB Scheibe rauf.
    Da kam natürlich eine variable Bitrate (um die 7 MB/s als Mittelwert, glaube ich!) zum Einsatz. Auch die Bitrate des Dolby Digital Tons wurde angepasst.


    Beim Röhrenfernseher fällt sowas manchmal kaum auf.
    Schaut man sich aber die 4,7 GB Scheibe an einen Flachfernseher an und nimmt dabei noch den gleichen Film mit höchster Bitrate auf einer 8,5 GB sieht man schon einen Unterschied.


    Deswegen bewahre ich auf der Festplatte immer den Film mit der höchsten Bitrate auf, sollte er (im Moment) auf meinen Pärsentationsmedium (DVD/BluRay) nicht Platz haben!


    Aber genau wie die Preise der 8,5 GB DVD mit der Zeit gefallen sind, werden auch die Preise der 50 GB BluRay weiter sinken.


    Und für die wenigen Ausnahmen, wo der Film eben über eine Stunde gehen sollte, kann man ja dann auf das doppelschichtige Exemplar zurück greifen.


    Bis dahin können H.264 Encoder allerdings die gleiche Qualität bringen wie die jetzigen MPEG-2 Encoder, wodurch sich das "Platzproblem" wohl nicht mehr so stellen wird.
    Und wenn die Qualität wirklich gleich ist, nehme ich den 3x höheren Zeitaufwand zur Berechnung von AVCHD in H.264 gerne in Kauf.

  • 40 mbps machen vermutlich auf BDs auch nur begrenzt Sinn, es sei den, das Quellmaterial ist full-HD mpeg2 welches bereits mit ähnlich hohen Datenraten aufgezeichnet worden ist. Und selbst dann wäre die Frage, ob die heutigen Softwareencoder nicht die gleiche Bildgüte erhalten, auch wenn man die Datenrate etwas absenkt.


    Im Fall von AVC entspräche das ja über den Daumen gleich mal 80 mbps bei mpeg2-HD, weil diese codecs mit der halben Datenraten von mpeg2 annähernd die gleiche Bildgüte erreichen. Und aufgezeichnet wird dort mit vielleicht 17 oder 18 mbps (wenn überhaupt). Gerade bei AVC liegts noch eher an der Güte der heutigen Encoder, als an den Datenraten alleine/selbst.


    Sagen wirs daher mal so: wenn die Encoder halbwegs was taugen, gehts auch mit tieferen Datenraten.

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung

  • Zitat

    Sagen wirs daher mal so: wenn die Encoder halbwegs was taugen, gehts auch mit tieferen Datenraten.


    Das kommt aber auf das Quellmaterial an, liegt es unkomprimiert vor würde es stimmen, ist es aber schon in MPG2 komprimiert, kann der MPG4 Codec nicht mehr richtig effizient arbeiten.

  • Das müsste also bedeuten, wenn mein Endformat MPEG-2 sein soll, ich die AVCHD-Rohdaten so oder so wegen meines bescheidenen DualCores für die Schnittbearbeitung in MPEG-2 umkonvertieren muss, dann wäre die Bitrate, die ich wählen müsste, sowas um die 34-36 MB/s? :rock:


    AVCHD (17-18 MB/s) zu MPEG-2 (34-36 MB/s) also, kurz gesagt!


    Wieso verwenden dann Programme wie AVCUpshift Bitraten von 60 MB/s?
    Wäre es da nicht besser eben auf 34-36 MB/s zu transkodieren um später vielleicht auch SmartRendering anwenden zu können?


    Kleine Nebenfrage (wenn's erlaubt ist!): Ich habe bisher immer bei DVD-Projekten eine Bitrate von 9 MB/s (konstant!) verwendet.
    Ist das jetzt falsch? :heul:


    Schließlich wird ja z.B. bei DVD-Rekordern 8 MB/s als "High Quality" bezeichnet, bei Vorlagen in Schnittprogammen ist das oftmals nicht anders!


    Bei BluRay-Projekten kommt ja noch hinzu, dass es sich beim Roh-Material nicht um (fast!) unkomprimiertes Video-Material (DV) handelt, sondern bereits Codecs bei der Aufnahme im Spiel waren (HDV -> MPEG-2, AVCHD -> H.264)!

  • Zitat

    Original von ruessel
    Das kommt aber auf das Quellmaterial an, liegt es unkomprimiert vor würde es stimmen, ist es aber schon in MPG2 komprimiert, kann der MPG4 Codec nicht mehr richtig effizient arbeiten.


    Klar hat das einen Einfluß - aber bei den groben Betrachtungen hier, ist man sicherlich ein gutes Stück weit weg vom Optimum. Es werden halt im Regelfall vorkomprimierte Materialien zu verarbeiten sein.


    Zitat

    Original von maverick0812
    AVCHD (17-18 MB/s) zu MPEG-2 (34-36 MB/s) also, kurz gesagt!


    Sowas macht vermutlich einen gewissen Sinn - weil ich einfach für AVC eine deutlich tiefere Datenrate anwenden kann, als für mpeg2.



    Zitat

    Original von maverick0812
    Wieso verwenden dann Programme wie AVCUpshift Bitraten von 60 MB/s?


    Weil AVCUpshift auf eine I-frame only GOP Struktur geht, also eigentlich gar keine GOPs mehr hat. Und da braucht man halt deutlich höhere Datenraten, um jedes Frame als I-frame zu halten.


    Zitat

    Original von maverick0812
    Wäre es da nicht besser eben auf 34-36 MB/s zu transkodieren um später vielleicht auch SmartRendering anwenden zu können?


    Das geht grundsätzlich schon, aber da gehts nicht nur um die Datenraten, sondern auch um Pixelabmessungen, vielleicht auch um die GOP. Man sollte also auf ein Material gehen, welches dem möglichst nahe kommt, welches man später für die BD benötigt. So eine Lösung hat ja gerade Peter/elcutty für Vegas vorgeschlagen.


    Zitat

    Original von maverick0812
    Kleine Nebenfrage (wenn's erlaubt ist!): Ich habe bisher immer bei DVD-Projekten eine Bitrate von 9 MB/s (konstant!) verwendet.
    Ist das jetzt falsch? :heul:


    Diese Datenrate ist sicherlich eher hoch - gute Encoder können gerade im mehrpass-Verfahren deutlich tiefer liegen, und erreichen eine ähnlich gute Qualität. Etwa der Cinemacraft Encoder SP, oder der Procoder. Schon aus den Erfahrungen aus dem SVCD Zeitalter wissen wir ja, dass Encoden im 3-Pass-Verfahren mit wirklich guten Encodern auch für SVCDs eine Bildqualität bringen konnte, die extrem nahe an die Kauf-DVD herangekommen ist. Dieses Wissen ist nur ein wenig unmodern geworden, weil man mit hohen Datenraten auch mit mittelmäßigen Encodern gute Qualität erreichen kann.


    Zitat

    Original von maverick0812
    Schließlich wird ja z.B. bei DVD-Rekordern 8 MB/s als "High Quality" bezeichnet, bei Vorlagen in Schnittprogammen ist das oftmals nicht anders!


    Diese Hardware-Encoder sind aber oft eher mies - und müssen das ja primär in Echtzeit können.


    Zitat

    Original von maverick0812
    Bei BluRay-Projekten kommt ja noch hinzu, dass es sich beim Roh-Material nicht um (fast!) unkomprimiertes Video-Material (DV) handelt, sondern bereits Codecs bei der Aufnahme im Spiel waren (HDV -> MPEG-2, AVCHD -> H.264)!


    Ja, aber das halte ich nichtmal für den kritischen Punkt. Wäre der so kritisch, dann müßte man beim Encoden von HDV ohne Smartrendern massive Qualitätsverluste sehen - und das ist auch nicht der Fall.

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung

  • Aber einen allgemeinen Richtwert gibt es nicht, oder?


    Bevor ich also 100 Renderversuche starte bis ich einen sehbaren Qualitätsunterschied sehe, nur um vielleicht 500 MB auf der DVD (oder 5 GB auf BluRay) sparen zu können, obwohl ich eh reichlich Platz habe, ist es ja wohl besser "auf Nummer sicher" zu gehen und die höchste Bitrate zu verwenden.


    Spart Zeit und ich muss mir keine Gedanken machen, ob ich jetzt zu wenig Bitrate habe und vielleicht beim Röhrenfernseher vielleicht noch akzeptabel aussieht, aber beim Flachfernseher nur mehr Artefakte erkennbar sind.


    Ist ja doch ein unnötiges Risiko!


    Wie kommt es dann, dass bei einer Foto-Show die variable Bitrate immer schlechter ist als die konstanten 9 MB/s,... es sei denn ich setze alle Regler bei der variablen ebenfalls auf 9 MB/s (was aber das gleiche wie eine konstante Bitrate dann wäre!).


    Ich merke einen Unterschied von der Bildqualität ja schon von konstante 8 MB/s auf konstante 9 MB/s.


    Gut, Filme sind meist in Bewegung, aber bei Standbilder kann man den Qualitätsverlust wohl am besten erkennen!


    Habe mit variablen Bitraten, auch bei 2-Pass Verfahren, eigentlich bisher nur negative Erfahrungen gemacht.


    Und solange ich keine Platznot auf DVD / BluRay habe, verwende ich lieber die maximale Bitrate.
    Sicher ist sicher, Qualität kann dadurch wenigstens nicht schlechter werden.