Angepinnt Native MPEG vs. Intermediate

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

      Nee, nicht vermischt, die Effekte wurden ja eh erkannt. Und Peter hat das ja offenbar eh getrennt vermessen - ich nicht, drum findest du die Daten nicht im Report.
      Beziehst du dich jetzt mal auf die Messungen zu den Intermediates? Vielleicht widersprechen sich nur die empirische und die optische Beurteilung, könnte ja mal durchaus der Fall sein. Was weiß man? Es kann ja durchaus diese Thematik geben.

      Der CTO von Cineform hat mir damals zu diesem Test im email geschrieben, daß sie eher auf die optische Beurteilung gegangen seien.
      Ich beziehe mich in den letzten Postings auf WMV, unabhängig von der Anwendungsform. Wobei ich das generell weniger als Intermediate-Format, sondern als Präsentationsformat betrachte.

      Wobei ich nochmal nachtragen möchte, dass ich keinerlei Zweifel daran habe, dass je kritischer die Bildinhalte sind, desto besser im Vergleich zu WMV vermutlich H.264 dastehen wird. Ich hatte mit WMV keine intensiven Rendertests gemacht, sondern einfach mal mit dem wenigen mir vorhandenen Material einen Vergleich zum Original gemacht.

      Momentan würde ich WMV noch H.264 vorziehen, nicht wegen der Qualität, sondern der einfacheren Handhabung wegen. Da wird sich künftig vermutlich aber noch einiges ändern und somit könnte bald H.264 das bevorzugte Präsentationsformat sein. Qualitativ steht das ausser Frage.
      So sehe ich das auch, denn WMV hat auch den Vorteil schon jetzt auf so gut wie jedem System, sogar auf vielen Standalones abspielbar zu sein. Da hat man mit H.246/AVC noch so seine Probleme. Das gilt auch insbesondere für den neuen H.264 Encoder V2, der wohl wieder irgendein für viele unlesbare Container verwendet.
      Viele Grüße
      Peter

      Wer mit UHDp30 bei der 180° Belichtungsregel bleibt, wird keine signifikanten Verbesserungen zu UHDp25 feststellen.
      ***** Überzeugter 'Falschfilmer' *****
      Manchmal muss man zu Extremen greifen, um sich einen Sachverhalt klar zu machen. Angenommen, ein Foto wird in einer Digicam nicht im verlustfreien RAW-Format sondern in JPEG gespeichert. Bei meiner Digicam zB. ensteht so aus einem 6,8 MB Foto durch verlustbehaftete Jpeg-Kompression eine ca 800 MB-Datei pro Bild. Angenommen ich bearbeite danach dieses Foto in Photoshop und speichere es dann in der minimalsten Jpeg-Auflösung ab. Und das mache ich mehrmals hintereinander, ich habe es versucht. Das Ergebnis ist natürlich eine Katastrophe. Ich verstehe deshalb eure Debatten nicht ganz. Ein verlustfrei abgespeichertes Bild kann ich bearbeiten, so oft ich will, wenn es danach wieder verlustfrei zB. in Tiff oder Bmp abgespeichert wird. Das wäre bei Digicams also ausschließlich mit dem RAW-Original möglich und genau in diesem fotografieren auch Profis und danach gibt es es nur mehr Tiff oder Bmp.
      Sobald aber ein Bild von Haus aus verlustbehaftet abgespeichert wird, wie zB. in Mpeg2 ist jede, aber auch jede weitere Bearbeitung mit verlustbehafteter Zwischen- oder Endspeicherung automatisch schlechter als das Original. Warum? Wenn ich zB. ein JPG-Bild ins Tiff entpacke, bearbeite und dort belasse, so habe ich nur die obligatorischen Jpeg-Verluste der ersten Generation. Wenn ich aber nochmals verlustbehaftet ins Jpg verpacke, dann multiplizieren sich natürlich die Verluste und genau das findet in allen derzeitigen NLE`s im Videosektor statt, denn Intermediates, die eigentlich das Zehnfache des Originals betragen müssten, werden wohl nicht ernsthaft verwendet und schon gar nicht Letztfassungen, welche zur Präsentation kommen, ganz im Gegenteil WMV ist nochmals bedeutend mehr komprimiert als das Original.
      In HDV übertragen würde das also Folgendes bedeuten: man könnte ev. mit dem Verlust der ersten Generation leben, wenn alle weiteren Schritte nur mehr verlustfrei erfolgen würden. Das wären bei Mpeg2 ungefähr 150 GB pro Casette und so müsste auch letzten Endes präsentiert werden und so machen es im Fotobereich die ernsthaften Amateure: Ihre Fotos entpacken sie einmal aus dem Jpeg und danach kommen sie nie wieder in dieses Format zurück.

      LG Helmut
      Wenn du nur ein einziges Mal von m2t->m2t renderst, ist das Ergebnis definitiv nicht schlechter, als wenn du von m2t->Intermediate->m2t renderst. Den in jedem Fall hast du im Schritt m2t->m2t Verluste, die eben den Umweg über das Intermediate durchaus nicht übersteigen. Den auch der Schritt m2t->Intermediate kostet Qualität, das soll man nicht vergessen.

      Dieser Umstand wird beim Schnitt mit Proxy-Datein verwendet, und das würde für einen workflow passen, wo man alles innerhalb des Schnittprogrammes macht, und keine Übergabe an eine andere Software benötigt. Für so einen Fall ist daher die Arbeitsweise mit Proxys durchaus ok und sinnnvoll möglich, wie sie etwa Gearshift in Vegas oder der MSP8 anbieten.


      In HDV übertragen würde das also Folgendes bedeuten: man könnte ev. mit dem Verlust der ersten Generation leben, wenn alle weiteren Schritte nur mehr verlustfrei erfolgen würden.


      Exakt! Denn die Sache ändert sich schlagartig, wenn man eben mehrere Rendergenerationen benötigt. Würde man hier m2t->m2t->m2t->m2t->m2t rendern, dann hat man genau den von dir angeführten Summeneffekt. In so einem Fall ist definitiv der Weg über Intermediates besser, also m2t->Intermediate->Intermediate->Intermediate->Intermediate->m2t, weil die Verluste, wenn man mal in einem Intermediate ist, definitiv kleiner sind als in den einzelnen Renderschritten m2t zu m2t.

      Das könnte etwa dann nötig werden, wenn man in ein externes Compositing Programm wechseln muß, dort nachbearbeitet, und die Sache wieder in die NLE einfügt.

      Was man daher sinnvollerweise anwendet, hängt daher auch sehr stark vom gesamten workflow ab.

      Diesen Umstand halte ich durch die obig angeführten Meßdaten für ausreichend belegt.
      Ich bin absolut kein Fachmann auf dem Gebiet des Videoschnitts, aber rein logisch würde ich Wolfgang zustimmen und Folgendes nachlegen: der Umweg über ein Intermediate könnte nur dann Qualität bringen, wenn es mindestens 10 bis 12 mal so groß wie das HDV-Jpeg2 Original wäre. Andernfalls ist es ja wieder ein komprimiertes Format mit den typischen Verlusten. Das Proxyverfahren erscheint mir aber auch nur dann sinnvoll, wenn temporär jedes Originalframe auf die 1440*1080*3*8=4 665 600 Bytes gebracht würde, danach die diversen Umrechnungen erfolgen und dann wieder in mpeg2 oder ein noch schlechteres Format abgespeichert würde. Mit Verlusten werden wir es also in jedem Fall zu tun haben und zwar mindestens in der zweiten Generation, mit Intermediates, die kleiner als das ca. 12-fache des Originals sind, aber bereits in der dritten Generation.

      LG Helmut
      Es gibt da auch noch einen Bereich zwischen Schwarz und Weiß. Es kommt nicht (allein) darauf an, wie stark und ob überhaupt komprimiert wird, sondern auch wie. Die alleinige Tatsache, dass überhaupt komprimiert wird, besagt nicht viel. Auch DV komprimiert 5:1 und ist dennoch bestens dafür geeignet, über viele Rendergenerationen hinweg qualitativ klasse Resultate zu bringen.

      Die Theorie bringt hier wenig bis nichts. Allein die Praxis zeigt, wie gut ein Intermediate dabei wegkommt. Und die Praxis wurde ja schon des öfteren erbracht. Intermediate-Formate wie das von CineForm und Canopus bringen ebenfalls über mehrere Generationen hinweg eine hervorragende Qualität, die eben besonders innerhalb des Multigenerationsverhaltens dem original HDV-Format weit überlegen sind. Da braucht's keine Theorie. Das zeigt die Praxis sehr deutlich.
      Also "10 bis 12x" erscheint mir zu hoch - vergleichen wir es mit DV-avi, so hat etwa 1080i die 4 bis 5fache Pixelanzahl. Da die 1080i files in der Größe denen von DV-avi entsprechen, würdest du nach so einem Schluß etwa die 4 bis 5fache Dateigröße erwarten.

      Cineform Datein liegen etwa in der 3fachen Größe, wie ich HIER mal gezeigt habe. Auch die Canopus HQ Datein sind ähnlich groß. Persönlich halte ich das für auch für durchaus ausreichend.

      Die Qualität über mehrer Rendergenerationen habe ich ja in den Links auf der Vorseite dieses Threads untersucht, die ist für Cineform bereits durchaus ok, für Canopus HQ war sie noch besser. Was ich aus den Tests gesehen habe, war, daß der Qualitätsverlust auch nach der 3. Rendergeneration in den Intermediates nicht oder nur unmerklich höher war, verglichen mit dem m2t->m2t Weg über Proxys. Und das belegt für mich eigentlich ganz gut, daß die Intermediates für den Schnitt durchaus ok sind. Optisch beurteilen muß man das halt dann noch immer, eh klar - meine Tests beruhen ja eher auf Meßdaten. Aber auch optisch war das für mich bisher eigentlich durchaus ok.


      Und ja, für besondere Anwendungen kann es etwa Sinn machen, auf andere Codecs zu gehen. Gearshift in Kombination mit Vegas bietet etwa auch noch die Möglichkeit an, zu einem YUV Sony codec als intermediate zu rendern. Aber die Datein werden dann enorm groß, etwa um den Faktor 30, man bewegt sich schnell auch für recht kurze Datein im GB-Bereich. Die Abspielfähigkeit dieser YUV-Intermediates ist zu vergessen. Den Canopus losseless codec habe ich nicht getestet, der dürfte in eine ähnliche Richtung gehen.

      Zu den Proxy-Datein: klar kann man Proxy-Datein auch in voller Pracht mit 1440x1080 oder gleich voller HD-Auflösung erstellen. Du bekommst aber dann sowohl eine deutlich größere Dateigröße, wartet beim Rendern länger, und hat halt bereits auch wieder schlechtere Abspieleigenschaften. Bei meinen Tests habe ich daher 960x540 - also 1080i/2 - als idealen Kompromiss empfunden - zwischen der Dateigröße, der Renderzeit und der Qualität. Da macht man zwar Abstriche in der Qualität dieser Proxys, aber da es sich nur um Proxy-Datein handelt, die man eh vor dem finalen Rendern retour tauscht, war mir das weniger wichtig. Die Schnelligkeit und die Echtzeitfähigkeiten beim Schnitt waren für mich die relevanten Kriterien. So habe ich übrigens damals auch unseren kleinen Film "Industrie-Idyle" geschnitten. Details zu den Einstellungen siehe HIER.
      Ich wollte ja nur deutlich zum Ausdruck bringen, dass ein verlustfreier Mpeg-Schnitt überhaupt nicht möglich ist, außer im Smartrenderingverfahren, aber da kann man ja nur das Original übernehmen und sonst nichts. Natürlich sind auch die meisten Menschen mit Mp3 125Kbit/sek durchaus glücklich, aber ich glaube kaum, dass sich ein Audiophiler mit seiner Super Hifi-Anlage dieses komprimierte Soundformat gerne anhören wird. Mich persönlich stört es kaum, aber wenn schon videophile Diskussionen laufen, dann muss auch dieser Hinweis gestattet sein ;-))

      LG Helmut
      Servus ............Falls die Frage nach Canopus Codec Werten aufkommt:

      Canopus HQ 1080i Approx ...................................100-160 Mbps -- 12.5-20 MB/sec
      Canopus HD / DVCPRO HD1080i .................................120 Mbps -- 12.5 MB/sec
      HDCAM 1080i ............................................................140 Mbps -- 17.5 MB/sec
      HDV 1080i ..................................................................25 Mbps -- 3.125MB/sec
      Uncompressed 4:2:2 720/30p HD ...............................442 Mbps -- 55.3 MB/sec
      Uncompressed 4:2:2 720/25p HD ...............................368 Mbps -- 46.1 MB/sec
      HDV 720p ..................................................................19 Mbps -- 2.375 MB/sec .
      Uncompressed 4:2:2 SD (NTSC 720x486) ...................168 Mbps -- 21 MB/sec
      Uncompressed 4:2:2 SD (PAL 720x576) ......................166 Mbps -- 20.7 MB/sec
      Canopus Lossless SD (NTSC 720x486)......... Approx 84-168 Mbps -- 10.5-21MB/sec (on average)
      Canopus Lossless SD (PAL 720x576)............ Approx 83-166 Mbps -- 10.35-20.7 MB/sec (on average)
      DV / DVCAM ...............................................................25 Mbps -- 3.125 MB/sec

      Quelle: .com forum thread: >> "log in" erforderlich

      Meine [bescheidenen] 1080i Erfahrungen mit Canop. HQ-Codec: bei gleicher Qualitätseinstellung sind die Mbit/s extrem stark abhängig vom Detailreichtum der jeweilen Videoquelle
      Extrembeispiel: 10sec color-bars als HQ und 10sec 1920x1080 Blumenwiesenfoto als HQ exportiert, zurückgerechnet auf 1sec:
      1 sec Farbalken ---- HQ 1080i online-fine-- ............3.072KByte
      1sec Blumenwiese -- HQ 1080i online-fine-- .......15.318 KByte

      Gruß aus wien+40km......Hans :beer:
      Edius 7.30 + Storm 3G; PProCS5.5; Neo-3.55;
      Sehr interessante Daten Hans. Der motiv- und bewegungsabhängig sehr unterschiedliche Datenanfall in HDV war ja bekannt, aber dass er sich im Rahmen 1:5 bewegt hätte ich nicht gedacht. Nach meinem Verständnis und Interpretation der Tabellen verstärkt sich allerdings meine Meinung, dass die nur 3-fache Dateigröße in den Cineform- und Canopus-Intermediates keinesfalls ausreichen kann, um eine Qualitätssicherung in HDV zu garantieren. Aber auch die 10-fache Größe wäre überhaupt kein Problem, wenn es die derzeitige Hardware zulassen würde und das wird bald der Fall sein.

      LG Helmut

      mglw Off Topic, aber ...

      ... es geht hier ja (auch) um Intermediates, also wohl Zwischenformate, die NICHT als Proxies (Platzhalter, also grob gesagt zum Erstellen von Schnittlisten(?)) dienen sollen, sondern stets DIREKT weiterverwendet!?

      OK, ich bin neu hier. Wir machen Sportaufnahmen mit einer FX1.

      Da wir Probleme mit dem Cineform HD Connect Capturing hatten UND eine deutliche Verschlechterung bei interlaced Material sahen, die EINDEUTIG auf den CFHD zurückzuführen war, capturen wir jetzt AUSSCHLIESSLICH mit CapDVHS und schneiden GROB (also teilen) mit Womble.

      Nach einem Dumb-Deinterlacing (AviSynth: SeparateFrames) speichern wir das nun PROGRESSIVE Material NUR FÜR VEGAS doch wieder mit dem CFHD Codec.

      Da wir für das Web produzieren reichen die 540 Zeilen dicke, aber wir kriegen ne super Zeitlupe durch die Verdoppplung der Framezahl.

      Aber zurück zum Thema.
      Für das MPEG-Auspacken verwende ich den ffdshow filter, und der bietet ja auch ne ganze Menge EN-Coder. Und weil DV ja eine MJPG-Variante ist, habe ich mal den ffdshow MJPEG Encoder ausprobiert, quasi als Ersatz-Intermediate anstatt Cineform. Mit einem Quantizer 3 oder evtl. 2 ist die Qualität meines Erachtens recht gut.

      Vegas akzeptiert ihn nicht, aber z.B. mit VirtualDub kann man damit praktisch genauso schnell schneiden wie DV-Material. Meine Frage also: Hat sonst noch jemand damit rumprobiert und wie waren die Ergebnisse, gibt es evtl. sogar Messungen?

      Danke!
      Als Newbie nehme ich mir heraus dumme Fragen zu stellen, bitte verzeiht im voraus.
      Ich verwende Vegas 6.0c. Ich Capture mit Vegas, um dann mit Hilfe von "ElCutty" Proxy-Files zu erstellen. Ein weniger aufwändig, aber es geht sehr gut.

      Beim Studium der Vegas Anleitung fiel mir allerdings auf, dass Sony die Erstellung von Intermediates empfiehlt, vor allem, da man im Project Media Window das Intermediate wieder durch das mpg-2 File ersetzen lassen kann.

      Was ist also der Vorteil - beispielsweise der ElCutty-Methode? Oder was ist der Vorteil von AVCutty oder Gearshift?

      Grüße

      Marcus
      Intermediates, im Gegensatz zu Proxy-Files, sind gar nicht unbedingt dafür gedacht, nochmal gegen das Original ersetzt zu werden, denn Intermediates streben eine Qualität möglichst nah am Original an.

      Aber egal ob nun Proxys oder Intermediates - Wenn man die mit Vegas-eigenen Werkzeugen gegen die Originale ersetzen möchte, dann muss man das Stück für Stück manuell tun. Tools wie GearShift oder das von elCutty nehmen die Arbeit ab und erledigen das automatisch.
      Sorry Marco, leuchtet mir aber noch nicht ein. Wenn ich in Vegas HD Material capture, nehmen wir an von vielleicht 20 Minuten Material. Dann erhalte ich vielleicht zwei Dutzend Takes. Die schiebe ich in die Timeline, rendere ein Intermediate daraus und nachher all the way back...

      Mit Gearshift und anderen Tools dauert das doch viel länger.....

      Kann es sein, da ich es noch nicht selbst ausprobiert habe, dass es an der schieren Größe der Intermediate Files liegt?

      Marcus
      "Mit Gearshift und anderen Tools dauert das doch viel länger....."

      Warum sollte es mit diesen Tools länger dauern?

      Diese Tools gehen davon aus, dass mit Proxys gearbeitet wird, nicht mit Intermediates, denn die würde man ja eben normalerweise nicht wieder ersetzen.
      Proxys oder Intermediates, das sind zwei verschiedene Ansätze. Da bei Intermediates nicht das Ziel ist, die Dateien am Ende nochmal gegen das Original auszutauschen, würde da so oder so kein Arbeitsaufwand für die Rückwandlung anfallen.
      Anders jedoch bei der Arbeit mit Proxys. Auch die müssen, ebenso wie der Intermediates, erstmal gerendert werden, wenn aber später die Proxys wieder gegen die Originale ausgetauscht werden sollen, dann wird das über jene Tools automatisiert.

      Will man also mit Intermediates in der ansonsten üblichen Weise arbeiten, dann bringen diese Tools nichts, denn dann würde es auch gar keine Rückwandlung zum Original geben. Aber viele Syteme erlauben mit Intermediates noch immer keine komfortable Arbeitsweise, weil die CPU-Belastung oder die Datenraten dabei immer noch relativ hoch sind, wenn auch geringer als bei den HDV-Files.
      Proxy-Files lassen sich dagegen auf fast jedem noch so schwachen PC und Notebook komfortabel bearbeiten. Deswegen nehmen es viele Leute in Kauf, die Hin- und Rückwandlungen zu machen, automatisieren ein Teil der Arbeit mit einem entsprechenden Scripting-Tool und können dann mit ohne besondere Leistungsanforderungen die Proxys bearbeiten.
      Original von valley05
      Was ist also der Vorteil - beispielsweise der ElCutty-Methode? Oder was ist der Vorteil von AVCutty oder Gearshift?

      Die Methode mit DV_wide Proxis (vorzugsweise direkt aus der HC1 convertiert) ist vorwiegend für jene Anwender von Vorteil, die sowohl ein SD als auch ein HD Video erstellen wollen. Die Proxi-Methode ist dabei ein Hilfsmittel, um die für HD-Schnitt noch nicht voll ausreichender Performance der PCs zu umgehen - egal mit welchem Proxi-Material man arbeitet. Bei Intermediates hat man deutlich größere Files, aber in einem Format, das Vegas leichter lesen und verarbeiten kann. Die Performance beim Schnitt kommt mit Intermediates aber auf 'normalen' 3.2GHz P4 PCs bei weitem nicht an die des SD-Schnitts heran, besonders wenn man mehrere Tracks benutzt.
      Viele Grüße
      Peter

      Wer mit UHDp30 bei der 180° Belichtungsregel bleibt, wird keine signifikanten Verbesserungen zu UHDp25 feststellen.
      ***** Überzeugter 'Falschfilmer' *****