HDV Schnitt mit Intermediates

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • HDV Schnitt mit Intermediates

      Hallo zusammen,

      die Verfügbarkeit der HC1 rückt immer näher und da stellt sich mir die Frage, ob schon mal jemand den Qualitätsverlust bei Verwendung von Intermediates untersucht hat. Ich denke da z.B. an "JND Analyse" , die man ja leicht auf ein original m2t und ein Intermediate anwenden kann. Mit Intermediates arbeiten ja wohl APP und Edius und bei Vegas soll es auch deutlich besser sein als mit origial m2t Files zu arbeiten - ganz abgesehen von dem aktuellen Limit das bei ca. 60 m2t Clips zu liegen scheint.

      Gibt es qualitative Unterschiede zu den CineForm und Canopus Intermediates? Um welchen Faktor vergrößern sich die m2t Files? Wie lange dauert das Rendern zum Intermediate? Verliert man sichtbar was an Videoqualität, wenn man über Intermediates geht?

      Ich bin sicher nicht der einzige, den das interessiert ;)
      LG
      Peter
    • Wie du weißt, habe ich mir ja Edius bestellt - auch, um solche Vergleiche mal mit dem selben Quellmaterial machen zu können.

      Und nein, untersucht hat das meines Wissens noch keiner wirklich - zumindest nicht in einer brauchbaren Form. Das, was sich im Laufe der Zeit etwa beim Testen der DV-codecs entwickelt hat, nämlich unabhängige Testreihen, steht im HDV Bereich noch weitgehend aus - soweit ich weiß.

      Das derzeitige Limit von Vegas mit ca. 60 m2t files würde ich noch nicht unbeding als Killer Kriterium betrachten. Auch aufgrund der fehlenden, automatischen Szenentrennung von nativen m2t Material ist zur Zeit ohnedies eher ein workflow sinnvoll, der auf 20 oder 30 Minuten lange m2t files aufsetzt. Und gerade diesen Workflow habe ich in den Gearshift Tutorials ja entsprechend ausgereizt - finden sich hier im Tutorial Bereich. Dort finden sich auch erste Betrachtungen zu optimierten Proxys und ein wenig auch zu Intermediates.

      Persönlich erscheint mir unverändert das Wegrendern von Originalmaterial (m2t) am sinnvollsten, so wie es ein workflow mit Vegas/Gearshift und Proxys anbietet. Einfach deshalb, weil wir exakt einen Rendervorgang im Bezug auf die finale Qualität haben:

      m2t ---> m2t
      m2t ---> wmv

      oder zu welchem finalen Format auch immer. Editieren mit Proxys ist hier aber derzeit essentiell - m2t Material in der timeline erfordert enorme Rechenpower, was so Dinge wie die Echtzeitvorschau angeht.

      Die Proxys haben auch den Vorteil, daß man damit eine automatische Szenentrennung machen kann. Ideal sind hier mjpeg-avi proxys, Gearshift hat diese Fähigkeiten auf meine Intervention hin bekommen, auch mjpeg-avi proxys sinnvoll zu verarbeiten. Ein wesentlicher Nachteil ist natürlich, daß man die proxys etwa in Vegas die nicht in die bin-Struktur retour bekommt, und damit in der Materialorgansation Beschränkungen hat. Mal abgesehen von der zusätzlichen Renderzeit. Trotzdem halte ich persönlich diesen workflow zur Zeit für den Besten, den Vegas für HDV zu bieten hat.


      Die anderen workflows über Intermediates lauten ja zumindest immer so:

      m2t ---> Intermediate (Cineform, Canopus HQ usw) ----> finales Format

      und damit sind jegliche Verluste der beiden Renderschritte additiv vorhanden. Diesen workflow kann man etwa mit den Zusatzprodukten Connect HD oder Aspect HD realisieren - welche beim Capturen zum Intermediate eine automatische Szenentrennung machen können. Adobe Premiere Pro bekommt so nach Berichten von Wiro im slashcam Forum eine gute Performance - aber Aspect HD ist natürlich teuer. Oder man nimmt etwa Edius 3 und dem Canopus HQ codec - und hat auch dort ohne weiteres Zusatzpacket eine automatische Szenentrennung bei dem Capturen zu Intermediates. Grundsätzlich haben die Intermediates den Vorteil, daß sie bessere Echtzeitfähigkeiten haben als natives m2t Material - von der Dateigröße aber doch deutlich größer sind, als etwa optimierte Proxys.

      Will man in Vegas ohne Connect HD eine automatische Szenentrennung haben, so haben wir den Weg über AV-Cutty in enger Kooperation mit Andreas erschlossen. AV-Cutty kann heute Cineform Datein mittels optischer Szenentrennung auftrennen, allerdings ist das Material dabei wieder eine Rendergeneration älter.

      m2t ---> Intermediate (Cineform) ----> Intermediate Einzelszenen AVCutty (Cineform) ----> finales Format

      Hier stehen etwa Untersuchungen aus, was man an Qualität bei diesem zusätzlichen Renderschritt verliert.



      Eine gewisse Einigung besteht darin, daß das mehrmalige Umrendern von m2t zu m2t schlecht sei - einen workflow, der

      m2t ---> m2t ---> m2t

      vorsieht, sollte man daher mit hoher Wahrscheinlichkeit vermeiden.

      Aber die Renderfehler der verschiedenen Versionen hat noch kein Unabhängiger systematisch untersucht und verglichen. Wäre doch eine nette Aufgabe...
      :D
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Wäre doch eine nette Aufgabe...

      Darum habe ich diesen Thread ja gestartet - so kurz vor dem langweiligen Wochenende :D

      Ja von den Verfechtern der Intermediate Methode wird behauptet, daß man keinen Unterschied sehen würde, aber was und ob man an Schärfe verliert, wie stark sich das Endergebnis vom Ausgangsmaterial unterscheidet und wieviel Plattenplatz man zusätzlich benötigt hat wohl wirklich noch niemand quantitativ untersucht.
      LG
      Peter
    • Mir würde ja schon mal eine Renderreihe reichen, wo man etwa qualitativ sich Differenzbilder ansehen kann - in entsprechender Auflösung versteht sich.

      Aber auch die von dir beschriebene Methode könnte natürlich zum Einsatz kommen.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • ... genau die zeigt ja, besonders wenn man noch eine Verstärkung über ein LevelsFilter und ein InvertFilter im Ausgang hat sehr gut die Differenzen, die man zugegebenermaßen bei DV/MPEG Material im direkten Vergleich nur schwer sehen kann. Bei 1440x1080i sollte man dabei allerdings nicht 'Simulate Aspect Ratio' aktivieren und das ganze mit Best+Full über das Clipboard in ein Bildbearbeitungsprogram übernehmen. Damit kann man dann bess auf dem Bild in 1:1 Auflösung pannen um sich Details ansehen zu können.

      Die HC1 Clips scheinen mir da für uns weniger geeignet da sie nicht in 'PAL' HDV sondern mit 29,9fps vorliegen. Leider habe ich nicht genügend 1080i PAL Material aber vielleicht werde ich ja am 15.7. doch schwach und unvernünftig ;)
      LG
      Peter
    • 1080i PAL Material habe ich genug da - und zuverlässig und definitiv von der FX1 geschossenes Material, bei den Testclips gabs ja immer Gerüchte das die nicht von der FX1 sein sollen.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Die Frage ist noch: was soll das finale Format sein?

      wmv9 - vermutlich ja. Ich neige mal dazu, das Template "6.7 Mbps HD 1080-25p Video" zu nehmen, und hier nur die Einstellung "good" auf "best" zu verändern.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Für die Frage, ob und wie Intermediates die Qualität des Final beeinflussen, denke ich sollte man zunächt mal diese mit dem original m2t vergleichen und feststellen ob und ggf wie stark die Schärfe/Auflösung (dazu gibts es leider nur in NTSC ein paar nutzbare Clips der HC1) und welche Veränderungen am Bildinhalt bei solchen ohne und solchen mit Bewegungen zu erwarten sind. Besser können sie beim Final Rendern dann auch nicht mehr werden.

      In einem 2. Schritt würde ich die Endergebnisse und da bietet sich zur Zeit eigentlich nur wmv9 aber besser mit mehr als 6,7Mbs (denke ich) an mit dem Original vergleichen. Man wird beim HDV sicher auch überlegen, sein mühsam geschnittenes Material wie beim DV Schnitt zurück auf Band speichern zu wollen. So gesehen böte sich auch ein Vergleich m2t/m2t durchaus an.
      LG
      Peter
    • Nun, man kann natürlich auch auf 8 mbps gehen - Vegas 6 bietet das für 25p aber nicht einmal mehr an, muß man sich halt ein template selbst basteln.

      m2t to m2t Vergleiche sind natürlich auch wesentlich - wobei ich mich frage, ob man das wirklich machen wird. Diese Route bietet eher einen beträchtlichen Qualitätsverlust, nach allem was man so hört.

      Aber ich baslte mal gerade an einer systematischen Testsequenz.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Wo ich die Methode abändern werde, daß ist die Quantifizierung. Das hat zwei Gründe: einmal will ich beim Rendern immer eine Zahl einstanzen, die wievielte Render Generation eine Datei ist. In der Differenzmessung stört diese Zahl aber das Histrogramm und die quantitative Messung. Und zum Zweiten sagt es mehr, wenn man sich das Differenz-Bild ansieht. Ansonst halte ich dich Methode über Levels und Invert schon für gut.

      Außerdem werde ich die Bilder mal mit der Preview-Best als png ablegen.

      Mal schauen, wie das läuft...
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Mußte gerde erst mal Rasen mähen, Belüften, das Zeug vom Rasen entfernen und noch mal drübermähen - jetzt bin ich fix und alle.

      Die Quantifizierung halte ich schon für recht wichtig, damit man nicht nur sagen kann besser oder ein bisschen schlechter oder sieh mal die Stelle. Du könntest die Rendergeneration in Filenamen führen (würde ich in jedem Falle machen, schon der Übersichtlichkeit wegen) und wenn es nötig erscheint nach dem Export in ein Bildbearbeitungsprogram nachtragen. Wenn du über das Clipboard exportierst hat du automatisch die Beste Qualität, weil das ja eine Bitmap des Vegas Preview ist. Besser kann es auch als PNG nicht werden.

      So jetzt muß ich meine Wunden lecken ;)
      LG
      Peter
    • Während du den Rasen gemäht hast - erspare ich mir bei dem permanenten Regenwetter in Wien - habe ich eine Quantifizierung entwickelt. Einfach, indem ich die png-files wieder in Vegas importiere, und die Zahlen einheitlich weiß abdecke. Ergibt eine nette Meßreihe, wo ich mit Mittelwert * Standardabweichung die Fläche der Abweichung als Annäherung für die Qualitätsveränderung nehmen kann - und daraus recht gut einen Indikator für die Veränderung ermitteln kann. Ist halt eine Art der Auswertung, Sichtprüfungen ersetzt das nicht - aber man hat objektivierte Werte.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Nun, du hast offensichtlich schon angefangen und ich nehme an du hast schon einiges an Material so verarbeitet. Der Weg über die PNG dürfe das Resultat nicht maßgeblich verändern, obwohl ich zur Dokumentation einfach ein PNG vom gerenderten und einen von der Differnz exportiert und entsprechend benannt hätte. Aber wie gesagt, dürfet auch so sehr aussagekräftige Ergebnisse liefern. Bin schon sehr gespannt.
      LG
      Peter
    • Ja, eine eher umfangreiche Reihe von Testrenderungen habe ich mal abgeschlossen, die Ergebnisse sehen bisher vielversprechend aus. Man erkennt eindeutig in den Differenzbildern klare Trends, die ich aber noch systematisch auswerten muß.

      Ich habe mir dazu die PNG Datei einfach von der Differenz exportiert - und mir dann die PNGs in Vegas nochmals importiert. Dort dann die eingestanzten Zahlen über alle Bilder einheitlich weiß abgedeckt - um diesen Effekt gleichmäßig auszuschalten.

      Im Histogramm sieht man dann die um die eingestanzten Zahlen bereinigte Störung jeder Renderung. Und da habe ich momentan ein Auswerteproblem: grundsätzlich haben die Kurven die Form einer halben Sinushälfte - und man erhält auch die Angaben des Mittelwertes und der Standardabweichung. Nur sitzen jetzt die weniger gestörten Kurven auch auf der y-Achse wieder auf, es wird also nur ein Teil der Fläche relevant. Und es ist eigentlich die Fläche, die eine Information darüber enthält, wie beträchtlich die Veränderung durch den workflow der Renderung erfolgt ist. Eigentlich benötigt man daher die Integration über die Histogram-Kurve, und das ist mühsam... dafür suche ich momentan noch eine einfach handhabbare Annäherunglösung.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Es ist schon richtig, daß eigentlich das Integral der Fläche alle Abweichungen enthält. Dieses einfach aus dem Histogramm zu entnehmen dürfte nicht ganz leicht sein.

      Kleine Abweichungen tauchen bedingt durch die Methode ja auch nahe der Y-Achse auf (oder ganz rechts - ich verwende immer das invertierte Bild was ohne Fehler weiß ist und Fehler besser erkennbar macht ) und sind sicher bei direktem Vergleich kaum zu erkennen. Je größer die Abweichung und damit relevant auffällig, desdo weiter zur Mitte treten diese auf. Wie stark dieser Abfall ist wird sehr näherungsweise mit der Streuung meßbar.

      Visuell relevant sind die Werte nahe der Y-Achse eigentlich nicht. Würde man ein Integral bilden, würden diese eigentlich visuell kaum wirksamen aber zahlen mäßig hohen Werte die Unterschiede in den wichtigen, weil deutlich sichtbaren, maximal Abweichungen ersticken. Diese sind ja zum Glück in ihrer Summe meist kleiner aber dafür deutlich sichtbar.

      Ich halte das Integral für den Zweck der Beurteilung daher für weniger geeignet.
      LG
      Peter
    • Also wir reden hier über eine quantitative Beurteilung einer Bilddifferenz - die sich in der Praxis im Superschwarz-Bereich befindet. Wir reden noch nicht davon, ob und wieviel man davon sieht oder wahrnimmt. Abgesehen, daß wir ja von unseren DV-codec Tests wissen, daß diese Bereiche durchaus relevant sind.

      Nach den mir vorliegenden Kurven - wo einige zu einem Drittel oder mehr von der Y-Achse abgeschnitten sind - halte ich es für extrem verfälschend, dies nicht zu berücksichtigen. Die Standardabweichung und der Mittelwert wären ja auch nur eine (noch gröbere) Annäherung bei dieser Methode gewesen, hätte aber die Verfälschung nicht wirklich gut abgebildet. Auch ein Produkt daraus bringts nicht wirklich.

      Nee, daher integriere ich diese Kurven jetzt mal manuell, und bekomme damit durchaus zumindest mal gut und reproduzierbare Ergebnisse. Erhärtet wird dies durch eine gute optische Korrelation mit den Differnzbildern. Ist in Summe eine schweine Hackn, aber wenn schon, dann schon exakt.

      Zu den Ergebnissen kann ich jetzt schon mal sagen, daß man
      a) mit der Methode absolut reproduzierbare Veränderungen erzielen kann;
      b) die exakten Rendereinstellungen eine erstaunlich geringe Rolle spielen dürften;
      c) die Direkte Umwandlung von m2t Material klare Vorteile besitzt, was die Verfälschungen angeht;
      d) der Cineform Codec mir nach und nach nicht ganz koscher vorkommt. Es gibt hier mit zunehmenden Render Generationen einen reproduzierbaren Farbdrift - was für mich die Vermutung nahe legt, daß der Codec die Farbraumkonversion doch nicht perfekt beherrscht.
      e) die Umwandlung zu wmv bringt auch in den höchsten Qualitätsstufen deutlich meßbare Qualitätsverluste. Hier ist die Beurteilung aber extrem schwer, weil der codec offenbar immer deinterlaced. Daher habe ich die Beurteilung mit Material gemacht, welches nicht in einem Schwenk liegt. Nimmt man Material aus einem Schwenkbereich, merkt man das natürlich extrem - und mißt streng genommen die Veränderung durch das Deinterlacen, was für diese erste Übung wenig Sinn macht.

      Diese Kommentare sind aber jetzt mal vorab - die gesamte Auswertung wird noch eine Weile dauern, fürchte ich. Aber die Arbeit zahlt sich aus - noch gibts ja sonst keine wirklich zuverlässigen Daten über diese Verarbeitungsketten.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Original von wolfgang
      Also wir reden hier über eine quantitative Beurteilung einer Bilddifferenz - die sich in der Praxis im Superschwarz-Bereich befindet.

      In dem Fall kann man nicht von Superschwarz-Bereich sprechen, denn es handelt sich um Differenzen. Das hat nichts mit dem Superschwarz-Bereich im Video mehr zu tun. Wenn du da nahe bei 0 bist z.b.0:0:1 ist der Unterschied zwischen Original und 'Fälschung' sehr sehr klein. In diesem Bereich hast du bei guten Encodern sehr viele Einträge. Würdst du die einfach aufsummieren ergäbe das ein ganz falsches Bild. Das Integral ist hier wiklich nicht sinnvoll.

      Zur optischen Beurteilung mach mal einen InverterFilter in den Ausgang. Du wirst sehen, wieviel du mehr siehst. Das liegt daran, daß die meisten Bildschirme so eingestellt sind daß man unter 30 fast nichts sieht hingegen bei 255-30 dann doch deutlich.
      LG
      Peter
    • Aber jegliche Differenz ist aus einem Helligkeitssignal im Superschwarz Bereich oder auch darüber entstanden. Das wird klar durch den Blindwert belegt, den ich natürlich mitlaufen lasse - wo ich das Ausgangsmaterial gegen das Ausgangsmaterial messe. Der erzielte Kennwert ist verschwindend gering.

      Klar wurden die gemessenen Werte verstärkt, damit man diese überhaupt vernünftig messen kann. Aber die Fläche unter der Helligkeitskurve gibt dir einen zuverlässigen Indikator darüber, welche Veränderungen erfolgt sind. Warum sollten sonst Mittelwert und Standardabweichung irgendeine Bedeutung in dem Verfahren haben, wenn dem nicht so wäre?

      Alles, was wir hier ermitteln, ist eine Kennzahl, die - nach entsprechender Verstärkung - die relative Veränderung zweier Videos messen wird. Als Indikator dafür, wieweit der jeweilige Renderschritt gegenüber dem ursprünglichen Material abweichend ist.

      Die Kennzahl korreliert übrigens sehr gut mit dem optischen Eindruck, was sich im Differenzbild verändert hat. Das Bild selbst halte ich hingegen für eine objektive Beurteilung für extrem problematisch, weil wir hier Wahrnehmungsverzerrungen haben.

      Der Inverterfilter befindet sich übrigens im Ausgang, gemäß deinen damaligen Empfehlungen im Vegas-Forum. Nur für die Integration der Bilddatein kerre ich den nochmals um - was aber eine blanke Spiegelung der Helligkeitskurve ist.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Original von wolfgang
      Aber jegliche Differenz ist aus einem Helligkeitssignal im Superschwarz Bereich oder auch darüber entstanden.

      In welchem Ursprungsbereich der Helligkeit ein Punkt liegt, der verglichen wird ist eigentlich belanglos. Entscheident ist die durch den Fehler entstehende Differenz und die landet bei ganz kleinen Abweichungen (ohne Inverter) im "Superschwarz"- Bereich des Histograms. Solche Abweichungen kann man aber so gut wie nicht sehen.

      Stell dir eine Verteilung vor, die wegen sehr vieler kaum sichtbarer Abweichungen einen hohen Wert im ""Superschwarz"- Bereich" des Histograms hat und eine zweite Verteilung, bei der die gleiche Fläche so verteilt ist, daß die Werte weiter in der Mitte liegen. Das würde die gleiche Kennzahl geben, da das Integral ja gleich ist, aber beim zweiten wären die Fehler deutlich sichtbar hingegen beim ersten nicht. Das Inegral taugt also für diesen Zweck nun wirklich nicht, denn dort werden unsichtbare Abweichungen genau so gewertet, wie Fehler die stark ins Auge spingen. Sorry, die Mühe hast du dir wohl umsonst gemacht ;)
      LG
      Peter