Echtzeit, Proxys und Intermediates

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • @ Bruno

    Du schreibst:
    Es ist nicht möglich mit HD-AVI in EDIUS Pro 3 ein Projekt wie "Greece" ohne zusätzlicher Hardwareunterstützung aufzubauen. Ob es mit zusätzlicher Hardwareunterstützung gehen könnte und mit welcher, ist mir nicht bekannt.

    Wie muß man das verstehen? Wo hapert's?
    Meinst Du da jetzt das Original oder meinst Du ein "ähnliches" Projekt mit eigenem HD-Material?
    Ich dachte, Edius hätte da keinerlei Probleme.
    Klär mich doch mal auf.
    Gruss Wiro
  • @Wiro,

    "Meinst Du da jetzt das Original oder meinst Du ein "ähnliches" Projekt mit eigenem HD-Material? "

    Ich meinte ein ähnliches Projekt mit *.m2t-Matrial (geht garnicht) oder HD-AVI-Material (geht nur mit stark beschränkter Spurenzahl und damit geht es nicht!). Das bezieht sich natürlich auf meinen derzeitigen PC mit 3,2GHz. Das DV-Projekt läuft dagegen sogar ohne Unterstützung der DV-Storm 2 ohne Hänger voll durch, alles Echtzeit!

    Ich kann dir trotzdem zuraten EDIUS Pro 3 zu kaufen...
    Ich werde beide Programm P-Pro und EDIUS weiter pflegen!

    @elCutty,
    nicht auszieh- und schwenkbarer Okularsucher ist schon für mich ein Todesurteil für einen Camcorder.

    Was aber die eigentliche Frage hier bezüglich XM2 angeht, die würde ich jetzt nicht mehr kaufen, kann ja kein 16:9, dann schon eher die HC1 trotz einiger nicht erfüllter Wünsche. HC1 bedeutet aber auch, dass man sich um eine vernünftige Bearbeitung und Verwertung kümmern muss.
    +++++++ www.hennek-homepage.de/video.htm +++++++
    Pana. FZ-300 - ThiEYE T5 EDGE - Sony RX-100 - Edius
  • Original von Bruno Peter
    Ich meinte ein ähnliches Projekt mit *.m2t-Matrial (geht garnicht) oder HD-AVI-Material (geht nur mit stark beschränkter Spurenzahl und damit geht es nicht!).


    Also sogar ich weiß, daß Canopus die Verwendung des Canopus HQ codec empfielt. Und warum soll damit so ein Schnitt nicht gehen? Man benötigt halt einen entsprechenden PC, das ist aber eh klar und von der NLE zunächst unabhängig.

    Noch kann ich dazu wenig von Edius sagen - aber m2t direkt in der Timeline mit den heutigen PCs schneiden ist und bleibt halt mühsam. Aber darum sollen ja auch Intermediates verwendet werden.
    Lieben Gruß,
    Wolfgang

    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung
  • In meiner Stellungnahme geht es darum, ob ein solches Projekt in Echtzeit geht, geht nicht unter den genannten Bedingungen. Es geht, wenn man die Timeline vorher rendert natürlich...

    Mit dual max ist das alles natürlich kein Problem!
    +++++++ www.hennek-homepage.de/video.htm +++++++
    Pana. FZ-300 - ThiEYE T5 EDGE - Sony RX-100 - Edius
  • Eine klare und wie ich meine realistische Aussage, danke.
    Jeder, der sich mit heutigen Durchschnittsrechnern (um die 3 GHz) ernsthaft mit HDV-Bearbeitung auseinandersetzt, sollte aufhören, dem Echtzeit-Phantom nachzujagen, wenn er Mehrspur-Kompositing (womöglich 6 Videospuren gleichzeitig) und aufwändige Effekte einsetzen will. "Normale" Montage - also harte Schnitte mit wenigen weichen Blenden - funktioniert dagegen völlig problemlos.

    Das Greece-Projekt nachzubauen ist jedoch schon ein happiges Stück Arbeit für den PC. Mit einem Mittelklasse-Pkw an einer Bergrallye teilzunehmen wäre ein ähnliches Unterfangen. Man kommt zwar den Berg hinauf, aber grade so eben. Und die "wirklichen" Rallye-Autos ziehen lässig an einem vorbei. Es sei denn, man hat seinen Mittelklasse-Pkw getuned (Hardware).
    :D :D :D

    Daran muß man natürlich auch denken, wenn man sich heute eine HC1 kauft. Es wird nicht dabei bleiben, das HD-Material als DV auszuspielen - man wird umsteigen wollen. Und dann könnte es gut sein, daß man "Stress" bekommt und die berühmten Hiiiiiiiilllllllfeeeeeee-Schreie ins Forum setzt. Dennoch: stünde ich vor einer Entscheidung, ich würde auch eine HDV nehmen. Aber Gott sei dank ist das im Moment nicht relevant.
    Gruss Wiro
  • Denke ich an mich selbst, dann würde ich ein HDV-File welches ich auf DV-Schnitt kastriert habe, in einem Jahr nicht erneut rausholen um es nochmals in HDV zu bearbeiten. Die dafür verschwendete Erlebenszeit wäre mir zu kostbar. Insofern denke ich wie Wiro, man verpaßt nichts im Moment...
    +++++++ www.hennek-homepage.de/video.htm +++++++
    Pana. FZ-300 - ThiEYE T5 EDGE - Sony RX-100 - Edius
  • @Wiro,
    mir ist da noch etwas aufgefallen...

    Aus einem 32MB m2t-File macht:

    EDIUS Pro 3 mit dem Canopus HQ-Codec = 105 MB HQ-AVI
    Premiere Pro 1.5 mit dem CineForm-Codec = 94 MB HD-AVI

    Trotz der größeren Datei bekommst Du mit EDIUS Pro 3 deutlich mehr Echtzeit-Performance!

    In Premiere Pro kann man Files mit dem Canopus HQ-Codec einlesen (wenn Edius auf diesem System installiert ist), kannst es dann aber nur mit dem CineForm-Codec zum Beispiel ausgeben.
    +++++++ www.hennek-homepage.de/video.htm +++++++
    Pana. FZ-300 - ThiEYE T5 EDGE - Sony RX-100 - Edius
  • Original von wiro
    Jeder, der sich mit heutigen Durchschnittsrechnern (um die 3 GHz) ernsthaft mit HDV-Bearbeitung auseinandersetzt, sollte aufhören, dem Echtzeit-Phantom nachzujagen.


    Allerdings sind auch die Echtzeitfähigkeiten der verwendeten System relativ. Cineform Intermediates spiele ich etwa auf meinem 3.2 GHz P4 mit vollen 25 fps ab - während m2t nur auf etwa die halbe fps-Anzahl kommt. Gemessen in Vegas.

    Schnell bricht diese Echtzeitfähigkeit aber natürlich ein, wenn man dann komplexe Dinge wie PiP Effekte macht, oder auch nur rechenintensivere Überblendungen - also alles, wo man etweder mehrere Streams in Echtzeit brauchen würde, oder aber wo man zusätzlich viel Rechenleistung verbraten muß.

    Darum sind halt verschiedene Lösungsansätze in der HDV-Bearbeitung beobachtbar, alle mit dem Ziel wieder mehr Echtzeitfähigkeit beim Schneiden zu bekommen, um die Sachen halt beurteilen zu können:

    - Proxys: etwa DV-avi oder mjpeg-avi proxys, kleinere Datein also, die aus dem Originalmaterial gerendert werden, und die zum Editieren verwendet werden. Und erst vor dem finalen Rausrendern tauscht man zum originalen Material retour, rendert somit bei bestmöglicher Qualität von m2t weg. Das ist gar keine schlechte Methode, hier bekommt man grundsätzlich die gleiche Echtzeitperformance zurück, wie wir sie vom Editieren von DV-avi kennen. Neu ist die Methode aber natürlich nicht, schon Pinnacle Studio 7 konnte sowas. Und natürlich ist diese Methode ein workaround, allerdings ein sehr guter workaround wie ich meine. Vegas und Gearshift können das durchaus gut.

    - Intermediates: hier erstetzen hochwertige, aber leichter abspielbare Materialien den m2t stream - den Ansatz geht Cineform oder auch Canopus mit dem CanopusHQ codec. Nachteilig ist, daß die Intermediates Datein hier doch deutlich größer werden - aber Plattenkapazität ist heute weniger ein Problem als früher. Und man verliert je nach vewendeten Intermediate doch ein wenig an Qualität - untersuchen wir ja gerade hier in einer anderen Diskussion.

    - Hardware-Beschleuniger: etwa die Nexus die natürlich eine sehr gute Lösung ist - aber auch entsprechend kostet. Und die halt Kombinationen mit Intermediates nutzt - bei Canopus editiert man ja auch mit der Nexus im CineformHQ codec.

    Es gibt noch einen 4. Punkt:
    - zunehmende Performance der PCs, mit dem Weg zum Dual und Quatrocore-PC. Das dauert noch etwas, bis solche PCs auf breiter Front kommen werden. Kosten natürlich auch Geld, keine Frage. Aber wir haben es ja nicht sonderlich eilig - im Regelfall.

    In jedem Fall muß man abwägen, was man braucht, und was die Ansprüche sind. Amateure werden sich vermutlich recht lang mit reinen PC Lösungen und Proxys über Wasser halten, Profis, die HDV-Videos verkaufen wollen, werden vermutlich viel eher zu Karten wie der Nexus greifen. Ist halt alles relativ...
    Lieben Gruß,
    Wolfgang

    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung
  • Die Dateigröße würde nur dann zum bottleneck werden, wenn die Lesegeschwindigkeit von den Platten der bottleneck wäre - ist es aber nicht. Die NLEs sind es in diesem Beispiel, mit ihren unterschiedlichen Abspielfähigkeiten.

    Gestern hat hier erst Stephan bestätigt, daß man bei der Installation von Edius den CanopusHQ codec für alle Applikationen im System zur Verfügung hat. Ähnliches gilt für den Cineform Codec, wenn man ihn über Vegas-6 installiert hat. Ein Vermischen der Intermediates - macht das Sinn?

    Welcher workflow liegt hier dahinter? Aus der Timeline würde ich nämlich diese Intermediates entweder nur zu m2t retourrendern, oder eben zum finalen Ausgabeformat (etwa wmv-HD).
    Lieben Gruß,
    Wolfgang

    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung
  • Wenn man ein Projekt sequentiell in Arbeitsmodule zerlegen möchte um mit kürzeren Timelines zu arbeiten, dann könnte man den Schnitt mit den Übergängen und Filtern in eine neue AVI rausrendern. Zwar hatten wir evtl. am Anfang eine Canopus HQ-AVI, nun bekommen wir aber bei Verwendung von P-Pro eine Cineform HD-AVI... Es ist durchaus vorstellbar, dass ich mit einem Mix arbeiten werden, z.B. mit Teilen aus AfterEffects...

    Jetzt muss ich mal gucken, ob EDIUS eine Cineform HD-AVI laden kann, gehe aber zuerst zum Italiener mit meiner Frau, die Fischplatte ist schon bestellt... :wink2:
    +++++++ www.hennek-homepage.de/video.htm +++++++
    Pana. FZ-300 - ThiEYE T5 EDGE - Sony RX-100 - Edius
  • Natürlich Achtung mit dem öfteren Rausrendern von Intermediates. Diese Codecs sind nicht verlustfrei, mit jeder Rendergeneration gibt es eine (geringfügige?) Qualitätsverschlechterung.

    Wenn beide Intermediate-Arten auf einem System zur Verfügung stehen - wie das bei dir und bei mir (in Kürze) der Fall sein wird - dann kann man natürlich auch zu einer Mischung rendern. Wobei - ich würde es eher bevorzugen, nur einen Intermediate Typen zu haben, von dem ich final wegrendere. Grund: etwaige - wenn auch nur geringfügige - Verschiebungen in der Materialgüte dürften gleichmäßiger sein, wenn man nur eine Art verwendet.

    Ich frage mich auch, ob man nicht grundsätzlich zu beiden Intermediates rendern können sollte - aber vielleicht geht das nicht, das weiß ich noch nicht genau. Edius sollte eigentlich ebenfalls die Cineform Datein laden können, warum eigentlich nicht?

    Wenn alle Freiheiten gegeben sind (gegenseitige Ladbarkeit der Intermediates in allen Applikationen, Fähigkeit zum Rausrendern in allen Applikationen), dann würde ich natürlich den Intermediate Typen verwenden, der in den Rendertests das bessere Verhalten aufweist
    (im Hinblick auf Artefaktebildung oder auch Farbraumtreue); und der die besseren Echtzeitfähigkeiten in der bevorzugten NLE hat - könnte ja auch unterschiedlich sein.

    Viel Spaß beim Fischessen...
    :))
    Lieben Gruß,
    Wolfgang

    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung
  • Denke ich an mich selbst, dann würde ich ein HDV-File welches ich auf DV-Schnitt kastriert habe, in einem Jahr nicht erneut rausholen um es nochmals in HDV zu bearbeiten.



    mhh wieso kastrieren?

    mein geplanter worklfow:vegas capturen.av-cutty szenentrennung.proxy-schnitt mit vegas in dv-geschwindigkeit.rendern als 16:9 pal mpeg-dvd (procoder fieldoption) und einmal zurück aufs band als natives .m2t.

    so hab ich eine geschnittenes hd-band,welches sich später mal schnell in eine hd-wmv disc rendern lässt.oder zur not direkz über cam an hdtv angeschlossen wird.und eine 16:9 dvd,die denen der xm2 überlegen sein sollten.
    :rolleyes:
    meine 30 minuten filme werden wohl in einer nacht fertig gerechnet sein..

    wenn das alles so klappt.



    man.. wann gibts sie endlich? :)
  • Original von conan
    mein geplanter worklfow:vegas capturen.av-cutty szenentrennung.proxy-schnitt mit vegas in dv-geschwindigkeit.rendern als 16:9 pal mpeg-dvd (procoder fieldoption) und einmal zurück aufs band als natives .m2t.

    so hab ich eine geschnittenes hd-band,welches sich später mal schnell in eine hd-wmv disc rendern lässt.oder zur not direkz über cam an hdtv angeschlossen wird.und eine 16:9 dvd,die denen der xm2 überlegen sein sollten.


    Also in diesem Thread vermischt sich inzwischen alles, finde ich aber ok. Dazu folgende Anmerkungen:

    - DV-proxys sind verwendbar, und zwar in PAL-DV-widescreen. Aber nicht übersehen, daß es bei der Verwendung von DV-Proxys zu leichten Seitenverzerrungen kommt. Das kann durchaus bei so Dingen wie PiP-Effekten störend sein, und das ist auch der Grund, warum ich in den Tutorials dazu eher mjpeg-avi Proxys empfehle.

    - Das als m2t Material auf den Camcorder zurückgeschriebene Material hat definitiv geringstmögliche Qualitätsverluste, weil es ja genau eine einzige Rendergeneration im workflow gealtert ist. Wird dieses Material allerdings später nochmals eingelesen und nochmals gerendert, um HD-wmv zu erzeugen, ensteht die Scheibe aus der 2. Generation. Ich würde HD-wmv bereits aus der ersten Generation erzeugen, Vegas hat dazu bereits heute sehr gute und geeignete Vorlagen integriert.

    - Den Einsatz des Procoders halte ich nicht mal wirklich für notwendig, bei dem Ausgangsmaterial bekommst du auch mit dem Vegas internen Encoder eine sehr gute Qualität. Aber zu diesem Punkt sind die optimalen workflows noch nicht ausreichend erprobt. Wenn, dann wäre hier vermutlich der Einsatz von frameservern sinnvoll, um eine Zwischengeneration zu vermeiden - und nur für SD ist das halt eher aufwendig.
    Lieben Gruß,
    Wolfgang

    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung
  • Original von wolfgang
    - DV-proxys sind verwendbar, und zwar in PAL-DV-widescreen. Aber nicht übersehen, daß es bei der Verwendung von DV-Proxys zu leichten Seitenverzerrungen kommt.

    Das kann man in Vegas leicht dadurch korregieren, daß man in Event/Crop "Maintain Aspect" = NO setzt. Umgerechnet werden muß das alles so und so. Bei dem FX1 Goose Clip geht das dann bei mir sogar satt in 28 sec in 25sec. Solange dauert es auch zum MJEPEG nur ist das DV-Proxi deutlich größer. Der Vorteil, man kann daraus ohne erneutes Rendern ein DV_wide (16:9) auf Band ausgeben, das dem aus eine XM2 deutlich überlegen ist - wenn man denn unbedingt will ;)
    LG
    Peter
  • zu punkt
    1.da muss ich mich nochmal schlau machen.habe es z.z. nur mit den proxis mal auf 16:9 pal gerechnet,und sah wirklich gut aus.auch auf dem kontroll tv.

    zu 2.
    Wird dieses Material allerdings später nochmals eingelesen und nochmals gerendert, um HD-wmv zu erzeugen, ensteht die Scheibe aus der 2. Generation. Ich würde HD-wmv bereits aus der ersten Generation erzeugen, Vegas hat dazu bereits heute sehr gute und geeignete Vorlagen integriert.


    hatte eigentlich vor es nur noch auf den pc zu "kopieren".also praktich die 1. generation zu nehmen.ausserdem denke bei einer evtl. zweiten würde man den unterschied kaum merken..

    zu3.ja.eben der frameserver vom pluginpac.funktioniert aber komischer weise bei mir nicht mit .m2t`s.
    procoder eben deshalb,weil mir die fieloption gefällt..
    werde ich gerade mal machen!
  • so hab ich eine geschnittenes hd-band,welches sich später mal schnell in eine hd-wmv disc rendern lässt.oder zur not direkz über cam an hdtv angeschlossen wird.


    Die Möglichkeit den fertig geschnittenen Film über die Kamera auf einen HD-Ready Fernseher auszugeben ist doch auch schon mal was. Was war das früher doch für ein Prozedere mit dem Aufbau des Filmprojektors. Fernbedienen läßt sich die Kamera auch. Also mir reicht das mal für den Anfang. Und den fertigen Film dann mal später noch mit einem Authoring-Programm zu bearbeiten und dann auf ein noch kommendes HD-Medium auszuspielen dürfte doch auch kein großes Problem sein.

    Wir stehen halt erst am Anfang eines neuen Medienformates. Die ersten Versuche mit DV und den Fast-Karten haben sicher hier auch noch einige im Gedächtnis. Da dauerte schon einmal nur die Vorschau von einigen Sekunden auf dem Monitor eine Ewigkeit. So zäh ist es mit dem neuen Material bei weitem nicht.

    Ich wünschte nur der große Frachter aus Japan hätte schon mal angelegt und das Teil wäre endlich verfügbar. :D

    PS. Bruno der Sucher ist klappbar nur nicht ausziehbar. Wurde in dem Test aber mehrmals erwähnt. Mit dem 71er Akku sollte es mit dem Sucher auch noch keine Probleme geben, es sei denn Du bist ein naher Verwandter von Pinnoccio :D
  • Maintain aspect auf NO zu setzen, kann eine interessante Möglichkeit sein. Das Material würde dann halt umskaliert werden. Hast du das mal genauer getestet?

    Ansonst: da vermischen sich Dinge. Normalerweise machst du Proxys, um mit guten Echtzeitverhalten schneiden zu können. Und gedacht ist die Sache eher so, daß man die Proxys ja wieder zu m2t Material retourtauscht, und von dort aus ins finale Format rendert. Die heutige Ausgabemöglichkeit auf PAL-DV-avi widescreen ist eine interessante Möglichkeit aus Sicht der heutigen Abspielmöglichkeiten - aber ich vermute eher, daß langfristig die meisten von uns das m2t Material wohl eher als m2t oder HD-wmv ausgegeben werden.

    Die Proxy-Größe ist nicht so eindeutig festmachbar - bei mir ist das Material mit 37% des m2t Files sogar deutlich kleiner. Das hängt von den eingestellten Eigenschaften der mjpeg-avi Proxy-Datei ab (DETAILS HIER.).

    Renderzeit: der goose clip war doch extrem kurz, oder? Hatte der nicht nur 15 Sekunden? Die optimierten mjepg-avi proxys rendern sich auf meinem PC in ca. 1.4facher Echtzeit.

    Hängt halt stark davon ab, was man haben will...


    @ conan,
    wenn du das m2t Material ausgibst, wird es definitiv neu gerendert. Damit ist das so erstellte Material bereits eine Rendergeneration älter. Richtig ist, daß die Qualitätstests einen gewissen Qualitätsverlust beim Rausrendern von m2t Material zeigen. Wie sich das verhält, wenn man in die 2. Redergeneration geht, haben wir bisher nicht untersucht - könnte man noch machen. Für mich ist der Punkt eher, daß sich dieser zusätzliche Verlust aber vermutlich vermeiden läßt, indem man das Material bereits nach dem Schnitt zu den finalen Formaten rendert.

    Und ansonst hast du natürlich recht: wir werden uns alle das Material nach dem Schnitt auf Band zurücksichern.
    Lieben Gruß,
    Wolfgang

    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung
  • wenn du das m2t Material ausgibst, wird es definitiv neu gerendert. Damit ist das so erstellte Material bereits eine Rendergeneration älter


    ja stimmt schon.wäre dann aber immernoch die erste. :D
  • So, habe etwas nachzutragen...

    Habe sowohl in EDIUS, als auch in P-Pro eine HD-AVI mit dem jeweiligen HQ/HD-Codec aus m2t erstellt. Die Frage war zu klären, ob diese HD-AVIs gegenseitig angenommen werden...

    1. P-Pro:
    nimmt eine Canopus HQ-AVI an, soll mit Filtern und Übergängen das Teil rausgerenderrt werden, dann geht das nur mit dem Cineform-HD-Codec...

    2. EDIUS:
    nimmt eine Cineform HD-AVI nicht an, d.h. doch aber nur die Tonspur...

    Das bedeutet, dass ein Fileaustausch im Falle HDV nur mit m2t-Files möglich sein wird, nicht als HD-AVI mit herstellerspezifischen HD-Codec.

    Zur Echtzeitwiedergabe (ohne vorher zu rendern!):

    1. P-Pro:
    läuft mit zwei Spuren, eine als PIP im Falle HD-AVI
    2. EDIUS:
    läuft mit drei Spuren, zwei davon als PIP im Falle HD-AVI
    +++++++ www.hennek-homepage.de/video.htm +++++++
    Pana. FZ-300 - ThiEYE T5 EDGE - Sony RX-100 - Edius
  • Also Fileaustauch - ob das viel Sinn macht? Ich habe gerde eben mal gesehen, daß etwa im MSP auch Cineform Datein sich öffnen lassen.

    Ich hatte mich übrigens geirrt - der goose clip ist nur 4,8 Sekunden lang, eine Renderzeit von 28 Sekunden ist somit 5,8 fache Echtzeit. Kann bei einem realen Projekt lange sein. Was mir dazu noch eingefallen ist, das ist der Umstand, daß Gearshift eine Skalierung vornehmen kann, um die Randerscheinung bei DV-avi widescreen zu unterbinden. Das geht, indem das Bild auch leicht umskaliert wird. Ganz perfekt ist die Sache aber nicht - und vor dem Rendern mit Gearshift muß man die Projekteinstellungen auf die Zielgröße stellen.

    Zu Event Pan/Crop in Vegas: nun, man kann noch in Event Pan/Crop zusätzlich "Match Output Aspect" verwenden, um das Bild exakt auf die Einstellungen zu skalieren. Hat den Vorteil, daß sogar die Seitenverhältnisse beibehalten werden - und oben und unten halt ein ganz dünner Streifen des Bildes abgeschnitten wird.
    Lieben Gruß,
    Wolfgang

    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung