Echtzeit, Proxy und Intermediats (Teil 2)

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • @Wolfgang,
      was ist nun daraus geworden:

      Also er hat in der Solo Version - das ist die OHCI Version, wo die Karte nicht angesprochen wird - DV-Out abgeschalten. Und damit kann Edius genausoviel wie im DVX-mode.


      Hast Du jetzt einen größeren Echtzeitpuffer als 92Frames in EDIUS bekommen oder nicht?
      Beste Grüsse;
      FZ-300RX100ThiEYET5EDGEXperiaZ2eGimbalEDIUS 9.xMedionErazeri76700UHDaufFHD
    • Nein, wie soll das auch gehen? Edius selbst hat ja maximal den Echtzeitpuffer von diesen ca. 95 frames.

      An der Matrox P750 lag das Verhalten definitiv nicht, wie behauptet worden ist. Auch meine neue Grafikkarte mit 256 MB zeigt exakt das gleiche Verhalten.

      Einen nativen m2t stream kann das System brav abspielen, ohne zu stocken - mit 25 fps, was ich schon mal gut finde. Aber bereits bei einem m2t stream + einen PiP m2t wirds eng, das System stoppt nach einiger Zeit.

      So, und mit den Canopus HQ Intermediates habe ich es noch nicht weiter probiert, war zu beschäftigt in letzter Zeit. Da geht aber sicherlich deutlich mehr.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Wie das gehen soll?
      Nun Du schreibst "DV-Out abgeschalten", was ich nicht nachvollziehen konnte.
      Mit der Storm habe ich einen Echtzeitpuffer von 192 Frames aber das ist eine andere Baustelle.
      Beste Grüsse;
      FZ-300RX100ThiEYET5EDGEXperiaZ2eGimbalEDIUS 9.xMedionErazeri76700UHDaufFHD
    • Also ich rede ja von der reinen Software - und die Option DV-Out abschalten ist in den Einstellungen zu finden (ich kann erst später genauer nachsehen).

      Und zum Puffer - ok, demnach hätte offenbar die Storm noch einen zusätzlichen Puffer, der bei der reinen Softwarelösung vermutlich begrenzter ist?
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • elCutty fragte:

      Kann man denn die Proxi Methode auch beo APP und EDIUS anwenden?


      APP: hier ist mir nichst näheres bekannt...

      EDIUS: ist mir auch nichts bekannt, aber wenn man die Storm-Karte hat, geht wohl auch mit der DVX-Karte, dann kann man ein 16:9 Projekt aufmachen, auf die Timeline Canopus HQ-AVIs legen und schneiden wie mit einem Feuerschwert und dann wieder mit dem Canopus HQ-Codec das File ausgeben. Zusätzlich hat man bei dieser Methode den Vorteil, dass man eine große Vorschau (allerdings nur in PAL) auf dem angeschlossenen TV hat und so Filter etc. besser beurteilen kann.

      Hier mal das Shema dazu, wie ich HDV-Schnitt mit EDIUS und Intermediate durchführe:

      [IMG:http://www.hennek-homepage.de/video/edius-shema.gif]

      OHCI würde ich also nur frü das Capturing und Rückgabe an das Band benutzen, ansonsten würde ich im Storm-Betrieb arbeiten und den Canopus HQ-Codec einsetzen.
      Beste Grüsse;
      FZ-300RX100ThiEYET5EDGEXperiaZ2eGimbalEDIUS 9.xMedionErazeri76700UHDaufFHD
    • Na noch ist der Canopus HQ codec nicht vermessen, kommt aber noch - ist eine Zeitfrage. Eigentlich sollten die Hardwarekarten von Canopus ja auch wie eine Art "Proxy" fungieren. Man könnte doch das Projekt in DV-avi schneiden, wo man die Beschleunigungsfunktionen einer Storm hat; und nur die finale Ausgabe aus Edius heraus in HDV machen. Zumindest findet sich in der Produktbeschreibung von Edius sehr hervorgehoben, daß man ja unterschiedliche Formate in einem Projekt verwenden kann. Ok, wie weit die Umwandlung zum Canopus HQ nicht doch sinnvoll ist, sei mal dahingestellt.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Habe heute mal ein 20 Minuten HC1 Projekt als m2t und anschließend als DV-wide aus der HC1 gelesen. Damit ist man deutlich schneller als mit dem Rendern einer Proxi-Datei , nämlich F=1. Das DV File ist natürlich deutlich größer als ein MJPEG, aber dafür von bester Qualität, aus der man schnell auch ein SD Video Rendern kann - viel viel schneller als aus m2t Files. Zum Einlese habe ich natürlich wie gewohnt ScLive benutzt und so Date/Time Szenetrennung erhalten und im Filenamen in Vegas importiert. Jetzt wäre es schön, wenn man diese Info auf das m2t File anwenden könnten, denn die optische Trennung über AvCutty ist nicht immer so genau. Es müßte eigentlich mit einem Script gehen, indem man die Event Schnitte von einem Track (avi) auf den anderen (m2t) übertragt. Auch die Date/Time Info könnte so übertragen werden.

      Wenn ich mal Zeit dazu finde werde ich dem noch mal weiter nachgehen, denn gerade in der Übergangszeit bis wir HD-Player und TVs haben, wird wohl das eine oder andere Video aus einem HDV Camcorder doch noch auf einer SD DVD landen - dann aber mit maximum was an 16:9 Qualität bei DV-wide möglich ist.
      LG
      Peter
    • "Es müßte eigentlich mit einem Script gehen, indem man die Event Schnitte von einem Track (avi) auf den anderen (m2t) übertragt. Auch die Date/Time Info könnte so übertragen werden. "

      Dazu müsste nur vor dem Schnitt zu jedem DV-File das entsprechende .m2t-File als Take in der Timeline abgelegt werden. Geschnitten wird dann mit DV als aktive Takes, vor dem Rendern würden dann die .m2t-Files als aktive Takes umgeschaltet werden.
      Mit dieser Methode habe ich schon früher WMV und unkomprimierte AVIs auf meinen leistungsschwachen PC geschnitten.

      Nachtrag:
      Du hast's vermutlich etwas anders gemeint. So, dass das .m2t am Stück und das DV-AVI, zerteilt durch automatische Szenentrennung, in kleinen Einzelteilen in der Timeline liegt und dann die DV-AVI Kleinteile das große .m2t-File trennen.
      Stimmt, das wäre per Script realisierbar.