Angepinnt Native MPEG vs. Intermediate

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Ja stimmt schon Stephan, man kann Einiges rausholen. Aber glaube mir, wenn eine Aufnahme von Haus aus nicht ziemlich stimmig ist, dann fällt dir jedwede nachträgliche gröbere Veränderung sofort auf und zwar sogar als Laie . Marco, du bist mal aufgerufen und sag, dass ich unrecht habe.
      LGH
    • Die Kurzfassung wäre die, dass Produktionen mit eher mäßigen Qualitätsanspruch, die dafür aber unter starkem Zeitdruck stehen und für die nur sehr geringe Budgets zur Verfügung stehen, in der Regel ohne besondere (Farb-)Korrekturen das Produktionshaus verlassen. Der Zeit- und Geldaufwand würde hier nicht in einer vernünftigen Relation zu dem Produkt stehen.
      Das gilt für Genres wie News, Magazine und bis zu einem gewissen Grad auch für einfache Reportagen.

      Anders sieht es aber bei Produktionen mit hohem Qualitätsanspruch aus, bei denen jedem Bearbeitungssegment auch die entsprechende Zeit eingeräumt wird (oder: werden sollte). Solche Produktionen verlassen eigentlich nie ohne präzise Farbkorrekturen das Haus. Das betrifft normalerweise nicht nur einzelne, "missratene" Einstellungen (die es ja eigentlich gar nicht geben sollte), sondern die Korrektur betrifft dann meist sämtliche Einstellungen des Filmes. Das wiederum hat zwei Gründe: Weil anders keine perfekte Homogenität bei den Schnitten (innerhalb einer Szene/Sequenz) erreichbar wäre. Und weil perfekte Lichtstimmungen nicht ausschließlich beim Dreh erzeugt werden können.
      Das gilt für anspruchsvollere Dokumentationen, Spielfilme, hochwertige Imagefilme, Werbefilme, etc.
    • Die wirklichen Probleme liegen meiner Meinung nach ja in der Feinabstimmung, welche sich alle im Bereich von max. +- 10% des Originals in jeder Hinsicht bewegen. Beispiel: Totale vom Grand Canyon, man sieht schon das Gewitter herankommen und den Dunst über dem ganzen Tal. Dann Hinein-Zoom, weil man die Cam ja nicht unbedingt ausschalten muss oder will. Im Schnitt wird der Zoom selber entfernt und die Fernansicht im Kontrast geringfügig erhöht und geschärft. Aber wehe man übertreibt auch nur um 2%. Selbst das Hirn eines Laien überschnallt sofort, dass mit Tele durch den Dunst nicht so ein Kontrast und solch eine Schärfe möglich sein kann. Die Kunst eines Cutters besteht u.a. darin, wie ein Maler die feinsten Gammas und Farbnuancen an das natürliche Empfinden des Auges anzupassen und wenn da das Original nicht zu 90% stimmt, dann gute Nacht.

      Gute Nacht Helmut
    • Ich wage da keine Aussage in Prozentwerten. Es ist schon richtig, dass es dort eher nicht oder nur selten um die Angleichung stark fehlbelichteter Einstellungen geht. Und - ja - je stärker die Differenzen im Original, die später durch die Korrektur ausgeglichen werden sollten, desto schwieriger wird es, das ohne sichtbare Qualitätsverluste zu erreichen. Dabei muss man bedenken, dass die professionellen Kamera- und Videoformate, die für sehr hochwertige Produktionen meist benutzt werden, nicht mit Konsumerformaten vergleichbar sind, denn jene bieten einen größeren Kontrastumfang, so dass mehr Spielraum für Korrekturen vorhanden ist als z.B. bei günstigem DV-Equipment (wobei das nun schon in einen sehr speziellen Bereich abrutscht). In dieser Hinsicht wäre selbst HDV kein Deut besser als DV.
      Aber das Thema Farbkorrektur ist sehr diffizil und das Spektrum (wo es als notwendig betrachtet wird) recht groß. Von daher ist's schwierig, dafür pauschale Aussagen zu treffen.

      Unterm Strich bedeutet das aber ja, dass bei solchen Produktionen ohnehin jede Einstellung gerendert werden würde, weil jede Einstellung auch eine Korrektur durchlaufen würde, gleich in welchem Ausmaß. Somit entsteht in diesen Bereichen gar nicht erst eine Diskussion für und wider Smart-Rendering.
    • Marco,
      ich habe da überhaupt keine Zweifel, dass in professionellen Produktionen in der Tat praktisch jede Einstellung in Hinblick auf ein homogenes Gesamtergebnis korrigiert werden muss. Insofern sind deine, Stephans und auch Wolfgangs Überzeugungen für mich wirklich einleuchtend und das habe ich ja schon mehrfach betont. Mir kommt aber immer mehr vor, als wenn in diesem Forum 2 Welten aneinander vorbei reden würden, gleichzeitig aber auch, dass die Consumerwelt die Chance hat, mehr über den wirklich mühseeligen Weg eines guten Videoschnitts zu erfahren und wenigsten etwas misstrauisch gegenüber automatischem Videoschnitt und automatischer Vertonung zu sein. Einen Vorteil hat diese Methode allerdings schon, man kennt den "eigenen" Schnitt so wenig, dass man ihn sich auch danach noch öfters ansehen kann sfg

      LGH
    • immerhin kann ich also Edius demnächst zum Werbung herausschneiden von D-Sat Aufnahmen benutzen?


      Hoffentlich wird das nicht als besondere Stärke von EDIUS beworben...
      Mit dem billigen Pinnacle Studio geht das nun schon Jahre, mit Smartrendering.
      Studio macht das mit dem kleinen Fingerchen... 8)
      Beste Grüsse von Bruno(Achilles)!
      - Videografieren ist eine Vergnügungssteuer -
    • Domain, deshalb wollte ich auch nicht von richtig oder falsch sprechen, was verschiedene Meinungen hier angeht (abgesehen davon, dass ich das gar nicht kann). Es gibt dabei eben mindestens zwei Standpunkte und es gibt eigentlich auch keine deutliche Trennlinie.
    • So ist es. Wobei die Diskussion aber vielleicht das Verständnis dafür schärft, in welcher Situation man eher was machen sollte. Vielleicht ist das der eigentliche Nutzen von so einer Diskussion.
      Lieben Gruß,
      Wolfgang
    • Original von Stephan Kexel
      Das macht Edius als reine Software mit dem linken kleinen Zeh!

      Komisch.
      Auf den Canopus-Demoveranstaltungen, die ich bisher besucht habe, wird von den canopus-certified-Händlern dringend empfohlen, für HDV-Bearbeitung die NX einzusetzen.
      Nun lese ich, daß das alles auch ohne NX "mit dem kleinen linken Zeh" geht.
      Wollen die Händler den Kunden wirklich nur teueres Equipment andrehen?
      Ziemlich verunsichert
      Wiro
    • Original von Stephan Kexel
      Ad PP2 lt. Slashcamtest:
      "Auch die HDV-Performance wirkt beim nativen HDV-Schnitt überraschend gut. Zwei Spuren, skaliert abzuspielen gelang unserem Dual-Core-Testsystem (P4 840 EE, 1GB RAM, 256 PCIe-Grafikkarte) noch fast ruckelfrei. Sobald allerdings unbeschleunigte Effekte ins Spiel kommen, brach die Performance spürbar ein ."


      Das ist doch wohl ein grosser Witz?
      Für obige Funktion benötigt man noch keine NX auf diesem System [Dual-Core-Testsystem (P4 840 EE, 1GB RAM, 256 PCIe-Grafikkarte)]! Das macht Edius als reine Software mit dem linken kleinen Zeh!


      Wo ist das Problem? Jedes System zeigt nach seiner Performance ein gewisses Echtzeitverhalten. Mein P4 3.2 Ghz zeigt das auch, aber sicherlich in geringeren Umfang als ein dual-core-system, und das zeigt das sicherlich in einem geringen Umfang als ein dual-core System mit NX.

      Die Frage ist halt immer, wieviel Echtzeitleistung man einerseits benötigt - und wieviel man ohne "Nachbrenner NX" bekommt. Und das man mit weiterer PC-Entwicklung auch ohne "Nachbrenner NX" mehr und mehr Echtzeitleistung bekommen wird, ist auch keine überraschende Neuigkeit.

      Die spannende Frage wird eher sein: können wir auf einem für AP Pro2 Rechner optimierten PC - der ja auch einige Hardware-Anforderunen stellt, wie man so liest ;) - eine ähnliche Leistung erwarten wie mit einer NX? So wie ich den slashcam Bericht verstehe, vermutlich nicht. Bei Effekten bricht ja die Performance von AP Pro 2 offenbar ein (was ich von der NX halt noch nicht oder deutlich später hoffe - die NX hat ja auch irgenwo ihre Grenzen).
      Lieben Gruß,
      Wolfgang
    • Hmmmm - jetzt ist meine Verunsicherung total.

      Unsere weiter oben stehende Diskussion und die damit verbundenen Preis-Statements drehten sich doch um Intermediate-Schnitt. Wieso kommt jetzt plötzlich aus heiterem Himmel der native HDV-Schnitt ins Spiel? Na ja, wenn man nicht mehr so richtig weiter weiß, dann wechselt man einfach möglichst unbemerkt das Thema . . .
      Alter Trick bei Werbegesprächen - hab ich selbst auch schon oft angewandt.
      Gruss Wiro
    • Original von wiro
      Wieso kommt jetzt plötzlich aus heiterem Himmel der native HDV-Schnitt ins Spiel?

      na dann schau dir mal den Titel des Threads an : Native MPEG vs. Intermediate
      LG
      Peter
    • Original von wiro
      wenn man nicht mehr so richtig weiter weiß, dann wechselt man einfach möglichst unbemerkt das Thema . . .
      Alter Trick bei Werbegesprächen - hab ich selbst auch schon oft angewandt.


      Ich frage mich nur, wer hier ein Werbegespräch führt. Werbegespräch wofür? Oder wogegen?
      Also ganz kann ich das "Werbegespräch" noch nicht zuordnen.
      ?(

      Aber vielleicht muß ich den Thread nochmals ganz lesen.

      Zumindest für mich ist es völlig legitim darüber nachzudenken, wie nun die verschiedenen Schnittlösungen relativ zueinander performen. Egal, ob es sich nun um Hard- oder Softwarebezogene Lösungen handelt, egal, ob nun native oder Intermediate basierend.
      Lieben Gruß,
      Wolfgang
    • Ich habe da noch einmal eine dumme Frage, wie spielt man denn das geschnittene Video auf das Band zurück, wenn ich nach der Canopus-Methode vorgehe? Muss daa Video dann erst noch einmal gewandelt werden oder kann ich das irgendwie direkt überspielen?
      Ich habe immer noch die Angewohnheit, meine fertigen Videos auf Band zu sichern , und zwar will ich da höchstmögliche Qualität. Geht das denn, wenn ich vom nativen Schnitt abweiche?
    • Ja, wird nicht anders gehen, als dass du aus dem Canopus HQ intermediate wieder zum passenden mepg-stream renderst.
      Lieben Gruß,
      Wolfgang