Beiträge von wolfgang

    Nur damit verständlich wird, was ich möchte:

    Es bedarf eigentlich keiner Begründung und schon gar nicht einer Rechtfertigung, warum sich jemand für irgendein Werkzeug entscheidet.


    Auf der Liste fällt mir nur auf, dass sich bei Edius die Projekteinstellungen nicht mehr im Nachhinein von 25p auf 50p oder umgekehrt ändern lassen. Da muss man ein wenig aufpassen. Aber von 50p zu 25p zu rendern ist kein Problem.

    Da hier mit einer GH5 gearbeitet wird, die grundsätzlich auch 10bit kann: man muss auch immer unterscheiden, ob eine andere Software überhaupt in der Lage ist, den 10bit fähigen HQX codes als 10bit zu dekodieren. Es kann sehr wohl der Fall vorkommen, dass eine Software den Codec zwar einlesen kann, aber dass dies dann eventuell nur als 8bit passiert (Vegas etwa wäre so eine Fall).


    Kein Problem wenn man nur 8bit Material hat - aber bei 10bit Material kann man hier durchaus in die Falle gehen weil die 10bit Verarbeitung unterbrochen wird.


    Keine Ahnung aber wie das in Pinnacle Studio ist.

    8GB RAM in der GPU sind für UHD unter Resolve genug. Die 16 GB aber für Resolve eher eng.


    Auch ich habe sowohl Resolve wie auch Edius in Verwendung. Im Moment bevorzuge ich Edius weil das das 6K Material der Blackmagic Pocket gut unterstützt.


    Es ist halt so: Resolve ist als professionelle Gradingapplikation beim Graden praktisch unschlagbar. Das fängt mit der extrem professionellen Node Logik an, geht über das sehr gute Farbmanagement aber auch die sehr guten Wekzeuge (log und lineare Farbkorrektur etwa). Da kann Edius nur halbwegs mit.


    Edius hat aber gerade in der 9.5er Version das beim Graden dazu bekommen, was man in Wirklichkeit in der Regel braucht. Und hat den Schwerpunkt am Videoschnitt, was für viele uns wichtiger sein kann als das sehr gute Grading. Ist somit einfache als Resolve, und der workflow ist recht ausgereizt. DAS spricht durchaus für Edius.

    Eigentlich nutzte ich ja Vegas schwerpunktmäßig- aber das kann halt nicht BRAW. Kein Problem für mich, sind ja alles nur Werkzeuge.

    Es ist weniger die Frage wer zu was gewechselt ist - das Werkzeug wählt eh jeder selbst. Mir gefällt sowohl Resolve (für manche Zwecke) aber auch Edius (für manche Zwecke).


    Fakt ist, dass es kaum noch Dinge gibt die ich mit Edius nicht machen kann, verglichen mit Resolve. Das Farbmanagement von Edius ist gleich gut wie das von Resolve. BRAW geht auch, sogar ProRes RAW geht in Edius (was Resolve nicht kann). Also im Regelfall hast mit Edius kein Problem. Vorteile sind eher der ausgeklügelte Schnitt unter Edius im Serienbetrieb - für mich ein wichtiger Punkt.


    Mich würde eher interessieren warum Resolve abschwirrt. Zu wenig RAM in der Grafikkarte? Oder was ist es?

    Das wirkliche Leben im jeweiligen Land spielt neben bzw. abseits der Sehenwürdigkeiten.

    Das ist doch viel interessanter.

    Schon richtig. Aber da muss halt die gewählte Form des Urlaubs bereits dazu passen um "das wirkliche Leben" überhaupt einfangen zu können. Und das spielt es nicht unbedingt. Denn wenn ich in ein Land fahre will ich mir das Land ja auch ansehen - Sehenswürdigkeiten besuchen etc. Da werde ich nicht unbedingt die Zeit haben, die Beziehungen zu Einheimischen aufzubauen, was ich aber brauche um "das wirkliche Leben" filmisch zeigen zu können.


    Entweder haben wir ein unterschiedliches Verständnis darüber was das wirkliche Leben bedeutet. Oder aber schätzen den Aufwand um so etwas filmisch einzufangen sehr sehr unterschiedlich ein. So schön so etwas auch wäre.

    Tja, dann willkommen im Club derer die für sich privat filmen und es sonst gut sein lassen. Oh, nicht dass die anderen Varianten nicht interessant wären. Aber die erfordern halt entsprechend mehr Aufwand.


    Alleine das Mischen der Perspektiven und Kadrierungen ist eben Arbeit. Die Planung der Drehs. Der Plot. Warten auf das richtige Licht. DAS ist Arbeit wenn es Sendertauglich sein soll.

    Ein gutes Reisevideo - na nur mal folgende Fragen dazu:

    1 - wer definiert was gut oder schlecht ist? Da kann es viele Antworten auf diese Frage geben.

    2 - mit welchem Motiv oder welchem Ziel filmst überhaupt?


    Es geht nicht unbedingt nur um Equipment. Sondern eben um die eigenen Ziele.

    Ich habe mir diese Variante nochmals angesehen. Geht, bringt aber nicht wirklich etwas. Ich bekomme eben den LUT nicht vor den Quellfarbraum, was aber notwendig wäre. Und wenn man nur zwei Mal den PPC anwendet, dann baut man halt eher die doppelte Umrechnung auf - was auch geht aber die Performance des Systems entsprechend verschlechtert.

    Absurderweise macht das aber genau FCPX. Siehe den Slashcam Test:


    FCPX 10.4.1 erkennt beim Import des ProRes RAW Materials automatisch, von welcher Kamera das RAW-Material stammt und legt defaultmässig sowohl die entsprechende RAW-LOG Konversion als auch die entsprechende LUT an.


    [Blockierte Grafik: https://www.slashcam.de/images/texte/1681--LOGLUT-LOGLUT-600.jpg]

    Da in unserem Fall mit der Panasonic EVA1 aufgenommen wurde also die RAW-Konversion nach V-LOG und die entsprechende Panasonic V-LOG LUT.

    Allerdings gehen in Edius die offenbar vorhandenen Metadaten verloren - dass das Material etwa von der EVA1 ist. Automatisch wird diese raw-log Konversion daher in Edius nicht angewendet, wie das in FCPX der Fall ist.


    Muss aber logischerweise bedeuten, dass Edius sehr wohl eine Konversion macht - und zwar von raw zu rec2020/hlg. Das scheint mir dann willkürlich so festgelegt worden zu sein. OB dabei von Edius berücksichtigt wird, ob das raw nun von einer EVA1 oder von einer FS7 stammt, DAS wäre hier die spannende Frage. Müsste eigentlich so sein wenn Edius hier alles richtig macht.

    Was wäre, wenn man auf einen Clip zweimal PCC-Filter bringt:

    - Erster PCC: Nur die LUT

    - Zweiter PCC darunter: Farbregelung (Schieberegler, Kurve)

    kurt

    Ich habe mir diese Variante nochmals angesehen. Geht, bringt aber nicht wirklich etwas. Ich bekomme eben den LUT nicht vor den Quellfarbraum, was aber notwendig wäre. Und wenn man nur zwei Mal den PPC anwendet, dann baut man halt eher die doppelte Umrechnung auf - was auch geht aber die Performance des Systems entsprechend verschlechtert.

    Wenn also Edius dem Benutzer Arbeit abnimmt, dann wird auch automatisch eine LUT oder dergl. auf den Clip gelegt?

    Ich habe allerdings gelernt, dass man zuerst Belichtung und/oder ISO korrigieren soll, bevor man das macht.

    Meines Erachtens wird hier nicht automatisch ein LUT auf den Clip gelegt. Sondern es wird eine grundsätzlich Farb- und Gammatransformation vorgenommen, wie das Farbmanagementsystem eben so machen.


    Dass man die Belichtung in dem Primary Color Corrector von Edius anpasst, na das macht man ohnedies. An welcher Stelle diese Anpassungen im Signalfluss erfolgen, das ist natürlich aus der Oberfläche des Filters für den Anwender nicht erkennbar. ACES beschreibt diese Prozesse etwa so, dass das Quellmaterial zunächst in den recht großen ACES Farbraum transformiert wird; dass dann dort die Berechnungen zu Helligkeits- und/oder Farbveränderungen stattfinden; und dass anschließend dieses Ergebnis in den Zielfarb- und Luminanzraum umgerechnet wird.


    Ich sehe auch keinen Anlass zu glauben, dass dies in Edius unprofessionell erfolgen würde. Ganz im Gegenteil, die ersten Gradingergebnisse die ich hier mit BRAW sehe sind qualitativ sogar erstklassig. Waren sie aber auch schon mit dem früheren v log l Material meiner GH4 oder dem slog Material der FS7. Das Farbmanagementsystem von Edius braucht sich m.E. nicht hinter dem von Resolve zu verstecken. Darum betone ich aber immer wieder, wie wichtig es ist, nach dem sich daraus ergebenden Spielregeln zu arbeiten.