Einziger Nachteil: der Monitor kostet leider über 5000 Euro! Selbst für 1600 nits muss man das mal ausgeben wollen/können.
(142) Online Masterclass | ASUS | DaVinci Resolve with Darren Mostyn - YouTube
Einziger Nachteil: der Monitor kostet leider über 5000 Euro! Selbst für 1600 nits muss man das mal ausgeben wollen/können.
(142) Online Masterclass | ASUS | DaVinci Resolve with Darren Mostyn - YouTube
Mit so einem Monitor bis 1600 Nits graden?
Ich frag mich gerade wie das Bild auf einem normalen OLED TV aussieht, der nur max 600 Nits da stellen kann.
Sieht das dann nicht total überdreht aus, mit ausgebrannten Lichtern und schwarzen Schatten, dazu noch übersteigerte Farbdastellung???
Auf UHD 1 sind manchmal solche total überdrehten HDR Filme zu sehen, die auf meinem Panasonic OLED 1004 einfach nur schlimm aussehen!
Ich mache meine HDR Farbkorrektur an meinem OLED an dem ich sie auch anschaue, wie viele andere hier auch und glaube es ist besser sich einen TV für die Vorschau zu kaufen. Ein 55 Zoll OLED günstiger als ein entsprechender Monitor
Habe den OLED über Edius x und dem BM Ultra Studio 4K verbunden.
Gruß DLW
Mein HDR-Schnittplatz ist agedunkelt. Die hohen Nits, am Wiedergabeplatz würden meinen Augen Schaden.
Mir kommt es eher auf ein augenfreuntliches Kontrastverhälnis an.
Erstens graded er auf 1000 nits. Und nutzt die Reserven des Gerätes - weil die halt da sein müssen, um zuverlässig auf 1000 nits zu kommen.
Zweitens muss das ja keiner so machen. Oder produziert hier wer für Netflix, die 1000 nits offenbar so vorgeben?
Drittens kann ja jeder persönlich auf eine geringere Nit-Zahl gehen. Mache ich auch gerne. Auch wenn jeder OLE-TV das dann eh auf die maximale Luminanz abregelt, die er darstellen kann - wenn die Werte nicht mehr darstellbar ist (aber leider ist genau diese Abregelung bei PQ undefiniert, und das damit herstellerspezifisch).
Was ich an dem Video noch hoch interessant finde - die SDR Einstellungen, von denen er kommt, werden recht einfach auf HDR umgestellt:
von SDR (schon in einem weiten Color Space angelegt)
zu HDR nur durch Umschalten des Outputs
Das ist schon ewig so üblich, es gibt genug Beispiele dafür im Netz.
Das ist schon ewig so üblich, es gibt genug Beispiele dafür im Netz.
Hallo Achilles,
mein Eindruck ist, dass du dich in eine total destruktive Phase verrannt hast.
Natürlich bekommst du hier immer wieder ziemlich Kontra, aber mit deiner besserwisserischen Art provozierst du das regelmäßig selber. Dabei ist gar nicht alles falsch was du sagst.
Ich finde, du solltest dir selber mal eine vierwöchige Postingpause hier im Forum verordnen und dann im neuen Jahr mit neuem Elan und offenem Ohr auch für das, was andere sagen, wieder neu einsteigen! ![]()
![]()
![]()
Gruß und allen schöne Weihnachten!
Jürgen
Na das mit "Color Space & Transform" habe ich doch schon hier vor nicht so langer Zeit vorgeschlagen.
Das hat nichts mit Besserwisserei zu tun, sondern vielleicht mit Vergesslichkeit. ich lese hier die
Beiträge sehr gewissenhaft durch. Schau Dir doch nur das Thema mit der 10Bit-Timeline an, wozu diese
eigentlich nützt. Und schon wieder rollt das jemand vom falschen Schlussfolgerungen aus hier auf.
Aber gut, ich mache mal Weihnachtsfrieden. ![]()
Lieber Bruno,
es warst du, der kürzlich in einem anderen Thread den Weg über Nodes vorgeschlagen hattest. Deine Vergesslichkeit (die du anderen unterstellst) hat offenbar noch zugenommen:
Die erste Ebene ist für die Projekteinstellung da. Wenn zwischendurch dann Material wie SDR, S-Log oder Bilder/Grafiken eingefügt werden, dann am besten in den ersten Node halt. Man kann das dann auch in beliebig in den Materialmix kopieren.
Nachdem du das dort vorgeschlagen hattest, und es mich interessiert hat, habe ich mir das näher angesehen.
Klar, die nodes sind eine logische Vorgehensweise - aber am Ende des Tages ist das Arbeiten mit den Nodes in dem Fall trotzdem der umständlichere Weg. Denn beim Color Management Weg definierst eben die Nutzung des Color Management ein einziges Mal in den Projekteinstellungen, und weist den allen z.B. slog Clips ein einziges Mal deren Farbraum gleich nach dem Import zu. Und ein einziges Mal den SDR clips - wie bei mir etwa nach dem Import der iphone Clips . Wenn Clips nicht eh automatisch erkannt werden, was etwa bei RAW der Fall ist.
In Summe ist das einfacher, und man ist sofort damit fertig.
Bist du wirklich derzeit in einer destruktive Phase? Ich hoffe das doch nicht. Wie wäre es mit ein wenig Weihnachtsfrieden?
Der Projekt-Timeline weise ich die generelle Projekteinstellung zu, in meinem Fall z.B. HDR(HLG3).
Da ich auch noch Bilder vom Smartphone oder Videos von der GoPro Hero 7 einfüge, weise ich an diesen Stellen
im ersten Knoten der Timeline die nötige Einstellung per "Color Space Transform" zu, keineswegs aber per LUT.
Ansonsten lieber Wolfgang wünsche ich Dir ein friedliches Weihnachtsfest. ![]()
Der Projekt-Timeline weise ich die generelle Projekteinstellung zu, in meinem Fall z.B. HDR(HLG3).
Da ich auch noch Bilder vom Smartphone oder Videos von der GoPro Hero 7 einfüge, weise ich an diesen Stellen
im ersten Knoten der Timeline die nötige Einstellung per "Color Space Transform" zu, keineswegs aber per LUT.
Die wichtige Frage ist zunächst, ob man mit oder ohne Farbmanagement arbeiten will. Ob man da dann ACES oder das Davinci interne Farbmanagement wählt, ist großteils eine Geschmackssache (und z.B. auch, wo welche Kameras besser unterstützt werden - sprich: finden sich die Presets der verwendeten Kameras etwa auch bei ACES? ACES ist gut, damit graded man auch in Vegas.
Aber egal was man da nimmt, das hat Einfluss auf die folgenden Einstellungen.
Meine Projekteinstellungen sind die hier:
was die Nutzung des Davinci eigenen Color Management entspricht.
Besonders wichtig - vielleicht gerade bei 8bit footage - ist der Farbraum HDR DaVinci Wide Gamut Intermediate, da der Farbraum für die Verarbeitung besonders groß sein soll.
Hier einer meiner BRAW clips mit diesen Settings, wo auch Davinci Wide Gamut mit eingestellt ist.
Die Einschränkung auf P3 erfolgt nur wegen der Displays, mehr können die nicht darstellen.
Testbericht zu diesem Gerät:
Nach dem Testbericht zu diesem Monitor auf Tomshardware reift in mir der Entschluss, sich doch eventuell diesen eher teuren Monitor zuzulegen. Was die technischen Fähigkeiten angeht, die tadellos vorhandenen und klar definierten Gammakurven und Farbräume - und die super Werkskalibrierung zusammen mit der Fähigkeit, das Gerät auch nach zu kalibrieren - all dass macht das Gerät für den professionelleren Videoschnitt attraktiv. Klar, billig ist der natürlich nicht.
Dass er bis zu 1600 nits stabil kann (gemessene 1700) ist toll - denn damit hat man problemlos die Reserven das zu sehen, was man beim Graden sehen muss. Technisch sicherlich sehr gut.
ich habe dein obiges Posting nicht gesehen bevor ich dir im anderen Thread einen Vorschlag gemacht habe.
Gruß Jürgen
Das ist ja völlig ok. Bei einer neuerlichen Ausgabe in einer nicht unbeträchtlichen Größenordnung denkt man natürlich schon entsprechend nach.
Der Laptop hat ja einen (Consumer?)HDR-OLED-Schirm dabei. Kalibierbar etc. Mit Vegas super ansprechbar. Mit Resolve leider gar nicht.
Beim Schnitt aus Resolve heraus hänge ich mir einen großen (ungeichten) OLED TV an die HDMI Schnittstelle des Laptops. Selbst mit dem kleinen Tangent Ripple ist in dieser Kombination ein unglaublich gutes Graden möglich. Auf den großen OLED sieht man feine Nuancen einfach gut. Einziges Problem: ist es richtig, was man da sieht?
Einziges Problem: ist es richtig, was man da sieht?
Alexis Van Hurkman schreibt in seinem Buch "Color Correction":
"Es gibt keinen einheitlichen Ansatz für die Bewertung von HDR, und es gibt keine festen Regeln für die Zuordnung verschiedener Lichter zu verschiedenen Ebenen, genauso wie es keine Regeln für die Auswahl der Werte gibt, bei denen verschiedene Schattenebenen angezeigt werden sollen. Die Bewertung von HDR ist eine Frage der kreativen Entscheidungsfindung, die für jeden, der die Kontrolle über narrative Bilder ausübt, unglaublich spannend ist. Das heißt nicht, dass es keine technologischen Einschränkungen gibt, die es zu beachten gilt, wie viel Prozent des Bildes auf HDR-Hervorhebungsstufen eingestuft und auf Verbraucherdisplays genau wiedergegeben werden können."
Ja, nur hast du dann Van Hurkman nicht verstanden oder nicht verstehen wollen, wenn du das an dieser Stelle bringst. Hier geht es nämlich nicht um die kreative Entscheidung, wie ein Colorist das Bild gestaltet. Es geht nicht darum, wie ein Künstler sein Bild farblich/helligkeitsmässig gestaltet. Es geht nur um die Basistechnik, die gewährleisten soll, hier dass man (technisch) mal das Bild so abbildet, wie es die Kamera vor Ort (also scene mässig) gesehen hat. Und von dort aus startet erst der kreative Akt.
Macht man das nämlich nicht, dann geht man für den angesprochenen kreativen Akt von einer falschen Basis aus. Nämlich von der, die „zufällig“ das verwendete ungeeichte Sichtgerät anbietet.
Wer das Buch von Van Hurkman gelesen und verstanden hat, weiß dass der das sehr wohl unterscheidet. Nur sind halt kalibrierbare und hochwertige Monitore unverändert sehr teuer. Da ignorieren dann viele lieber diese Dinge.
Na ja, wie es Alister Chapman aktuell (Juni 2022) im Auftrag von Sony vorgeschlagen hat, habe ich
in diesem Forum auch schon vorgestellt, das deckt sich mit der Aussage von Hurkman.
Die TV-Anstalten haben Spezifikationen welche Anforderungen z.B. bei HDR-Zulieferungen
beachtet werden müsse. Vielleicht wäre das eine "Richtschnur" für Dich.
Die TV-Anstalten haben Spezifikationen welche Anforderungen z.B. bei HDR-Zulieferungen
beachtet werden müsse. Vielleicht wäre das eine "Richtschnur" für Dich.
Kennst Du vielleicht einen TV Anstalt die schon in HDR sendet? Ausser Amazon und Netflix.
Es gab einen Testsender auf dem Astra-Satellit, habe mir dort einige HDR-Testsendungen
angesehen, ob es das aktuell noch gibt weiß ich nicht...
Beispiel für eine Sender-Richtlinie: