8-Bit-Kamerafiles in der Postproduktion

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Ich weiß nicht wie es die anderen GH5-User machen, aber ich habe die GH5 um in 10 Bit zu filmen.

      Gerade bei den Log-Profilen bin ich sicher noch am Anfang der Lernkurve, aber das Potenzial ist sehr vielversprechend.

      Im sonnigen Süden mit den harten Kontrasten, ist V-Log und 10 Bit ein echter Segen. Schön durchgezeichnete Schatten und keine ausgefressenen Lichter. Ein wirklich natürliches Bild.

      Weil die GH5 deutlich schwerer ist, habe ich vor Kurzem meine G81 mal wieder eingesetzt. Notgedrungen mit 8-Bit und Cinema-D. Nach Sichtung des Materials, könnte das der letzte Einsatz der G81 gewesen sein. Ich werde sie nur noch als Zweitkamera einsetzten.
      Zumindest ich habe mich sehr an das natürliche Bild der GH5 (in 10 Bit, V-Log) gewöhnt. Es ist sichtbar besser. Dazu braucht es kein exotisches Grading.
      schöne Grüße

      Christian


      Beiträge als Mod in Grün
    • Sehr schön erklärt Peter.
      Damit ist meineserachtens geklärt, was für uns Hobbyanwender und was für Spielfilmproduzenten praktikabel ist.
      Dirk
    • Hi,

      m.E. sollte man hier doch 2 Dinge unterscheiden. Das eine ist die Aufnahme und Bearbeitung, das andere die Verbreitung (Wieder-/Weitergabe).

      Um so "besseres" Quell-Material mit möglichst hoher "Bandbreite" bearbeitet werden kann, um so geringer sind die Qualitätsverlußte. Welche "Qualität" dann letztlich für die Wiedergabe notwendig ist, bzw. verwendet wird, steht dann erstmal auf einem ganz anderen Blatt.
      Ich verweise da mal auf die Musikproduktion. Die Aufnahmen und das Mastering erfolgen in einer sehr hohen Qualität (32 - oder sogar 64 - bit Float). Auf der CD landen aber nur (die notwendigen) 16 bit.

      Abgesehen davon, dass die TV-Sender ihre Technik erst vor (investitorisch gesehen) kurzer Zeit auf HDTV umgestellt haben, wird TV ja durchaus auch noch terrestrisch übertragen. Da spielt die Datenmenge eine große Rolle.

      Gruß
      Peter
    • Hans-Jürgen schrieb:

      Ja, genau so wie auch bei jedem Grading künstlich generierte Farben (Daten) entstehen.
      Oder sind bei dir und deinem 10bit Material etwa alle Farbabstufungen, die es nach dem Graden gibt, auch schon im Ausgangsmaterial vorhanden?
      Dann wäre deine Kamera ja eine Zaubermaschine.
      Nein, ABER ich schieße in die Lücken zwischen den 8bit-255 Werten völlig neue RGB-Werte hinein, die es so eben gar nicht im O-Material gab. Ich schaffe eben in diesen Lücken völlig neue Farben. Im Gegensatz zu den 255 Werten wo schon Informationen liegen - und damit keine neue Farbe entstehen sondern sich nur die Intensität verändert.

      DAS ist ein Unterschied der problematisch sein kann - denn was das bedeutet kann man nur von Fall zu Fall sagen.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Dirk-1 schrieb:

      Die Gefahr Banding zu erzeugen ist bei 4K Material in der Praxis des Reisefilmers recht gering - kommt bei mir praktisch nicht mehr vor (bei 2K Material war es echt ein Problem!)
      Also ich sehe diese Gefahr sehr wohl. Nimm einen hübschen Sonnenuntergang. Kannst ja sehr wohl in UHD filmen - aber dann gibt's final (etwa für die Weitergabe) in HD aus. Und dann erlebst erst recht dort das Banding.


      Dirk-1 schrieb:

      ch sehe bei Einsatz von S-Log oder sonstigem HDR material eine viel größere Gefahr: Die Bilder werden gerne zu bunt und zu dunkel und verlieren ihre Natürlichkeit.
      HDR ist grundsätzlich weder zu bunt oder zu dunkel - und das Gegenteil ist wahr: mit dem massiv erweiterten Farb- und Helligkeitsraum auf einem passenden rec2020 Schirm liefert es deutlich natürlicheres Material. Aber es muss dazu natürlich korrekt verarbeitet werden.

      ro_max schrieb:

      Mein Vermutung ist, dass auch da das Gesetz vom abnehmenden Grenznutzen greift und der praktische bzw. tatsächlich im Endprodukt sichtbare Vorteil von 10 Bit gegenüber 8 deutlich größer ist, als der von 12 Bit gegenüber 10, auch wenn die Zahl der (theoretischen) Abstufungen sich natürlich durch die zusätzlichen Bits potenziert.
      Natürlich gibt es den Grenznutzen. Aber das Bessere ist hier eben der Feind des Guten. Könnte ich es mir leisten wären es bei mir eben 16bit komprimiertes raw.

      PeterC schrieb:

      Im Hobbybereich wird das gemacht, was auch in dem Artikel für 8-Bit Material empfohlen wird:
      Bereits im Endgamma aufgezeichnet und das Reinquetschen der existierenden Dynamik in das Endgamma der Kamera mittels derer Profile überlassen.
      Schön wärs ja - siehe diese Diskussion und die Beispiele hier: Da wird bunt mit 8bit log und Consumergeräten gearbeitet - und eben nicht gleich im Endgamma und Endgammut aufgezeichnet.

      PeterC schrieb:

      Der Hobbyanwender begnügt sich in der NLE dann mit einem bisschen Helligkeits- und Farbkorrektur und klatscht zum Schluss vielleicht einen vorgefertigten "Look" aus irgendeinem Plugin oder LUT drüber. Mit wirklichem Grading hat das aber Null-komma-null zu tun.
      Sicher oft, aber nicht immer. Eine Umrechnung von einer log-Aufzeichnung zu rec709 ist vom Umfang der Veränderung des Materials bereits sehr wohl im Grading anzusiedeln.

      PeterC schrieb:


      Daher profitiert der Hobbyanwender nur marginal von 10, 12 oder 16 Bit in der Aufzeichnung.
      Sein Endergebnis wird ohnehin in 8 Bit ausgespielt und die magere Zwischenbearbeitung in Farbe und Helligkeit, die er macht, sprengen die Bildqualität nicht wirklich.
      Also dass HDR längst 10bit erwartet, dort als 10bit 420 als HEVC zu encodieren, ist aber auch klar. Und gerade mit den eher absurden Geräten, die Sony als 8bit HDR einführt, ist das längst in die Hobbyanwendungen hinein gewandert.

      Comte schrieb:

      Ich weiß nicht wie es die anderen GH5-User machen, aber ich habe die GH5 um in 10 Bit zu filmen.

      Gerade bei den Log-Profilen bin ich sicher noch am Anfang der Lernkurve, aber das Potenzial ist sehr vielversprechend.

      Im sonnigen Süden mit den harten Kontrasten, ist V-Log und 10 Bit ein echter Segen. Schön durchgezeichnete Schatten und keine ausgefressenen Lichter. Ein wirklich natürliches Bild.
      Also für mich war schon der Kauf einer GH4 + Shogun 1 ein sehr bewusster, um eben damit den Einstieg zu 10bit zu machen. Und natürlich gibt es da eine persönliche Lernkurve - und du hast recht: das Potential ist schon sehr toll und liefert ein sehr natürliches Bild.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • wolfgang schrieb:

      Kannst ja sehr wohl in UHD filmen - aber dann gibt's final (etwa für die Weitergabe) in HD aus. Und dann erlebst erst recht dort das Banding.
      Nun gebe ich eben in 4K aus, und da ist es ok!

      wolfgang schrieb:

      HDR ist grundsätzlich weder zu bunt oder zu dunkel - und das Gegenteil ist wahr: mit dem massiv erweiterten Farb- und Helligkeitsraum auf einem passenden rec2020 Schirm liefert es deutlich natürlicheres Material. Aber es muss dazu natürlich korrekt verarbeitet werden.
      Es verführt eben - und dieser Verführung unterliegen recht viele. Ich will mich da übrigens gar nicht ausschlieessen, weiß aber mittlerweile um die Gefahr.
      Dirk
    • wolfgang schrieb:

      mit dem massiv erweiterten Farb- und Helligkeitsraum auf einem passenden rec2020 Schirm liefert es deutlich natürlicheres Material.
      Das sehe ich nicht so, natürliches Material sehe ich nur in der Natur und das was man auf dem Display sieht ist nur unzureichend objektivierbar.
      +++++++ www.hennek-homepage.de/video.htm +++++++
      Pana. FZ-300 - ThiEYE T5 EDGE - Sony RX-100 - Edius
    • Achilles schrieb:

      wolfgang schrieb:

      mit dem massiv erweiterten Farb- und Helligkeitsraum auf einem passenden rec2020 Schirm liefert es deutlich natürlicheres Material.
      Das sehe ich nicht so, natürliches Material sehe ich nur in der Natur und das was man auf dem Display sieht ist nur unzureichend objektivierbar.
      Mit dem Unterschied zwischen "natürlich" und "natürlicher" lässt sichs trefflich streiten.
      // Da ich ziemlich sicher missverstanden werde: "Natürlich" ist das Ziel. "Natürlicher" (als frühere Versionen ...) liegt näher am Ziel (als die Vorgänger).
    • Ja aber bei 10bit Material basierend auf überall befüllten Datenslots, und nicht auf 3/4 leeren Datenslots wenn ich 8bit in 10bit Einstellungen grade! Offenbar kannst oder willst den Unterschied nicht verstehen.

      Zur Natürlichkeit: also ein rec709 Bild mit eingeschränktem Blendenumfang von 7 Blenden wirkt bei viel Dynamik im Bild eben nicht mehr natürlich. Auch wenn wir gelernt haben damit umzugehen. Und ein größerer Gamut bildet eben grundsätzlich mehr der vorhandenen Farben ab als der eher kleine rec709 Farbraum. Das hat aber nichts damit zu tun, wenn jemand Material am Schnittplatz falsch graded, Farbräume vermischt, vielleicht HDR mit rec2020 mit einem rec709 Monitor sichtet. DAS sind meist die Fehler die dazu führen, dass immer wieder Leuten meinen dass HDR unnatürlich bunt wird.

      Dazu kommt die Unsicherheit was die Kamera eigentlich aufnimmt. Slog ist ja nett bei den kleinen Geräten, aber die dürften oft noch im rev709 Gamut und nicht im s-Gamut aufzeichnen? Alleine diese Unsicherheit kann ein Problem sein und unnatürlich wirkende Farben ergeben.

      Hängt man aber bei Material einer Kamera wo man genau weiß was die aufzeichnet einen tatsächlich HDR fähigen Kontrollmonitor an den Schnittplatz der auf das Material stimmig einstellbare Farbräume und Gammakurven hat, dann hat man das Problem mit einiger Erfahrung nicht. Und dann ist das Ergebnis auf einem guten HDR TV sehr natürlich und besser einfach nur gut.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • wolfgang schrieb:

      Ja aber bei 10bit Material basierend auf überall befüllten Datenslots, und nicht auf 3/4 leeren Datenslots wenn ich 8bit in 10bit Einstellungen grade!
      Ich habe nicht davon gesprochen das 8bit Material in einer 10bit Umgebung zu graden, sondern das Material von 8bit in 10bit zu wandeln und dann zu graden.
      Du gehst also davon aus, dass dieses gewandelte 10bit Material dann jede Menge unbefüllte Datenslots (wie du es nennst) enthält?
      Gruß

      Hans-Jürgen
    • Achilles schrieb:

      natürliches Material sehe ich nur in der Natur
      Film war schon immer Illusion. Daher ist ein natürlicher Bildeindruck meist gar nicht das Ziel.

      wolfgang schrieb:

      DAS sind meist die Fehler die dazu führen, dass immer wieder Leuten meinen dass HDR unnatürlich bunt wir
      Du brauchst nur mal auf Youtube gucken, dann wirst Du haufenweise sehr bunte HDR videos sehen, ganz besonders aus asiatischen
      Quellen. Zu glauben, dass die alle zu dumm für HDR sind, ist unrealistisch. Die wollen das so! Im übrigen werden die Videos heute überwiegend auf Smartphones angesehen, da möchten viele auch eine eher spektakuläre als natürliche Darstellung haben.
      Dirk
    • Hans-Jürgen schrieb:

      Ich habe nicht davon gesprochen das 8bit Material in einer 10bit Umgebung zu graden, sondern das Material von 8bit in 10bit zu wandeln und dann zu graden.
      Du gehst also davon aus, dass dieses gewandelte 10bit Material dann jede Menge unbefüllte Datenslots (wie du es nennst) enthält?

      Ich sagte bereits dass du die Botschaft nicht verstehst. Damit ist diese Diskussion recht sinnlos.

      Dirk-1 schrieb:

      Du brauchst nur mal auf Youtube gucken, dann wirst Du haufenweise sehr bunte HDR videos sehen, ganz besonders aus asiatischen
      Quellen. Zu glauben, dass die alle zu dumm für HDR sind, ist unrealistisch. Die wollen das so! Im übrigen werden die Videos heute überwiegend auf Smartphones angesehen, da möchten viele auch eine eher spektakuläre als natürliche Darstellung haben.

      Youtube ist und bleibt hier ein Sonderproblem. Das fängt nämlich damit an, mit welchem Sichtgerät man bei Youtube so ein Video abruft - denn YouTube prüft vor dem Abspielen ob dieses Gerät HDR fähig ist oder nicht. Und übermittelt dann eine HDR oder SDR Version. Soweit die Theorie - allerdings ist sehr viel Material auf YouTube zwar im beschreibenden Text als HDR ausgewiesen, aber in der Praxis selbst mit HDR-Equipment nur SDR. Da gibt es heute noch viel zu viel Schrott.

      Und davon, dass irgendwer zu dumm ist, habe ich sicherlich nicht gesprochen. Sondern vielmehr dass den meisten Leuten das erforderliche Equipment zum Graden von HDR heute schlichte und ergreifen noch immer fehlt. Und auch die Erfahrung damit. Nur ohne derartige Kontrollmonitore kannst weder Luminanz und schon gar nicht die Farbräume richtig einstellen, selbst mit einem HDR-TV am Schnittplatz ist das Risiko eines Blindflugs groß weil eher wenige Geräte exakt einstellbar sind (PQ versus HLG etwa). Denn einen HDR-TV haben ja schon einige fürs Wohnzimmer - aber man braucht halt am Schnittplatz für den HDR-Schnitt sehr wohl den passenden HDR-fähigen Kontrollmonitor mit voller manueller Steuerbarkeit. Denn aber erste sehr wenige haben....

      Und sorry, aber wenn einer was bewusst falsch einstellt dann möge er das tun. Nur ist DAS ist dann weder sonderlich sinnvoll, über Schrott darf dann keiner Klagen, und schon gar nicht ist das in einer Diskussion dann einer neuen Technologie wie HDR vorwerfbar.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • wolfgang schrieb:

      Ich sagte bereits dass du die Botschaft nicht verstehst. Damit ist diese Diskussion recht sinnlos.

      Jetzt tu mal nicht so arrogant und erkläre bitte mal, wie es richtig ist.

      Ich habe gelernt, dass, wenn man eine wirklich homogene Farbflächen in 8bit hat und diese dann zu 10bit wandelt, dann hat man wiederum eine genau so homogene Fläche in denen jedes der von dir so benannten Datenslots die gleiche Information enthält.
      Du gehst davon aus, dass aber ein Großteil dieser Datenslots dann mit Nullen aufgefüllt wird.
      Kann ja durchaus sein,m dass du recht hast und ich etwas falsches beigebracht bekommen habe, daher nun auch die Frage, hast du Links, wo das untermauert wird?
      Aber jetzt bitte nicht wieder irgendwelche Links aus denen man vieles herauslesen kann, sondern wenn schon Links, dann genau zu diesem Punkt.

      Ich befürchte aber nun kommt wieder der Hinweis, dass du nicht verpflichtet bist mir irgend etwas Beweisen zu müssen, wie es schon häufiger mal zu vernehmen war.
      Dem ist natürlich so, aber im Sinne einer sachlichen Diskussion ist es schon sinnvoll, korrekt benannte Fakten auszutauschen.

      Solltest du aber weiterhin versuchen mit mit überheblichen Sprüchen abzuwatschen, dann können wir es wirklich besser sein lassen.
      Gruß

      Hans-Jürgen
    • Vor 32 Jahren hatte ich einen Sinclair QL Homecomputer,
      die Grafikauflösung war: 256×256 in 8 Farben und 512×256 in 4 Farben

      Ich war damals sehr zufrieden damit. 8)
      +++++++ www.hennek-homepage.de/video.htm +++++++
      Pana. FZ-300 - ThiEYE T5 EDGE - Sony RX-100 - Edius
    • Hans-Jürgen schrieb:

      wolfgang schrieb:

      Ich sagte bereits dass du die Botschaft nicht verstehst. Damit ist diese Diskussion recht sinnlos.
      Jetzt tu mal nicht so arrogant und erkläre bitte mal, wie es richtig ist.
      Ich habe gelernt, dass, wenn man eine wirklich homogene Farbflächen in 8bit hat und diese dann zu 10bit wandelt, dann hat man wiederum eine genau so homogene Fläche in denen jedes der von dir so benannten Datenslots die gleiche Information enthält.
      Du gehst davon aus, dass aber ein Großteil dieser Datenslots dann mit Nullen aufgefüllt wird.
      Kann ja durchaus sein,m dass du recht hast und ich etwas falsches beigebracht bekommen habe, daher nun auch die Frage, hast du Links, wo das untermauert wird?
      Aber jetzt bitte nicht wieder irgendwelche Links aus denen man vieles herauslesen kann, sondern wenn schon Links, dann genau zu diesem Punkt.
      Ich befürchte aber nun kommt wieder der Hinweis, dass du nicht verpflichtet bist mir irgend etwas Beweisen zu müssen, wie es schon häufiger mal zu vernehmen war.
      Dem ist natürlich so, aber im Sinne einer sachlichen Diskussion ist es schon sinnvoll, korrekt benannte Fakten auszutauschen.
      Solltest du aber weiterhin versuchen mit mit überheblichen Sprüchen abzuwatschen, dann können wir es wirklich besser sein lassen.
      Hallo:
      Da ich diese Frage interessant finde, habe ich mir - sagen wir es so - ein nachvollziehbares Beispiel überlegt:

      1. Ich betrachte ein 8bit-RGB-Pixel der Farbe "mittleres Blau" (um beim Himmel zu bleiben, der uns gnädig sei); die beiden anderen Farbkanäle seien Null:
      2. Im 8bit-Raum wird dies (binär, im Blaukanal) durch den Wert 127 dargestellt.
      3. Ein 8bit-RGB-Pixel der Farbe "ein Hauch weniger als mittleres Blau" wäre durch den Wert 126 darstellbar.
      4. Im 8bit-Raum ist die numerische Differenz zwischen den beiden Blautönen (in diesem Beispiel!!) dann genau 1 (entspricht 1 bit).
      5. Ein "Grading" zwischen 2. und 3. ist im 8bit-Raum (für dieses Beispiel) nicht möglich (es kann ja etwa ein halbes Bit nicht dargestellt werden).

      6. Jetzt betrachte ich ein 8bit-RGB-Pixel der Farbe "mittleres Blau", das in den 10bit-Raum transformiert wurde:
      7. Im 10bit-Raum wird dies (binär, im Blaukanal) durch den Wert 508 (= 127 x 4) dargestellt.
      8. Ein 8bit-RGB-Pixel der Farbe "ein Hauch weniger als mittleres Blau" aus 3. würde im 10bit-Raum durch den Wert 504 (= 126 x 4) dargestellt.
      9. Im 10bit-Raum ist die numerische Differenz zwischen den beiden Blautönen dann 4 (entspricht 2 bit).
      10. Ein "Grading" zwischen 7. und 8. findet im 10bit-Raum daher 4 Möglichkeiten vor, blaue Zwischentöne zu generieren. // Bei diesen generierten, also berechneten Zwischentönen, handelt es sich um blaue Farbtöne, die mit der Kamera nicht aufgenommen wurden.

      11. Da die RGB-Farbe eines Pixels durch drei Kanäle dargestellt wird, hat das "Grading" im 8bit-Raum i.a. 3 bit zur Verfügung (numerisch also: 2 hoch 3 = 8 Möglichkeiten).
      12. Im 10bit-Raum hat das "Grading" i.a. 6 bit ( wegen 9. je Farbkanal 2 bit) zur Verfügung (numerisch also: 2 hoch 6 = 64 Möglichkeiten).

      // Wegen 4., 9., 11. und 12. kann im 10bit-Raum etwa ein Banding entsprechend besser "gegradet" werden.
      Gruß kurt
    • Wir als EDIUS-User können jeder Zeit das aufgenommene 8bit-Videomaterial in 10bit graden und schneiden,
      dafür haben wir ja den Grass Valley HQX Codec an Bord.
      +++++++ www.hennek-homepage.de/video.htm +++++++
      Pana. FZ-300 - ThiEYE T5 EDGE - Sony RX-100 - Edius
    • Ist nicht die Rechentiefe der Schnittsoftware sowieso immer höher und nur die Ausgabe wird auf 8Bit (oder was eben eingestellt ist) gerundet? Noch in der DV-Zeit schnitt ich mit Mediastudio-Pro und manche Korrekturen rissen völlig aus. Nach dem Umstieg auf Premiere in der damaligen Version war das Ergebnis bei denselben Dateien viel besser.
      vg Ian