8-Bit-Kamerafiles in der Postproduktion

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Uwe Agnes schrieb:

      Ich glaube, dass praktisch alle günstigen Kameras, die in das Profi-Segment stoßen, ob das jetzt eine Canon C100 oder eine DSLR wie die Sony α ist, die Möglichkeit haben, über HDMI oder SDI auf einen externen Recorder ein 10-bit-Signal aufzunehmen.
      Schon interessant dass sich solch falschen Punkte auch immer wieder in solchen Artikeln finden, wo genug Zeit für die Recherge wäre. Denn weder die C100 noch die genannte Sony gibt über einen der Ausgänge tatsächlich 10bit aus.

      Also zeichnet man ein 8bit Signal mit einem 10bit Codec auf - hier ProRes. Was ein bißchen was für Zwischenberechnungen bringt, aber da von echtem 10bit zu reden ist schon sehr irreführend.

      Auch wenn sich trotzdem dort relevante und richtige Schlussfolgerungen finden - so weh die manch einem tun werden:

      Uwe Agnes schrieb:

      Aber 8 bit ist für ein Bild, das eine Nachbearbeitung erfahren soll, im professionellen Bereich in meinen Augen schlicht ungeeignet. Davon sollte man möglichst die Finger lassen.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Ja, im professionellen Bereich sind sicherlich (echte) 10 Bit angesagt, aber da die meisten hier doch eher als Hobbyisten/Amateure unterwegs sind, ist vermutlich hier im VT 8 Bit noch weitgehend Stand der Dinge.

      Und selbst wenn die eigene Kamera das möglich macht, werden vermutlich nur wenige bereits sein, den Aufwand einer externen 10-Bit-Aufzeichnung in Kauf zu nehmen, insbesondere wenn die (aufnahmefertige) Kamera dann möglichst auch noch in eine Jackentasche passen soll...

      Für mich sehe ich die ganze 8/10 Bit-Geschichte jedenfalls ziemlich gelassen. Da ich seit geraumer Zeit weder Aufnahmemotive für 8 noch 10 Bit habe, kann ich seelenruhig abwarten, bis 10 Bit auch im Konsumerbereich (<1.500 Euro) verstärkt einzieht.
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ------------ Meine CGI-Tests auf Vimeo und YouTube. -------------
    • Auch bei meiner PXW-X70 wurde in einer Fachzeitschrift geschrieben, dass man über SDI ein 10 bit Signal in 4K ausgeben kann. Das stimmt aber nicht.
      Gruss Otmar
    • ro_max schrieb:

      Und selbst wenn die eigene Kamera das möglich macht, werden vermutlich nur wenige bereits sein, den Aufwand einer externen 10-Bit-Aufzeichnung in Kauf zu nehmen, insbesondere wenn die (aufnahmefertige) Kamera dann möglichst auch noch in eine Jackentasche passen soll...
      Spätestens mit einer GH5 erfolgt die 10bit Aufzeichnung längst intern - was schon recht gut ist. Auch wenn es "nur" H.264 intern ist. Aber der Codec einer EVA1 ist derart gut dass sich die externen Rekorder für viele Anwendungen wirklich vermeiden lassen.

      Und der andere Zug geht nach raw mit interner Aufzeichnung - obs eine C200 ist, obs eine Blackmagic Pocket 4K sein wird.

      Aber natürlich bleiben viele trotzdem bei 8bit. Was ja ok ist. Warum auch nicht?
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Leider habe ich den Eindruck, dass der Autor es wegen der Fernsehtauglichkeit wohl mit 2K Material zu tun hat. die von ihm genannten starken Bandingfehler treten bei 4K nur noch sehr selten und wenn in stark abgemilderter Form auf. Sicher kann man nicht damit professionellen Ansprüchen für einen Spielfilm genügen - da wird sowieso mit ganz anderen Kameras gearbeitet - aber bei unseren
      4k-Videos im Hobbybereich wird das keine Rolle spielen - da sind die Zuschauer in der Regel deutlch schlechteres von ihren fernsehbildern gewohnt. Ich habe letzte Woche ein Reisevideo von mir einigern professionellen Filmemacher mit der Aufforderung zur Kritik zeigen können. Da gab es einige inhaltliche Punkte, aber die Bildqualität wurde sogar in vieln Szenen als Spielfilmreif gelobt. Das Video war überwiegend in S-Log3 gedreht und Sony catalyst capzure und Vegas bearbeitet.
      Dirk
    • Dirk-1 schrieb:

      Das Video war überwiegend in S-Log3 gedreht
      Na gut, das ist jetzt auch nicht so das klassische 8-Bit-Material. :pfeifen:

      wolfgang schrieb:

      Spätestens mit einer GH5 erfolgt die 10bit Aufzeichnung längst intern - was schon recht gut ist.
      Ja, nur dass eine GH5 (mit entsprechender Optik) nicht mehr in den von mir genannten Preisbereich von <1.500 Euro passt und eine EVA1 erst recht nicht. ;) Dass es keine Geräte mit interner 10-Bit-Aufzeichnung gäbe, habe ich ja nicht behauptet.
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ------------ Meine CGI-Tests auf Vimeo und YouTube. -------------
    • Der Profi-Colorist bekommt wohl meist schlecht belichtetes 8bit-Material,
      das kann er dann halt nicht bewältigen.

      Ich habe aus meinem HD 8bit Material seit 2006 eigentlich immer was
      ansehnliches hinbekommen. Fast immer sind in meinem Vorfühkreis
      hier die Leute immer zufrieden gewesen. Ich selbst auch.

      Ich gerate nach so einem Fachbeitrag in einer angesehenen Zeitung
      nicht unbedingt in Panik nur weil da ein Profi-Colorist jammert..
      Beste Grüsse;
      FZ-300RX100ThiEYET5EDGEXperiaZ2eGimbalEDIUS 9.xMedionErazeri76700UHDaufFHD
    • Gerade log Material würde ich wegen des hohen Umrechnungsaufwandes nicht in 8bit bearbeiten wollen. Da dann doch lieber gleich rec709 Profile - denn es bleiben bei log einfach zu wenig Werte pro Blendenstufen über.

      Und klar ist eine GH5 der mögliche Einstieg in 10bit, und das relativ preiswert. Was das noch vor einigen Jahren gekostet hat ist ja auch bekannt. Muss aber auch nicht sein, das kann ja jeder selbst entscheiden - sind ja auch die eigenen Aufnahmen! ;)
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • ro_max schrieb:

      Na gut, das ist jetzt auch nicht so das klassische 8-Bit-Material.

      Den Satz verstehe ich jetzt nicht - 8bit sind 8bit, oder liege ich da falsch?

      Ich sehe das aber ähnlich wie Dirk.
      Zudem habe ich selber schon für Dokumentationen selbst Material von Canon DSLR´s (also HD) zu Fernsehsendern geschickt und das wurde auch genommen (sollte es ja wohl auch, da es angefordert wurde).
      Es gibt so nebenbei reichlich Dokumentationen im TV, die mit DSLR´s in HD gedreht wurde ohne 10bit.
      Wenn es bei mir richtig gut werden soll, dann wandle ich eben mein flaches 8bit Material vor der Bearbeitung in 10bit lossless um, dann stehen beim Graden wieder alles feinen Farbabstufungen zur Verfügung (auch wenn das hier immer noch einige bestreiten). Natürlich nicht in dem Ausgangsmaterial, aber im fertigen Video.
      Dadurch kann man einiges verbessern.

      Das alles soll jetzt aber nicht heißen, dass ich mir nicht auch eine 10bit Kamera kaufen würde, falls es eine gibt, die mir zusagen würde. Die vielleicht kommende Sony A6700 wäre so eine.
      Gruß

      Hans-Jürgen
    • Hans-Jürgen schrieb:

      Den Satz verstehe ich jetzt nicht - 8bit sind 8bit, oder liege ich da falsch?
      Ich meinte damit, dass Log-Profile ja mehr Dynamik in die 8-Bit quetschen (ähnlich wie HLG) und damit quasi zwingend ein Grading erfordern. Im Gegensatz zu "normalem" 8-Bit-Material, was mehr oder weniger direkt aus der Kamera verwendet wird. Bei meinem (Nicht-Log-Material) habe ich immer nur wenig CC eingesetzt und hatte dann auch keine großartigen Banding-Probleme durch das "Grading". Allerdings war teilweise schon Banding im OOC-Material enthalten (insbesondere bei Handyaufnahmen).

      Bestünde bei mir Bedarf an einer Qualität, die über 8-Bit hinaus geht und wäre ich bereit, das entsprechende Kleingeld dafür hin zu legen, so würde ich allerdings lieber gleich auf 12 Bit/RAW gehen und die 10-Bit-Zwischenstufe auslassen. Aus meiner Sicht ist 10-Bit eher als Weiterentwicklung im Consumer-Bereich interessant und weniger als "Profiformat" für umfangreiches Grading, so man ein solches anstrebt. Aber mangels Motiven ist diese Überlegung, wie erwähnt, für mich derzeit ohnehin nur von akademischem Interesse.
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ------------ Meine CGI-Tests auf Vimeo und YouTube. -------------
    • wolfgang schrieb:

      Und klar ist eine GH5 der mögliche Einstieg in 10bit, und das relativ preiswert.
      Bisher habe ich hier von den GH-5 Besitzern noch keine Beiträge über den Fortschritt von 10bit gegenüber 8bit gelesen. Es wäre für mich interessant, entweder die Ergebnisse von Versuchen mit direkten Vergleichen von 8bit zu 10bit zu sehen oder zu mindest die Erfehrung aus der Praxis zu hören.
      Dirk
    • Dirk-1 schrieb:

      Bisher habe ich hier von den GH-5 Besitzern noch keine Beiträge über den Fortschritt von 10bit gegenüber 8bit gelesen.

      Ich ehrlich gesagt auch noch nicht.
      Im Gegenteil, die GH5 User die ich kenne (sind aber nicht viele) sind nach einer Testphase zu 8bit zurückgekehrt.

      ro_max schrieb:

      Aus meiner Sicht ist 10-Bit eher als Weiterentwicklung im Consumer-Bereich interessant und weniger als "Profiformat" ...

      Dagegen spricht aber die Forderung der TV Gesellschaften nach 10bit. Wenn die nicht professionell arbeiten, wer denn dann?
      Gruß

      Hans-Jürgen
    • Hans-Jürgen schrieb:

      Wenn es bei mir richtig gut werden soll, dann wandle ich eben mein flaches 8bit Material vor der Bearbeitung in 10bit lossless um, dann stehen beim Graden wieder alles feinen Farbabstufungen zur Verfügung (auch wenn das hier immer noch einige bestreiten). Natürlich nicht in dem Ausgangsmaterial, aber im fertigen Video.
      Die sogenannten Farbabstufungen sind dann künstliche generierte Daten, in deren Datenslots sich in bis zu 3/4 der Fälle keine Daten von der Aufnahme befinden. Natürlich generiert das eine feinere Abstufung und mit Glück kann etwa Banding schwächer sein. Aber das ist ein künstlicher Effekt den man auch als kritische Verfälschung ansehen kann. Einfach, weil man in diesen Zwischenstufen gar keine Bildinformationen von der Originalaufnahme mehr hat und damit eben irgendetwas erzeugt.

      ro_max schrieb:

      Ich meinte damit, dass Log-Profile ja mehr Dynamik in die 8-Bit quetschen (ähnlich wie HLG) und damit quasi zwingend ein Grading erfordern.
      Na klar ist es der Sinn und Zweck von log, mehr Dynamik = mehr Blendenstufen in das Datenmaterial zu quetschen. Nur hat man in jeder Aufnahme eben auch kritische Bereiche - etwa die Mitteltöner bei Hautaufnahmen. Und diese Bereiche dünnt man bei der Verwendung von 8bit und log geradezu dramatisch aus. Bedeutet, dass man für Anpassungen und Grading eben in kritischen Bildbereichen massiv weniger Daten zur Verfügung hat als wenn man gleich in 8bit mit rec709 Profilen gefilmt hätte. DAS kann dann das Bild beträchtlich schädigen.

      Log ist kein Wunder- oder Allheilmittel. Es ist eine technische Übertragungsfunktion die - wie jedes Stück Technik -Vor- und Nachteile hat. Und damit sollte man nicht vergessen dass der Einsatz dieser Technik eben für den gewählten Zweck passen sollte, sonst versaut man sich das Material.

      Bestes Beispiel ist die Verwendung von log im Lowlight-Bereich - wenn man Pech hat hat man dann alle Luminanzwerte auf so wenigen Luminanzstufen dass das Material einfach nicht mehr rettbar ist. Was eben bei der Verwendung von rec709 Profilen nicht der Fall sein muss.

      ro_max schrieb:

      Bestünde bei mir Bedarf an einer Qualität, die über 8-Bit hinaus geht und wäre ich bereit, das entsprechende Kleingeld dafür hin zu legen, so würde ich allerdings lieber gleich auf 12 Bit/RAW gehen und die 10-Bit-Zwischenstufe auslassen.
      Ob professionell oder privat genutzt ist eine ganz andere Sache. Sachlich gibt es hier keine Regel außer dass "mehr" immer "besser" ist. Also warum mit 8bit filmen wenn man 10bit kann? Warum mit 10bit filmen wenn man 12bit könnte? Warum aber mit 12bit filmen wenn man auch 16bit könnte?

      Aber da bekanntlich nichts im Leben umsonst ist, steigt auch der technische Aufwand und damit die Kosten der Systeme. Ich würde ja auch gerne mit einer Sony Venice filmen, die kann 16bit und bietet ein fantastisch gradbares Material an. Leider kostet da alleine das Gehäuse dann um die 40.000 Euro. Will und kann ich mir nicht leisten - aber andere können das eben.

      Dirk-1 schrieb:

      Bisher habe ich hier von den GH-5 Besitzern noch keine Beiträge über den Fortschritt von 10bit gegenüber 8bit gelesen.
      Natürlich gibt's da etliche Beiträge - wurde etwa bereits vor geraumer Zeit auf z.B. slashcam publiziert. Wenn man sich so etwas ansehen will muss man halt auch suchen gehen.

      Edit: und gerade einem Hans-Jürgen habe ich das schon mal raus gesucht und verlinkt. Aber das gerät schnell in Vergessenheit.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • wolfgang schrieb:

      Die sogenannten Farbabstufungen sind dann künstliche generierte Daten,

      Ja, genau so wie auch bei jedem Grading künstlich generierte Farben (Daten) entstehen.
      Oder sind bei dir und deinem 10bit Material etwa alle Farbabstufungen, die es nach dem Graden gibt, auch schon im Ausgangsmaterial vorhanden?
      Dann wäre deine Kamera ja eine Zaubermaschine. :teufel:
      Gruß

      Hans-Jürgen
    • Die Gefahr Banding zu erzeugen ist bei 4K Material in der Praxis des Reisefilmers recht gering - kommt bei mir praktisch nicht mehr vor (bei 2K Material war es echt ein Problem!)
      Ich sehe bei Einsatz von S-Log oder sonstigem HDR material eine viel größere Gefahr: Die Bilder werden gerne zu bunt und zu dunkel und verlieren ihre Natürlichkeit. Das kann in vielen Produktionen gewollt sein und ergibt ja auch dramatische Effekte, aber bei den meisten unserer Anwendungen wollen wir doch ein natürliches Bild und da stört oft eine künstliche Dramatusierung. Farbsensible Zuschauer reagieren darauf natürlich ganz anders als abgehärtete Actionfilm oder Krimiliebhaber.
      Kurz gesagt: Das Thema Überdramatiesierung halte ich für wesentlich bedeutsamer als die 8bit-10bit Thematik.
      Dirk
    • Hans-Jürgen schrieb:

      Dagegen spricht aber die Forderung der TV Gesellschaften nach 10bit.
      Wenn die TV-Gesellschaften noch höherwertiges Material verlangen würden, wer sollte das liefern? Also nimmt man halt 10-Bit, was für normales TV auch ausreichend sein dürfte (mangels TV-Empfang habe ich allerdings keine Ahnung, wie die aktuelle (technische) Qualität bei TV-Programmen ist).
      Außerdem: seit wann sind TV-Unternehmen an der Spitze der technischen Entwicklung? Wie sieht es denn da mit der Verbreitung von UHD-Verarbeitungsketten aus?

      IMO sind da einige YouTuber schon deutlich weiter, denn dort wird teilweise bereits mit Red in 8K aufgenommen

      wolfgang schrieb:

      Warum mit 10bit filmen wenn man 12bit könnte? Warum aber mit 12bit filmen wenn man auch 16bit könnte?
      Mein Vermutung ist, dass auch da das Gesetz vom abnehmenden Grenznutzen greift und der praktische bzw. tatsächlich im Endprodukt sichtbare Vorteil von 10 Bit gegenüber 8 deutlich größer ist, als der von 12 Bit gegenüber 10, auch wenn die Zahl der (theoretischen) Abstufungen sich natürlich durch die zusätzlichen Bits potenziert.

      wolfgang schrieb:

      Ich würde ja auch gerne mit einer Sony Venice filmen, die kann 16bit und bietet ein fantastisch gradbares Material an.
      Keine Ahnung. Ich habe null Infos über die Sony Venice, da ich derzeit keine neue Kamera suche und mich daher nicht mit (highendigen) Kameras befasse.

      wolfgang schrieb:

      aber andere können das eben.
      Im Hobbybereich? Das dürften nur sehr wenige sein.

      Und im Profibereich muss sich das wirtschaftlich rechnen: zahlt der Kunde für das "fantastisch gradbare Material" extra, bzw. erhöht eine Venice die Chance, den Auftrag als Freelancer zu bekommen? Wenn nicht, dann taugt die Venice da nichts.
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ------------ Meine CGI-Tests auf Vimeo und YouTube. -------------
    • ro_max schrieb:

      wolfgang schrieb:

      aber andere können das eben.
      Im Hobbybereich? Das dürften nur sehr wenige sein.
      Im Hobbybereich wird das gemacht, was auch in dem Artikel für 8-Bit Material empfohlen wird:
      Bereits im Endgamma aufgezeichnet und das Reinquetschen der existierenden Dynamik in das Endgamma der Kamera mittels derer Profile überlassen.
      So verlagert er einige "Grading"-Schritte in die Kamera. Dort klappt das auch gut, denn es wird mit 12 Bit, 14 Bit oder mehr kameraintern gearbeitet und dann im Endschritt - der Codierung ins Aufzeichnungsformat - auf 8 Bit gekappt.

      Der Hobbyanwender begnügt sich in der NLE dann mit einem bisschen Helligkeits- und Farbkorrektur und klatscht zum Schluss vielleicht einen vorgefertigten "Look" aus irgendeinem Plugin oder LUT drüber. Mit wirklichem Grading hat das aber Null-komma-null zu tun.

      Daher profitiert der Hobbyanwender nur marginal von 10, 12 oder 16 Bit in der Aufzeichnung.
      Sein Endergebnis wird ohnehin in 8 Bit ausgespielt und die magere Zwischenbearbeitung in Farbe und Helligkeit, die er macht, sprengen die Bildqualität nicht wirklich.

      Daher kann man allerdings auch die "Erfahrung" bezüglich 8-Bit Aufnahmematerial von Hobbyanwendern nicht auf wirkliches Grading übertragen, da sie es ohnehin nie machen.

      Dem Hobbyanwender ist das wichtig, was auch dem Reportage- oder News-Ersteller wichtig ist. Ein möglichst sende- bzw. endergebnisnahes Material "out of the cam".
      Dagegen ist dem Spielfim- oder Kinofilmersteller wichtig, möglichst viel Freiheit in der Nachbearbeitung zu haben. Dort wird auch wirkliches Grading gemacht ... und da fällt 8-Bit Material in der Aufzeichnung gnadenlos durch.


      Mit Hobbyanwender gehe ich hier von denjenigen aus, die auch hier im Forum zumeist vertreten sind: Die dokumentarischen Filmer, Urlaubs- und Reisefilm usw.

      Eine andere Gattung sind natürlich die Hobbyanwender die mit immensem Herzblut Kurzfilme erstellen, die - wie sagt man so schön - "kinoreif" sind.
      Szenische FIlme aus Hobbyhand.
      Aber die (zumindest die guten) stoßen mit 8-Bit Rohmaterial ebenfalls so schnell an die gestalterischen Grenzen, dass sie zu besserem greifen, sobald sie einen Euro dafür locker machen können.


      Viele Grüße
      Peter
    • PeterC schrieb:

      Im Hobbybereich wird das gemacht, was auch in dem Artikel für 8-Bit Material empfohlen wird:
      Peter, mein von Dir zitierter Kommentar bezog sich nur nur auf die Anschaffung/Nutzung einer Sony Venice im Hobbybereich und nicht darauf, wie und ob im Hobbybereich CC/Grading gemacht wird. Nur damit es keine Missverständnisse gibt. ;)

      PeterC schrieb:

      Daher profitiert der Hobbyanwender nur marginal von 10, 12 oder 16 Bit in der Aufzeichnung.
      Sein Endergebnis wird ohnehin in 8 Bit ausgespielt
      Also dieser Hobbyanwender spielt in 10-Bit HEVC aus. ;) Dabei handelt es sich allerdings auch nicht um Kameramaterial. :pfeifen:
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ------------ Meine CGI-Tests auf Vimeo und YouTube. -------------