HDR NORM

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

      Ich habe eine Bitte :
      Könnt Ihr mir nochmals die praktische Umsetzung der nun international definierten HDR Norm erklären.Wie muss die ganze Kette ausschauen.
      Hab laienhaft geglaubt , dass das unbedingt schon einmal 10 Bit 444 oder so sein muss und ich dementsprechend mit einem Camcorder beginnen muss , der sowas zumindest intern bzw.mit einem Atomos etc. hergibt. Will ich aber nicht in Afrika.

      Dann habe ich das neue Casablanca Saphir bestellt , eine high-end kräftige Hardware .

      Dann habe ich aus völlig anderer Überlegung mir den Samsung BR Player 8500 gekauft , (um 4K Datendiscs zu spielen) , der hat schon ein HDR -Label drauf.

      Und gestern hab ich mir in Wien den Sony 520 4K Beamer angesehen , fantastisch für BR und 4 K - NUR der 520er ( und nun kommt der 550er)- hat das HDR Zertifikat und da steht aber nur YCbCr 4:2:0 / 8 Bit dahinter inden technischen Daten.Und das würde nun richtig Geld kosten - für die "Zukunftssicherheit" ??

      Gibt's da noch eine 2.Zukunftsnorm - ist das dann das SUHD? Mit 10Bit?

      Ich liebäugle tatsächlich mit dem Beamer - ist das dann hinausgeschmissenes Geld oder kann man sowas mit Softwareupdates vielleicht später aktualisieren?

      Könnt Ihr mir da ein bisschen helfen , keinen Blödsinn zu machen?

      Habe dzt die AX100 , möchte aber - wie schon anderweitig geschrieben , dann wieder irgendeinen Henkel mit UHD50p und Zeitlupe kaufen.

      Gruß und Dank , Robert
      Ich weiß nicht ob es eine "Norm" gibt - mag sein, müßte man mal suchen.

      Auf einem rec709 Display kann man 6 Blendenstufen darstellen, heißt es immer. Bei HDR sinds dann durchaus 12-15 Blendenstufen. Und das scheint der Grund zu sein dass HDR eben zwingend mit 10bit Hand in Hand gehem dürfte. Einfach, weil man sonst nicht genug Helligkeitswerte pro Blendenstufe bekommt.

      Und daher braucht HDR wohl Kameras mit einem entsprechendem Dynamikumfang und auch mit 10bit. Mag sein dass auch 8bit gehen - aber jeder kann sich selbst ausrechnen wieviele Werte dann pro Blendenstufe übrig bleiben. Daher also doch eher 10bit mit entweder x-log oder mit raw Geräten. Also ja, von der Seite gehe ich davon aus dass 10bit 422 für HDR durchaus notwendig sein wird. Und natürlich gehört da auch der passende Farbraum dazu.

      Was noch fehlt sind die Sichtgeräte - nicht mal die UHD-TVs im Wohnzimmer, die bekommt man ja schon mit 10bit 422 UHD Panelen, halt um das entsprechende Kleingeld. Aber HDR-Panele für die Schnittplätze sind noch nicht gesichtet, das sind noch rec709 Monitore. Und es braucht die passenden Ausgabekarten - die modernsten Grafikkarten können es offenbar, bei den Videoschnittkarten sinds die high-end Geräte wie die Decklink 4K Extreme 12G die HDR fähig ist. Und auch nicht jede Schnittsoftware kann es - bei Resolve etwa braucht es die Studio-Kaufversion. Von 10bit HDR Authoringsoftware-Lösungen mal ganz zu schweigen - die fehlen wohl auch noch.

      Also in Summe braucht es da wohl eher gehobenes Equipment. Aber so weit sind wir davon nicht entfernt.
      Vielen Dank Wolfgang, Du bist ja a Wiener -- ich war da in der Heimkinowelt in der Lemböckgasse.
      Beeindruckender Laden - aber Fragen in die Richtung , da kennt sich keiner noch so richtig aus.
      Mir ist klar , das ist noch alles etwas in den Kinderschuhen , das normale , aktuelle FHD und 4K Material mit dem Sony Beamer war aber echt toll.
      Schaun wir mal !Liebe Grüsse , Robert