Grading mit ProArt Monitor PA32 UCG-K

  • Naja,


    es bedarf halt immer der genauen Definition was denn überhaupt gemeint ist.


    Beim Capturen gibt m.E. immer das Programm vor welche Codecs und Einstellungen möglich sind.

    Wobei diese Möglichkeiten dann halt auch von der Hardware aus möglich sein müssen. Der daraus resultierende "Schnitt" ergibt dann was gemacht werden kann.



    Die Vorschau ist in den NLEs wiederum eben wohl unterschiedlich geregelt.

    Edius erwartet halt ein zum Projekt passendes (passend eingestelltes) Vorschaugerät.

    In einigen wenigen Fällen kann Edius WG ja den hardwarekalibrierten Monitor sogar entsprechend umschalten (mein EIZO ist leider eine Gen zu alt, so dass ich es manuell machen muss).

    Ist für mich auch völlig ok, da im Videobeteich ja die zu verwendenden Farbräume auch fest vorgegeben sind.


    Bei einigen anderen NLEs lässt sich hingegen die Vorschau wohl teilweise in den Farbraum des angeschlossenen Monitors konvertieren. Was prinzipiell den Vorteil hat, dass man nicht umstellen braucht.

    Andereseits sieht man da aber eben immer ein konvertiertes Bild in "irgendeinem" Farbraum. Und ob dass dann wirklich stimmig ist, ist m.E. auch fraglich. Zumale ja auch die Monitore nicht alle Farbräume zu 100% darstellen können.


    Aber letztlich landet man bei der Ausgabe ja doch entweder bei Rec.709, oder Rec.2020 (jetzt mal das alte SD Bt.601, oder kinotaugliche Formate außenvorgelassen).



    Der Anspruch eine "labortechnisch" einwandfreie Farbwiedergabe zu bekommen ist ja sowohl verständlich, als auch nachvollziehbar. Man sollte da also schon versuchen ein gewisses Optimum zu erreichen.

    Nur endet das ja dann nicht nur bei den Geräten, sondern erfodert auch eine entsprechende Arbeitsumgebung mit einer gleichmäßigen Beleuchtung in einem bestimmten Farbspektrum. Ändert sich das, z.B. durch andere Leuchtkörper, oder den natürlichen Einflüssen von Tageslicht, weicht die Wahrnehmung ja auch schon wieder ab.


    Und letztlich stellt sich mir auch die Frage, ob man denn auch unter absoluten Idealbedingungen denn wirklich in der Lage ist auch die letzte feine Nuace zu erkennen und vor allem nach dieser zu handel.

    Für meine Person würde ich mir das jetzt jedenfalls nicht zutrauen.


    Aber selbstverständlich ist eine stimme Vorschau wichtig.


    Gruß

    Peter

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung

  • Habe jetzt doch mal nachgeschaut... ich habe folgendes kabel gekauft:

    https://www.amazon.de/dp/B098T…yo2ov_dt_b_fed_asin_title


    Aber das Kabel nützt mir bei meiner Konstellation nichts, oder?

    Wenn ich den besagten Pro Art anschliessen möchte, an meinem benannten Adapter.

    Meine..., auch wenn ich HDR nutzen möchte.

    @Gurl Meintest Du : Der YUV Farbraum, akso bis 4K 60p reicht doch für meine Vorschau und ich müsste nur am ProArt Monitor PA32 UCG-K eben entsprechend HDR einstellen. So richtig?


    wolfgang: Habe die mittlere Variante ( https://www.amazon.de/dp/B098T…yo2ov_dt_b_fed_asin_title ),

    die heute wohl 8K-Pro-Mini benannt wird.

    Hätte echt warten sollen ( ca. 1 jahr) wie es sich bei Blackmagic weiter entwickelt...


    T.

  • Das Kabel ist völlig ok und auch zu einem guten Preis.


    M.E. sollte Deine Vorschau über den zwischengeschalteten Micro-Adater für das HDR-Grading auch ausreichen.

    Natürlich kommt es dabei auch darauf an, was für ein Gerät Du jetzt zunächst anschließt.


    Bei meinem System habe ich die Vorschau ja auch "nur" über eine HDMI 2.0b Verbindung auf eine guten, aber handelsüblichen HDR-TV. Damit bin ich mit meinem Filmen bisher aber auch immer gut hingekommen.


    Es wird vermutlich nur so sein, dass durch die Konstellation mit dem Adapter ein angeschlossenes Wiedergabegerät nicht automatisch erkennt, ob das eingehende Signal HDR ist oder nicht. 100% kann ich aber nicht sagen ob das so ist, aber ich vermute es eben.

    Insoweit muss dann immer überprüft werden, ob sich das Wiedergabegerät auch in dem grade geforderten Modus befindet, bzw. dieser manuell umgeschaltet werden. Ist aber auch nicht schlimm, sofern das Gerät eben die manuelle Umschaltung zuläßt.

    Leider ist das halt nicht bei allen Geräten vorgesehen.



    Mit dem ProArt hättest Du auf alle Fälle auch einen sehr guten Monitor.

    Dass mit dem durch die HDMI 2.0 Verbindung vielleicht nicht die ultimativen Möglichkeiten ausgeschöpft werden, halte ich jetzt nicht für so wirklich ausschlaggebend.

    Schau Dir erstmal an, was Dir jetzt über die bereits vorhandenen Geräte möglich ist und wie Du damit hinkommst.

    Aus eigener Erfahrung denke ich, dass man damit erstmal für einige Zeit ausgelastet ist.

    Wenn Du dann die Grundlagen drauf hast, dann kannst Du Dir immer noch überlegen, an welcher Stelle etwas zu verbesser geht.


    Gruß

    Peter

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung

  • Arbeiten solltest mit der jetzt vorhandenen Ausrüstung durchaus gut können. Ob man eine 10bit oder 8bit Vorschau hat - das ist meist schwer erkennbar. Grade Banding könnte da mal in der Vorschau auftreten, welches es in der footage nicht geben muss. Wird man aber nicht sonderlich oft haben.

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung

  • Ich habe jetzt mal die Kabel und Ansteuerung des Monitors von Laptop und Desktop her zu dem ASUS optimiert. Denn eines der (nicht idealen, wenn nicht gar gemeinen) Ausstattungsmerkmale dieses Monitors ist ja, dass er nur EINE einzige HDMI 2.1 Schnittstelle hat - der Rest sind HDMI 2.0 Schnittstellen. Dafür hat er aber einen Displayboard-Anschluss 1.4, den ich bisher gar nicht genutzt habe.


    Also - was tun? Nun, eigentlich recht logisch. Ultrastudio 4K mini und Decklink 4K Extreme 12G gehen ab sofort auf die HDMI 2.0 Eingänge - die können ja leider eh nicht mehr. Zusätzliche HDMI 2.1 Kabeln habe ich gekauft, bringen aber im Moment wenig. Was aber was bringt, ist ein gutes Displayboard-Kabel. Denn damit fahre ich von der 3080er GPU im Desktop direkt in den Displayboard-Eingang des Monitors - und kann damit 10bit (entweder mit YCbCr422 mit 100 oder 120 Hz, oder mit RGB mit 50 oder 60 Hz). Und vom Laptop aus geht es in den HDMI 2.1 Eingang, womit auch dort problemlos 10bit möglich werden.


    Die richtigen Kabeln und die richtigen Anschüsse auszuwählen ist also sinnvoll, um eine hohe Signalqualität zu bekommen.

    :jubilie:


    Nur schade, dass meine Blackmagic Hardware an HDMI 2.0 ansteht. :lips:

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung

  • Die richtigen Kabeln und die richtigen Anschüsse auszuwählen ist also sinnvoll, um eine hohe Signalqualität zu bekommen.

    Das auf alle Fälle.

    Deshalb halte ich es ja auch für wichtig sich auch mit den jeweiligen Normen und deren Möglichkeiten auseinanderzusetzen.


    Und das beziehe ich nicht nur auf die (Monitor-)Anschlüsse, sondern auch grade auf Codecs und Containerformate.

    Denn wie man aus einigen Beiträgen in den Foren immer wieder erkennen kann, gibt es da oft erhebliche Verständnisprobleme.



    Gruß

    Peter

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung

  • Natürlich. Vor allem das gezielte Auseinandersetzen mit den Normen ist relevant. Damit man seine Hardware auch optimal ausnützt.


    Ich bin mir jetzt gar nicht so sicher - nachdem ich jetzt die Signale über die Grafikkarten in einer höheren Signalqualität auf den Monitor bekomme als die Signale über die Blackmagic hardware - ich bin mir jetzt gar nicht so sicher, was man in dem Fall besser nutzen soll. Bei den Signalen über die GPUs haben wir ja immer gesagt, dass die von der GPU verfälscht sein könnten. Aber wie gut ist das eigentlich belegt??

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung

  • Bei den Signalen über die GPUs haben wir ja immer gesagt, dass die von der GPU verfälscht sein könnten. Aber wie gut ist das eigentlich belegt??

    Nun,


    wie ja schon gesagt kamen/kommen diese Verfälschungen i.d.R. durch falsche Einstellungen, bzw. falsche Kombinationen von Einstellungen oder Geräten zustande.

    Die heutigen GraKa haben da auf alle Fälle einen sehr viel höheren Standard und auch eine extrem höhere Leistungsfähigkeit, als ältere Modell. Zumal ja sich eben auch die Ansprüche der Nutzer radikal geändert haben.

    Und auch unsere NLEs selbst haben ja doch recht erhebliche Veränderungen erfahren, die jetzt auch in dieser Hinsicht mehr leisten, als früher.


    Die Schittkarten (und UltraStudios) bieten eben speziell für den TV/Video und ggf. Kinobereich ausgelegte spezifizierte Standards.

    Insoweit halte ich diese schon auch noch für sinnvoll, wenn man sich intensiv mit dem Videoschnitt befasst.

    Wer jetzt nur einmal im Jahr eine Urlaubsfilm zusammenstellen möchte, braucht das sicherlich nicht - und hat es ja früher auch nicht benötigt.


    Und grade was den HDR-Sektor betrifft, bin ich mir halt auch noch nicht so ganz sicher mit der Ausgabe über Win.

    Allerdings hat es ja auch in der Beziehung mit Win 11 erhebliche Verbesserungen gegeben.



    Gruß

    Peter

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung

  • Also - was tun? Nun, eigentlich recht logisch. Ultrastudio 4K mini und Decklink 4K Extreme 12G gehen ab sofort auf die HDMI 2.0 Eingänge - die können ja leider eh nicht mehr. Zusätzliche HDMI 2.1 Kabeln habe ich gekauft, bringen aber im Moment wenig. Was aber was bringt, ist ein gutes Displayboard-Kabel. Denn damit fahre ich von der 3080er GPU im Desktop direkt in den Displayboard-Eingang des Monitors - und kann damit 10bit (entweder mit YCbCr422 mit 100 oder 120 Hz, oder mit RGB mit 50 oder 60 Hz). Und vom Laptop aus geht es in den HDMI 2.1 Eingang, womit auch dort problemlos 10bit möglich werden.

    Kannst du nicht über SDI in dein Monitor kommen denn der SDI Ausgang hat 10 bit.


    Dirk PEL

  • wie ja schon gesagt kamen/kommen diese Verfälschungen i.d.R. durch falsche Einstellungen, bzw. falsche Kombinationen von Einstellungen oder Geräten zustande.

    Ich hätte allerdings die Vermutung, dass dies längst vorbei ist.

    Die Schittkarten (und UltraStudios) bieten eben speziell für den TV/Video und ggf. Kinobereich ausgelegte spezifizierte Standards.

    Insoweit halte ich diese schon auch noch für sinnvoll, wenn man sich intensiv mit dem Videoschnitt befasst.

    Natürlich. Aber heute sind die Grafikkarten zwischen RGB und YUV, und zwischen full range und limited range umschaltbar. Was die klassischen Argumente für spezielle TV-Karten waren.


    Und irgendwie ist es um diese Diskussion recht still geworden. Vor 10 Jahren war das immer wieder ein Thema, aber heute? Bemüht man Google, findet man zum Unterschied zwischen Grafikkarten und Videoschnittkarten - na rein gar nichts mehr.

    Die heutigen GraKa haben da auf alle Fälle einen sehr viel höheren Standard und auch eine extrem höhere Leistungsfähigkeit, als ältere Modell. Zumal ja sich eben auch die Ansprüche der Nutzer radikal geändert haben.

    So ist es.

    Und grade was den HDR-Sektor betrifft, bin ich mir halt auch noch nicht so ganz sicher mit der Ausgabe über Win.

    Allerdings hat es ja auch in der Beziehung mit Win 11 erhebliche Verbesserungen gegeben.

    Also zumindest Vegas hat die HDR-Vorschauimplementierung gleich über die Grafikkarten gemacht. Selbst Resolve hat mit Resolve 19 in der Windows-Welt nachgezogen (und in der Mac Welt gab es die Vorschau über Grafikkarten ja bereits länger). Ist als wirklich eine Frage, wie gültig diese alten Argumente gegen Grafikkarten eigentlich noch sind.

    Kannst du nicht über SDI in dein Monitor kommen denn der SDI Ausgang hat 10 bit.

    Der Monitor hat leider erst gar keine SDI-Eingänge mehr. Und die üblichen Wandler von SDI zu HDMI können auch nur HDMI 2.0. Also das ist keine Lösung.


    Die Verkabelung, die ich derzeit umgesetzt habe, hat einen Vorteil: sie berücksichtigt, welche Karte mit welcher Schnittstelle (HDMI 2.0, 2.1) was kann. Sprich - es sind die HDMI 2.1 Ausgänge sowie der Displayboard-Ausgang so mit dem Monitor verbunden, dass meine Systeme die 10bit Darstellung am Monitor können. Und die HDMI 2.0 Ausgänge der Blackmagic Karten sind mit den 2.0 Eingängen des Monitors verbunden - sodass auch hier kein Qualitätsverlust entsteht. Es bringt ja nichts, einen 2.1 Eingang mit nur einem 2.0 Ausgang anzusteuern - es sei denn, man hätte einen Überschuss an 2.1 Eingängen (was auch nicht der Fall ist).

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung

  • Ich hätte allerdings die Vermutung, dass dies längst vorbei ist.

    Nun, vom Prinzip her haben sich ja eher die Möglichkeiten erweitert (z.B. durch HDR).

    Damit also auch die Möglichkeit etwas falsch zu machen.


    Natürlich. Aber heute sind die Grafikkarten zwischen RGB und YUV, und zwischen full range und limited range umschaltbar.

    Waren sie z.T. ja auch früher schon.

    Ich dachte da jetzt auch eher an bestimmte Standards, Videonormen und (Übertragungs-) Technologien, wie Dolby Vision, oder die DCI Video-Normen.

    Ist als wirklich eine Frage, wie gültig diese alten Argumente gegen Grafikkarten eigentlich noch sind.

    Wirklich beantworten kann ich Dir das auch nicht.

    Nur bin ich halt "damals", also vor rund 3 Jahren mit meiner Ausstattung über die GraKa nicht ordentlich hingekommen.



    Die Verkabelung, die ich derzeit umgesetzt habe, hat einen Vorteil: sie berücksichtigt, welche Karte mit welcher Schnittstelle (HDMI 2.0, 2.1) was kann.

    Und das ist wirklich ein entscheidender Vorteil.



    Gruß

    Peter

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung

  • ... sowie der Displayboard-Ausgang so mit dem Monitor verbunden,

    Du meinst vermutlich den DisplayPort Ausgang der Grafikkarte.

    Den würde ich auch immer nehmen, wenn es um HDR und 10bit Ausgabe auf einen Monitor geht. Nur damit habe ich meine Geräte vernünftig miteinander verbinden können.

  • DP ist eigentlich immer die bessere Variante, sollte aber dann auch auf beiden Seiten = GraKa und Gerät vorhanden sein.

    Es gibt zwar auch HDMI <> DP Kabel, aber so richtig toll ist das auch nicht. Und natürlich gibt immer das schwächste Glied der Kette den Ton an.


    Nur mal für den Hinterkopf -

    • DP 1.4 = nominell 32,4 Gbit/s;
    • DP 2.0/2.1 = nominell 80 Gbit/s - was lt. Beschreibung 8K 8192x4320 Px bei 60 Hz mit 12 bit Farbe ohne Kompression erlauben soll.


    Ich wüsste jetzt nur nicht, welche GraKas überhaupt schon DP 2.0/2.1 bieten würden. Vielleicht die neuen GeForce RTX der 5000er Serie?

    Monitore mit DP 2.0/2.1 gibt es bisher auch eher nur wenige.



    Gruß

    Peter

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung

  • Ja, natürlich meine ich den DP der RTX 3070 Ti, der mit dem DP des ASUD Monitors verbunden worden ist. Bei meinen Geräten beides DP 1.4 und 1.4a.


    Aber beim DP 1.4 sind halt die Bandbreiten mit den 32 Gbit/s zwar deutlich besser als bei HDMI 2.0, aber noch immer signifikant geringer als bei HDMI 2.1 (48 Gbit/s). Die Auswirkungen sind, dass ich über den ASUS Monitor mit DP 1.4 bei UHD 120 Hz „nur“ mit 422 und 10bit ansteuern kann, 444 geht halt wegen der zu geringen Bandbreite noch nicht. Bei 60 Hz klappen dann halt bei DP 1.4 auch 444 und 10bit. Bei HDMI 2.1 gehen die vollen 120 Hz mit 444 und 10bit.


    Die RTX 3080 Ti hat nun 2x DP 1.4 und 2x HDMI 2.1. Also hätte mir ein zweiter HDMI 2.1 Eingang am ASUS Monitor besser gefallen, aber der hat eben nur eine einzige HDMI 2.1 Schnittstelle - die aber derzeit mit dem Laptop verbunden ist.


    Klar wäre DP 2.0 besser - aber die sind halt bei mir noch nicht verbaut. Vermutlich noch kaum wo.


    Ein Luxusproblem? Vermutlich. Die Bildqualität ist ja in beiden Fällen extrem gut, und selbst mit 12bit BRAW ist das nicht der Engpass beim Graden. Das sind eher meine Fähigkeiten.

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung

  • UPDATE 2025

    =============


    Was hat sich inzwischen bei den 4k HDR Grading Monitoren getan?

    Habt ihr neue Empfehlungen?


    Bisher noch in meine Favoliste:


    der ProArt Monitor PA32 UCG-K

    https://www.asus.com/de/displa…proart-display-pa32ucg-k/

    https://www.idealo.de/preisver…ium=cpc&utm_source=google


    wolfgang Du hattest mal etwas von 5000 Euronen geschrieben, anscheinend hat sich inzwischen eine Menge getan. Nagut, 3.500 ist immer noch viel.


    und der ; ASUS ProArt Display PA32UCXR

    https://www.asus.com/de/displa…/proart-display-pa32ucxr/

    https://www.cyberport.de/pc-un…0ABgYrEAAYASAAEgLPHPD_BwE


    Diese beiden stehen zur Diskussion. welchen würdet ihr nehmen oder gibt es inzwischen bessere Alternativen?

    Bei welchem besteht die Chance das ich länger etwas davon habe?


    Ein Problem habe ich aber:

    Zur Erinnerung: Ich habe die 8K-Pro-Mini Karte verbaut ( https://www.blackmagicdesign.c…cklink/techspecs/W-DLK-44 )

    Und wenn die Monitore NUR nen Thunderbolt Anschluss haben ist das wieder ein Problem für mich.


    Das Problem hätte ich aber auch wenn ich die neuere 8k-Pro G2 verbaut hätte, da habe ich ja einen HDMI 2.1 Ein / Ausgang aber kein Thunderbold

    Was mache ich jetzt?


    Den Unterschied von Mini und G2 habe ich verstanden, ich denke das 4K 60p ersteinmal vollkommen ausreichend sind. Wenn ich mal die G2 einbauen lassen sollte ändert das ja nicht an den geeigneten Anschlüssen für denselben Monitor.


    Was würdet ihr sagen: sollte ich die neuere G2 kaufen und einbauen lassen und die alte Mini verkaufen.

    Gäbe es da einen Markt wenn ich die Karte verkaufen würde.


    Soweit...


    Gruß Tassilo



  • Hi,


    nun, aus meiner Sicht wäre halt die erste Frage die Du Dir stellen solltest, was Du denn (in beiderlei Hinsicht) für Deine Arbeit benötigst und was für Dich denn echte Vorteile bringt.


    Hierbei wäre halt m.E. zu beachten was, bzw. für wen Du produzierst.

    Wenn Du für entsprechende Studios/Sender tätig sein solltes, die dann auch die Einhaltung von Vorgaben fordern, ist das natürlich etwas anderes, als wenn Du nur für Dich selbst, oder private Auftraggeber handelst.


    Zur Karte -

    die BMD Mini verfügt halt nur über SDI, die G2 ist da mit dem HDMI 2.1-Ein-/Ausgang flexibler.

    Ob der relativ neue BMD MediaPlayer 10G für Dich interessant sein könne, weiß ich nicht einzuschätzen.


    Ich selbst arbeite mit dem BMD UltraStudio Mini 4K, da ich auch nicht über 4K hinaus gehen werde und bin damit sehr zufrieden, auch wenn der XLR Mic-Eingang zumindest unter Win leider nicht angesprochen werden kann. Aber dafür habe ich ja mein Audio-Interface.


    Doch egal wie, wenn überhaupt wirst Du die BMD sicherlich, nur mit Verlust wieder los.

    Ob sich das für Dich lohnt, kannst nur Du entscheiden.




    Bei den Monitoren sind halt die ASUS ProArt-Geräte noch immer Spitzenklasse, zumal sie ja auch Dolby Vision unterstützen, was die älteren Übertragungsverfahren sicherlich auf die Zeit ablösen wird. Die Streamingdienste setzen jedenfalls schon sehr stark auf Dolby Vision.


    Allerding verfügen halt beide Monitore nicht über SDI-12G-Eingänge.

    Nur dürftest Du für entsprechende Geräte mit SDI auch locker das 3- bis 4 fache der ASUS-Geräte bezahlen.

    Wobei das dann aber auch eigentlich wirklich nur bei einem kommerziellen Einmstz von nöten wäre.



    Wie gesagt, gebe ich meine Schnittvorschau (über das Ultra Studio) auf einen handelsüblichen 55" Sony TV aus, den ich damals für knapp unter 1.000 € bekommen habe.

    Dessen Werte sind halt nicht so exakt, wie die der genannten ASUS-Monitore, reichen aber für meine Verhältnissse völlig aus.

    Dafür entspricht er halt dem Durchschnitt der Geräte, auf denen meine Filme dann vielleicht irgendwann angesehen werde.


    Wie gesagt, die Frage ist in erster Linie was Du benötigst.



    Gruß

    Peter

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung

  • Hallo Peter,

    gut, diese Infos fehlten sicherlich.

    Mir geht es um eine bestmöglichste professionelle Farbkorrektur in HDR allerdings mit einem

    soliden (halbwegs professionellen) Equipment, welches nicht allzu teuer werden würde.

    Wenn alles gut läuft, beginne ich Anfang nächstes Jahr (an einer Akademie) eine Ausbildung

    zum Colorgraden und ich plane daraufhin, diesen Job auch für entsprechende Leute anzubieten.

    Neben meiner eigenen künstlerischen Arbeit natürlich.


    Danke für Deine Infos zu den Karten.

    Den BMD MediaPlayer 10G werde ich mir mal anschauen.

    Mir ist klar, das ich für meine Karte keine 700 Euronen mehr bekommen würde. und hoffe mal

    das ich wenigstens 500 zurückbekommen würde. Wäre das realistisch?


    Also, entsprechende Geräte mit SDI die locker das 3- bis 4 fache der ASUS-Geräte kosten kann

    ich mir nicht erlauben. Ich halte an den beiden besprochenen fest, solang es keine neuen

    Alternativen gibt-


    Soweit dazu.


    Gruß Tassilo


    P.S. Ich habe mir den Blackmagic Design Media Player 10G inzwischen mal angeschaut.

    https://teltec.de/blackmagic-design-media-player-10g.html


    Also der wird, anstatt meiner bisherigen Karte (die ich dann ausbauen lassen könnte), zwischen meinem PC und dem neuen Monitor geschaltet.

    Aber da habe ich immer noch das Thunderbold Problem, bedarf es da wieder einen zusätzlichen Adapter? Ich kann mir das nicht vorstellen.


    Ein Vorteil wäre, das ich zukünftig nicht immer den PC öffnen brauche um etwas neues einzubauen, das neuestes zukünftige Gerät kann ja dann immer angesteckt werden.







  • wenigstens 500 zurückbekommen würde. Wäre das realistisch?

    Aus meiner Sicht eher nicht.

    Es sei denn Du hättest irgendwelche Kontakte, die eine solche Karte grade benötigen.



    Solche HDR-fähigen SDI-Monitore wird sich eben niemand außerhalb von professionellen Studios leisten.

    Sind aber m.E. halt auch nicht notwendig.


    Frage doch auch mal an Deiner Akademie nach, was die an Ausrüstung voraussetzen/empfehlen würden.

    Wenn die da bestimmte Vorgaben haben - z.B. Apple-Geräte - müsstest Du ja sowieso noch umdenken.


    Gruß

    Peter

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung

  • Bisher noch in meine Favoliste:


    der ProArt Monitor PA32 UCG-K

    https://www.asus.com/de/displa…proart-display-pa32ucg-k/

    https://www.idealo.de/preisver…ium=cpc&utm_source=google


    wolfgang Du hattest mal etwas von 5000 Euronen geschrieben, anscheinend hat sich inzwischen eine Menge getan. Nagut, 3.500 ist immer noch viel.

    Was mir am UCG-K nicht gefällt, ist, dass bei meinem Gerät nach einiger Zeit im HDR-Modus leider immer die Lüftung sofort störend hochfährt. Das war am Anfang nicht so. Glaubt man Berichten im Netz, dann haben die bei der Kühlpaste gespart - und diese gehört erneuert. Klingt zwar plausibel, aber ich habees bisher nicht über das Herz gebracht, das Gerät zu öffnen. Dazu kommt, dass ich momentan ohnedies kaum etwas im Bereich des HDR-Gradings mache.

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung

  • Zu diesem Lüftergeräusch bei dem Monitor im HDR Bereich habe ich mal den Support kontaktiert. Bevor die Garantie abläuft. 2 Tage später war eine Antwort da. Ich möge den Monitor mal im Monitormenü reseten. Habe ich nach etwas Zögern gemacht - da man wohl alle Kalibrierungen verliert, und ich an einen Hardwarefehler geglaubt habe.


    Aber was soll ich sagen: nach dem Reset waren plötzlich die Lüftergeräusche im HDR Modus tatsächlich weg. Die Kalibrierungen auch - die muss ich halt wieder machen.

    Das begeistert mich durchaus.

    Lieben Gruß,
    Wolfgang


    Grüne Kommentare sind aus der Admin-Funktion geschrieben
    Der Rest ist meine Privatmeinung