Videokarte - ja oder nein

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Videokarte - ja oder nein

      Hallo!

      Bin dabei, mein System ein wenig aufzurüsten. Habe nun Vegas Pro 14 gekauft, nachdem ich die "Diskussionsschlachten" hier mitgelesen habe.

      Habe bisher völlig problemlos mit Sony Vegas Pro 11 Videoschnitt betrieben und mit DVD Architect 6 dann Blurays erstellt. Habe über die Jahre hinweg im Forum mitgelesen ... muss aber sagen, daß ich oft garnicht wusste, worum es in Euren Diskussionen geht - Farbräume, u,ä. Insofern betrachte ich mich immer noch als Anfänger oder Einsteiger.

      Mein Anspruch an den Videoschnitt ist, die Takes von Fehlern zu befreien, Fotos , Musik, usw. einzufügen - und sauber fehlerfrei auszugeben. Alles nur für den Privatgebrauch am TV-Gerät. Dafür ist vielleicht Vegas Pro überdimensioniert, aber ich habe mich seit 8 Jahren so daran gewöhnt, daß ich es nicht missen möchte ... ich entdecke immer noch Neues an der Software. Außerdem will ich vorbereitet sein, wenn ich den Schritt zu 4K mache.

      Wenn ich das bisher für meine Ansprüche so ganz gut hinbekommen habe, wofür ist dann eine Videokarte notwendig. Wird der Schnitt schneller, der Prozessor weniger belastet? Habe mir die DeckLink Mini Monitor 4K angesehen ... verstehe ich das richtig, daß diese die Ausgabe auf einen externen Monitor ermöglicht über HDMI? Aber was kann die denn noch?

      Bestimmt werden einige von Euch die Augen verdrehen wegen dieser Fragen? Habe auch versucht darüber zu googeln, bin aber nicht so recht fündig geworden. Irgendwie lande ich bei Werbung oder Beiträgen, die knochenalt sind.

      Wäre für ein paar Hinweise dankbar.

      Gruß da-global :/
    • Es gab vor langer Zeit Videokarten die auch beschleunigend gewirkt haben. Machen die heutigen nicht. Die liefern eher ein Vorschaubild mit normierten Farbraum - und sind bei Vegas auch besser was die Darstellungen von Bewegungen angeht. Ob sich das für dich auszahlt weiß ich nicht recht, es geht auch mit Grafikkarten. Und wie ist der PC an sich ausgerüstet? Was willst ausgeben?
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Hallo Wolfgang,
      danke für Deine erhellende Antwort.

      Habe den Rechner gerade aufgerüstet, was die Hardware betrifft.

      Mainboard: Gigabyte GA-Z-170
      Proessorz: Intel i7 – 6700K 4GHz
      RAM: 32 Gb
      Grafik: Gainward GTX 750Ti 2GBKingston
      SSD 480GB nur für Win 10 und installierte Software in 2 Partitionen
      Alle Daten auf zwei 3TB-Festplatten von WD – würde mir für die Takes gerne noch eine 1-TB-SSD kaufen, aber die sind mir noch zu teuer.

      Ich sehe, daß Du in Deinem System so eine fette Videokarte hast – sowas brauche ich wahrscheinlich nicht. Aber eine Vorschau auf einem externen Monitor wäre schon prima.
      Mit der BlackMagic DeckLink Mini Monitor 4K bin ich da wohl für meine Bedürfnisse ausreichend ausgerüstet?!
      Von Vegas Pro 14 wird diese wohl auch erkannt, wie ich im Forum gelesen habe.
      Ich dachte nur, mit der würde Vegas auch zum Sprinter werden, deshalb meine Frage.

      Besten Dank
      da-global :/
    • Nochmals: zum Sprinter wird durch so eine Karte nichts. Die bietet eine bessere Vorschau bis UHD 30p. Wenn du erst später auf UHD umsteigen willst, ist die ok. Aber eben nur bis 30p. Reicht das?
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Das reicht definitiv ... mindestens noch für die nächsten 2 - 3 Jahre. Umstellung bedeutet ja Camcorder, Rechner, Receiver, TV, usw - die ganze Strecke neu ... da fürchte ich mich noch finanziell !!! HD ist erstmal noch okay - viele sind ja noch bei DVDs.

      Besten Dank und Gruß

      da-global :/
    • Will ich doch mal dort einhaken und die Frage in die Profi-Runde werfen.
      Welche (Grafik)Karte - evtl. mit Monitor würdet ihr für den 4K-Schnitt empfehlen?
    • Die Decklink 4K Extreme hat sich bei mir als sehr universell nutzbar heraus gestellt. Geht aus Vegas mit UHD, aus Edius, Catalyst Prepare und Edit, Looks3, Resolve. Nachteile - die hat ihren Preis und ist noch nicht HDR fähig, aber geht bis UHD 50p. Monitor ist immer eine Preisfrage, unter IPS mit zumindest Fabrikseichung und ohne HDMI2 würde ich heute nichts mehr nehmen. Und 2017 kommen dann vermutlich die ersten HDR Monitore.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Allerdings.

      Darum reicht ja für viele auch die Intensity Pro 4K oder die relativ neue, hier diskutierte Karte. Können die Ausgabe dann halt nur bis UHD 30p.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • wolfgang schrieb:

      Monitor ist immer eine Preisfrage, unter IPS mit zumindest Fabrikseichung und ohne HDMI2 würde ich heute nichts mehr nehmen. Und 2017 kommen dann vermutlich die ersten HDR Monitore.


      Wenn Du dann auch noch einen UHD-Referenzmonitor der Klasse 1 haben möchtest legst Du dafür den Gegenwert eines Autos der oberen Mittelklasse auf den Tisch.... ;)

      Selbst ein Class1-Monitor für FHD ist so teuer wie ein Kleinwagen. Darum verwenden auch viele Profis nur "günstige" Consumergeräte am Schnittplatz und eher selten einen echten Referenzmonitor.

      Wobei selbst ein einfacher UHD-TV an einer solchen Karte einen deutlich besseren Eindruck vom Material verschafft wie als wenn man das Material einfach via Grafikkarte im Vollbildmodus wiedergibt....
      Als Moderator verfasste Beiträge durch grüne Schrift erkennbar
    • Ja das Wörtchen Referenzmonitor nehme ich kaum in den Mund. Sauteuer.
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • wolfgang schrieb:

      Ja das Wörtchen Referenzmonitor nehme ich kaum in den Mund. Sauteuer.

      Diejenigen, die sich so einen Monitor leisten wollen und können, sind hier an einer Hand abzuzählen, bequem.

      MIr schaudert, wenn ich an eine "technisch korrekte" Kette von 4K-Kamera, 50p mit 10 Bit in 4:2:2 denke und dann das Spiel mit den gleich leistungsfähigen Componenten wie Computer(leistung) mit entsprechende(n) Ausgabekarte(n) und 10 Bit, 4K Monitor mit Hardwarekalibrierung denke. Da gehen die 1000der (Euro) weg wie nix.

      MacMedia schrieb:

      Wobei selbst ein einfacher UHD-TV an einer solchen Karte einen deutlich besseren Eindruck vom Material verschafft wie als wenn man das Material einfach via Grafikkarte im Vollbildmodus wiedergibt....

      Solche Hinweise nützen. Wenn jemand eine bezahlbare Kombination von Komponenten, zum Beispiel Grafikkarte und Monitor, neu zusammenstellt und uns sagen kann, das bringt was - oder eben nix. Klar, jeder muss dann für sich selbst rauskriegen, ob das technisch zu seinen Geräten passt. Aber so könnte man eine Vorstellung davon bekommen, in welche Richtung man sinnvoll ausbauen könnte, ohne das Konto zu plündern..

      Beste Grüße, Uli
    • Rod schrieb:

      MIr schaudert, wenn ich an eine "technisch korrekte" Kette von 4K-Kamera, 50p mit 10 Bit in 4:2:2 denke und dann das Spiel mit den gleich leistungsfähigen Componenten wie Computer(leistung) mit entsprechende(n) Ausgabekarte(n) und 10 Bit, 4K Monitor mit Hardwarekalibrierung denke. Da gehen die 1000der (Euro) weg wie nix.

      Stimmt, wobei es halt gilt intelligente Kompromisse einzugehen. Teuer genug sind die Sachen ja.

      Und schön wärs ja, aber ohne Referenzmonitor und mit nur einem Monitor mit Fabrikseichung bin ich auch bisher ausgekommen. Wobei das schon so eine Sache ist - viele sagen ja der Monitor ist das Wichtigste (und recht haben sie eigentlich).
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Ich erstelle ab und zu mit meine PXW-X70 einige Streifen in UHD aber hauptsächlich verwende ich FHD in 4.2.2 und 10 Bit.
      Und ganz ehrlich muss ich sagen das der Unterschied, wenn man nicht direkt vor seinem UHD Fernseher sitzt, nicht gross ist. Die X70 macht schon in FHD ein super Bild.
      Direkt vor meinem geeichter Panasonic AX-804 TV sieht man natürlich einen Unterschied.

      Meine Konfiguration ohne UHD Monitor beim schneiden mit Edius Workgroup 8.22 sieht wie folgt aus:
      Als Vorschaumonitor verwende ich einen kalibrierter 10 Bit Eizo CS2420.
      Der Monitor ist natürlich nicht billig aber nach meiner Meinung was nützt mir eine gute Kamera wenn ich nicht sehen kann wie das Endergebnis beim Schneiden wird.
      Der Monitor wird von einem Blackmagic Intensity Pro 4K silent angesteuert.
      Der Blackmagic Pro kann hardwaremässig, wenn ein UHD Signal anliegt, dieses in HD ausgeben sodass ich in UHD schneiden kann und es sehr gut auf mein Monitor betrachten kann.
      Da mein PC nicht sehr leistungsfähig ist, i7 2600K, schalte ich beim Schneiden Edius um auf halbe Vorschaugröße, habe dann noch immer FHD auf dem Vorschaumonitor und kann flott schneiden, der Puffer läuft nicht leer.
      Mir reicht das völlig!
      MfG
      Dirk PEL
    • <p>Es gibt da verschiedene Aspekte die Beachtung finden k&ouml;nnen.</p>

      <p>Der 10bit/8bit Unterschied ist ein Punkt - aber eben nur einer. Der wird dann relevant wenn man beginnt in 10bit zu filmen.</p>

      <p>Wenn du in Edius schneidst, dann hast du ohnedies eine bessere Vorschauqualit&auml;t als in Vegas. Sei froh. Wenn man in Vegas UHD schneidet und auf eine Grafikkarte ausgibt, dann bekommst du bei Schwenks auch noch entsprechende leichte Versetzungen von ganzen Bildteilen, die dann leicht nachspringen. Kann man sich so vorstellen als ob ganze horizontale Bildteile leicht versetzt erscheinen. Schwer beschreibbar, ist nur leicht aber macht die Beurteilung mit dem Vorschaubild nicht leichter. Und das hat man bei der Intensity oder der Decklink eben nicht.</p>

      <p>Und ein dritter Punkt ist nat&uuml;rlich die Projekteinstellung - die Gr&uuml;nde daf&uuml;r sind verschieden. Klar kann man in Vegas wie auch in Edius auf halbe Vorschauleistung schalten (in Vegas in der Aufl&ouml;sung der Vorschau direkt, dort macht man das oft um eine ausreichende Vorschauleistung zu bekommen. In Edius gibts das in der Workgroup Version jetzt auch direkt - oder aber indem man sein UHD Projekt auf ein HD Projekt umstellt). Kann auch dort wegen der Vorschauleistung sein, oder aber gerade f&uuml;r Edius kann das auch relevant werden um &uuml;berhaupt eine Vorschau zu bekommen - denn UHD 50p weigert sich Edius an die Decklink auszugeben.</p>

      <p>Da gibts also viele Aspekte.</p>
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • wolfgang schrieb:

      Wenn man in Vegas UHD schneidet und auf eine Grafikkarte ausgibt, dann bekommst du bei Schwenks auch noch entsprechende leichte Versetzungen von ganzen Bildteilen, die dann leicht nachspringen. Kann man sich so vorstellen als ob ganze horizontale Bildteile leicht versetzt erscheinen.


      Das kannst Du abschalten: Da gibt es einen Punkt "auf vertikale Synchronisierung warten" in den Monitoreinstellungen von Vegas. Dann ist der Effekt weg.


      Wenn du in Edius schneidst, dann hast du ohnedies eine bessere Vorschauqualität als in Vegas


      Diese Meinung teilt Bonn nicht.... :thumbdown:

    • Na das ist schon mein Eindruck. Aber bitte sehr.

      Die Monitorsync schaue ich mir an (vermutlich erst am kommenden Wochenende).
      Lieben Gruß,
      Wolfgang

      Grüne Kommentare sind aus der Admin-Funktion geschrieben
      Der Rest ist meine Privatmeinung
    • Achilles schrieb:

      MacMedia schrieb:

      Darum verwenden auch viele Profis nur "günstige" Consumergeräte am Schnittplatz und eher selten einen echten Referenzmonitor.


      Das überrascht mich jetzt aber! ?(


      Ganz einfach - dort geht es meist nicht nur um einen Schnittplatz, sondern um mehrere Schnittplätze und somit auch um eine richtige Stange Geld. Und gerade dieses Geld wird heutzutage nicht mehr so einfach verdient - der Mediensektor ist ziemlich hart umkämpftes Gebeit, gerade was TV-Produktionen angeht. Da wird um jeden Cent gefeilscht, großes Geld verdient man damit aktuell nicht mehr - diese Zeiten sind lange vorbei.....
      Als Moderator verfasste Beiträge durch grüne Schrift erkennbar
    • Will noch mal zum Urtitel zurück.
      Was könnte denn der Einsatz eines 2. 4K-Bildschirms (z.B.) in Verbindung mit einem USB 3.0 4K Ultra HD Display Adapter bedeuten?
      Ist dies so einfach möglich, um den 2. Monitor (TV) als 4K-Vorschau zu nutzen, oder besteht dabei eine Abhänigkeit mit der eingebauten Grafikkarte, welche nur 2K darstellen kann?
      Mir ist das nicht ganz klar. ?(