DaVinci Resolve 16 kommt am 8. April

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Neu

      Das habe ich noch nie gehabt. Welche Grafikkarte und welchen Treiber hast Du in Deinem unbekannten PC????

      Siehe Beitrag 194!
    • Neu

      Leider gibt es auch in diesem Forum wenig qualifizierte Angaben zur Hardware.
      Ich arbeite mit meinem Zweitcomputer auch mit einer GTX 1050 Ti- aber bisher auch da ohne Probleme.

      Peter
    • Neu

      Kenne ich auch nicht.

      Kann vielleicht passieren, wenn man UHD-Material mit einer 2 GB Grafikkarte bearbeiten möchte, aber mit 6, 8 oder 12 GB seltener bis garnicht.
    • Neu

      homer1 schrieb:

      Kann vielleicht passieren, wenn man UHD-Material mit einer 2 GB Grafikkarte bearbeiten möchte,~
      Mein lappy (GT850M - 2GB) kann das nativ auch nicht.
      Aber mit Optimized Media, Einsatz des Proxys, Render Cache und einer Reduzierung der TL auf HD laufen auch 8K. :)

      Apropos:
      HD ~ 1280x720
      HD2 (HDV) ~ 1440x1080 (anamorph 1920x1080)
      FHD ~ 1920x1080
    • Neu

      Am Anfang wurde HD als 1920x1080 definiert. Aber da man das nicht sofort schaffen konnte wurde es HD1 und HD2 genannt.
      ARD und ZDF senden immer noch in HD1, BBC und viel andere in HD2 als 1080i.
      FHD ist nur ein Slogan um zu zeigen das man richtig HD macht in 50p.
      Bruno macht natürlich alles in 1920x1080 50p, das wissen doch allen aus seine viele Erläuterungen die er uns immer wieder mitgeteilt hat ;)
      Sogennante FHD(50p) Sender gibt es nach meinem Wissen noch nicht, so teuer bei der Ausstrahlung über SAT.
      HDV anamorph ist übrigens auf Davinci siecht zu verarbeiten, mit der Studioversion geht es aber man hat seine Mühe alles richtig einzustellen das es als 16:9 angezeigt wird.

      Mit freundlichen Grüßen
    • Neu

      Hans-Jürgen schrieb:

      Welche Kameras waren das denn, bei denen man nur 720p erhalten konnte?
      Hans-Jürgen ich hatte vor Jahren mal die Panasonic AG-HMC150 AVCCAM . Die konnte 720 50p und bei 1080 schaffte sie nur 50i!

      Gruß, Paul

      google.com/url?sa=i&source=ima…12392479974&ictx=3&uact=3
    • Neu

      dirk_pel schrieb:

      ARD und ZDF senden immer noch in HD1, BBC und viel andere in HD2 als 1080i.
      wo wir nun schon dabei sind, könnten wir auch mal wieder diskutieren, was ist besser:
      720p oder 1080i ??!!
      :P
    • Neu

      homer1 schrieb:

      Kann vielleicht passieren, wenn man UHD-Material mit einer 2 GB Grafikkarte bearbeiten möchte, aber mit 6, 8 oder 12 GB seltener bis garnicht.
      Habe DRV16 gerade auf meinem älteren Rechner installiert, der hat nur eine rel. alte GTX-660 Karte mit 2 GB eingebaut. Da kommt die Meldung (Grafikspeicher voll) bei UHD-Dateien recht schnell. Auch im Taskmanager von Win10 wird angezeigt, dass die 2 GB GPU-Memory fast voll sind. 2 GB sind wohl doch etwas zu mager.

      lucifair schrieb:

      was ist besser:
      720p oder 1080i ??!!
      Weder noch - mindestens FHD mit 50p und komplett weg mit diesem Interlaced-Geraffel. :yes:
    • Neu

      lucifair schrieb:

      wo wir nun schon dabei sind, könnten wir auch mal wieder diskutieren, was ist besser:
      720p oder 1080i ??!!
      nach meinen Erfahrungen/Tests damals, ist/war 720p besser als 1080i

      Gruß, Paul
    • Neu

      Wenzi schrieb:

      lucifair schrieb:

      was ist besser:
      720p oder 1080i ??!!
      Weder noch - mindestens FHD mit 50p und komplett weg mit diesem Interlaced-Geraffel. :yes:
      das greift etwas zu kurz.
      Aber ist ja auch schon 'ne Weile her, als die techn. Entscheidung dazu anstand.

      Sicher war die Argumentation für 720p50 damals stimmig, weil die TVs/Monitore noch kleiner waren. Bei 3m Abstand
      sieht man auf nem 30'-Monitor die Auflösung von 1080 nicht gegenüber 720. Aber die 50p sind wahrnehmbar.

      Aber damals hat sich zB Servus-TV dem nicht angeschlossen und 1080i25 entschieden, aber in MBAFF
      (ein intelligenter Zwitter aus P u I)
      Damit lässt sich Ausgabe-seitig (Display) hervorragendes 1080P50 rekonstruieren, wenn der
      DeInterlacer das gut beherrscht. Machen aber leider nicht alle Hersteller, weil's ja nicht gefordert ist.
      Aber somit lässt sich bei fast gleicher Kanal-Bandbreite eine deutlich höhere Darstellungsqualität erzielen
      als bei 720P50. Auf größeren/guten Displays durchaus erkennbar ohne InterlaceFlimmern!