Beiträge von ro_max

    Ich kann mir bislang nicht vorstellen, dass eine iGPU Resolve beschleunigt.

    Verwundert mich jetzt nicht so wirklich. Selbst wenn man die iGPU für das Decodierung einsetzt, ist es vermutlich zu aufwendig, die Daten dann erst wieder zu der Haupt-GPU zu schieben, als dass sich eine Zeitgewinn lohnen würde. Dass die dedizierte GPU (wenn man ein einigermaßen potentes Modell hat), die iGPU hinsichtlich der allgemeinen Leistung locker schlägt, steht wohl kaum in Frage. Und, im Gegensatz zu der iGPU kann man ggf. mehr als eine GPU einsetzen, wenn man mehr Leistung braucht/will.

    CPU: 97,3%, GPU: 96,6% Auslastung,

    CPU oder iGPU? Um die CPU bzw. deren nicht iGPU-Teil geht es ja nicht.

    Die i-GPU lässt sich auch bei mir nicht alleine aktivieren. Ich vermute, weil die alleine zu wenig Speicher hätte.

    Da die iGPU sich normales RAM abzwackt, glaube ich das weniger.


    ABER ich glaube, dass die i-GPU ohnedies zum Dekodieren mit genutzt wird.

    Hast Du im Taskmanager mal beobachtet, dass die Auslastung der iGPU im Betrieb mit Resolve ansteigt?

    Hängt bei Dir der OS bzw. GUI-Monitor an der NVIDIA oder der iGPU?

    Grundsätzlich glaube (!) ich nämlich, dass Resolve die dedizierte GPU nutzt, habe das aber mangels iGPU im Schnittsystem nicht weiter getestet.

    Mich hat die Frage ja auch nur umgetrieben, weil Wolfgang die starke Unterstützung in Resolve durch die iGPU betont hat,

    Vielleicht kann Wolfgang dann etwas dazu sagen, wie er die iGPU in Resolve aktiviert hat.


    Ich habe zwar Rechner mit iGPU, aber für mich sind die eher überflüssig. Was ich brauche, nicht nur für Resolve, ist Grafikpower von NVIDIA (also z.B. auch keine AMD oder Intel Grakas). "Früher" habe ich für das Rendern mit CPU PCs angeschafft, die gar keine dedizierte Graka hatten, sondern eben nur die iGPU, aber Rendern mit CPU mache ich nicht mehr (außer gelegentlichen Tests mit einzelnen Frames).

    An meinem "Schnittrechner" habe ich keine iGPU sondern nur Grafikkarten. Daher stand ich noch nie vor der Frage, wie ich eine iGPU in DVRS aktivieren könnte.

    Ich bin auch nicht sicher, dass das einen Vorteil bringen würde (also einen weiteren Leistungsschub gegenüber der reinen Nutzung der NVIDIA Graka). Soweit mir bekannt ist, kann DVRS (also die Studio Version) mehr als eine Graka nutzen, aber ich habe das immer auf dedizierte Grakas und nicht auf iGPU bezogen. In meinem Rechner sind z.B. zwei RTX 2080Ti, aber inwieweit die tatsächlich in DVRS auch beide genutzt werden, habe ich noch nicht im Einzelnen geprüft. Mein Flaschenhals ist ja ohnehin nicht die Graka-Arbeit, sondern der Datendurchsatz.

    Aus meiner Sicht ist eine iGPU dann interessant, wenn die NLE eine dedizierte Graka nicht entsprechend nutzt (z.B. (früher) Vegas).


    BTW: Hast Du mal den Haken bei "GPU Selection Auto" herausgenommen? Wenn der gesetzt ist, kann ich bei mir auch keine GPU auswählen, weil Resolve das dann selbst macht.

    Habe mir das auf 4K 65 Zoll angeschaut, und habe an der BQ nichts auszusetzen.

    Berauschend finde ich die BQ für 4K weder auf dem 42" 4K LCD-Monitor noch auf dem 65" 4K OLED TV (Betrachtungsabstand jeweils ca. 1x Diagonale).

    Die Frage ist nur, ob das an dem verwendeten iPhone, den Upload-Einstellungen oder der YT-Neukompression bzw. einer Kombination von allem liegt. Vermutlich wird man das nur mit einem Material feststellen können, damit man das Originalmaterial aus dem iPhone mit der geschnittenen Upload-Version und dem auf YT gezeigten Video vergleichen kann.

    Du sollst da ja auch nicht drüber nachdenken, sondern es muss einfach so etwas mit dir machen.

    Als reiner Zuschauer ist das richtig. Aber wenn, wie ja hier diskutiert wird, es darum geht "mehr als die Wirklichkeit" oder ein "Erleben" in eigenen Werken zu transportieren, dann muss man sich gewisse Gedanken machen, wie man das erreichen könnte und die Werke von anderen gewissermaßen daraufhin "analysieren", wie die das geschafft haben oder eben auch nicht.


    Ich habe mir gestern noch die beiden Verfilmungen von West Side Story von 2021 (Steven Spielberg) und 1961 (Robert Wise) angesehen: die von 1961 funktioniert für mich, die von 2021 nur teilweise. Aber es fällt mir schwer zu sagen, was Spielberg und Co. hätten besser machen können. Mit anderen Worten, beide Versionen "machen etwas mit mir", aber ich kann keine Lehren für eigene "Werke" daraus ziehen.


    Geht nicht, auch, will ich nicht.

    Zum Thema "will ich nicht": ich produziere keine Videofilme mehr und ich werde mir bestimmt nicht die Mühe machen, ein Stadtfest oder einen Strandspaziergang (ja, ich weiß, das sind nur Alltags-Beispiele) als CGI für meine YT-Kanal zu animieren. (Da ich nicht selbst 3D-Modelle mache, wäre die Umsetzung eines Stadtfestes zudem für mich technisch wesentlich schwieriger als z.B. eine Strandszene, wodurch ein gewisser "geht nicht" Faktor hinzukommt).


    Dann wurde die Frage gesellt, was das sein soll, und vor allem: Ist das nicht alles zu theoretisch, diese Essenz?

    Mein Problem ist es eher, die "Essenz" zu erkennen. Was ich nicht erkennen kann, kann ich auch nicht selbst "transportieren" (oder eben nur aus Zufall).

    wie wir zum Beispiel das Wesentliche eines Altstadtfestes oder eines Strandspazierganges einfangen könnten.

    Ehrlich gesagt, habe ich mir noch nie Gedanken dazu gemacht, was das Wesentliche eines Altstadtfestes oder eine Strandspaziergangs sein könnte; ich bezweifel auch, ob ich das immer erkennen bzw. umsetzen könnte, da weder das eine noch das andere etwas ist, was ich besuchen bzw. machen würde.


    Selbst beim Schauen eines Hollywood-Films denke ich nicht weiter darüber nach, was mir der Filmemacher damit sagen wollte, welche Botschaften er mit den Bildern vermitteln wollte. Ich bin da einfach gestrickt. Wenn mir ein Film gefällt, dann "weiß" ich das, ohne das intellektuell weiter zu hinterfragen; wenn ein Film für mich nicht funktioniert, weiß ich das ebenso, auch wenn ich nach dem Anschauen nicht immer sagen kann, worin das Problem im Einzelnen bestand.

    Wenn ich allerdings schon beim erstmaligen Ansehen eines Film "vorspule" (einer der Gründe, warum ich nicht in Kino gehe liegt darin, dass ich das dort nicht kann), so ist das kein gutes Zeichen für den Film (auch wenn dieser gute Kritiken bekommen haben sollte, also anderen zu gefallen scheint). "The Last Duel" von Ridley Scott war so ein Fall: für mich ein langweiliger, "kalter" Film mit Figuren, deren Schicksal und Story mich nicht interessiert, obwohl ich eigentlich durchaus ein Ridley Scott Fan bin (allerdings eher was seine älteren Werke angeht und weniger wegen seiner Filme aus den letzten 20 Jahren). Ich habe mir neulich im Rahmen einer kleiner "Hitchcock-Werksretrospektive" einige seiner bekannten und auch weniger bekannten Filme auf UHD BD angesehen und dabei, mit gewissem Erstaunen, festgestellt dass selbst Hitchcock, neben Klassikern auch eine Reihe von 08/15 Kram gemacht hat und das der "Master of Suspense" durchaus langweilig sein kann.


    Ich will damit sagen, wenn es Meister ihres Fachs oft nicht können, welche Chance haben dann wir Amateure?

    Ich meine, ein Bild oder ein Film sollte immer mehr sein als die Wirklichkeit.

    Das ist vom Zweck des Bilds oder Films abhängig.


    Ich möchte oft lieber weniger als die "Wirklichkeit", also z.B. weder Schneebrille noch Gehörschutz wenn Licht und Ton in Originalstärke daheim reproduziert würden.


    Dass ich den Schnee sehe, rieche, fühle und spüre muss mit einer stimmigen inhaltlichen Komposition erreicht werden.

    Also bisher habe ich noch nie einen Film oder ein Video gesehen, bei dem ich das darin Dargestellte gern "gerochen" hätte. Wäre z.B. eine Geruchsreproduktion ähnlich wie bei Bild und Ton technisch möglich, hätte ich null Interesse daran.


    Und emotionale Ansprache oder ein "Spüren" mit einer stimmigen inhaltlichen Komposition großartig zu transportieren, den Anspruch habe ich an mich auch nicht; das überlasse ich gern den Profis. Ich bin auch nicht sicher, was ich mir unter "Essenz des Erlebten" vorstellen soll, geschweige denn, wie ich die transportieren sollte.


    Mit anderen Worten, man kann aus meiner Sicht über so etwas quasi "theoretisch" diskutieren, aber hier im Forum erwarte ich nicht, dass das jemand in der Praxis realisiert (man darf mich aber gern mittels selbst produziertem Beispiel vom Gegenteil überzeugen).

    bist wirklich sicher?

    Durchaus. Das sind Sequenzen, die aus einzelnen Bilder mit 32-Bit Farbtiefe bestehen, daher hat jedes Bild ca. 70-73 Megabyte und mal 30 FPS ergeben sich mehr als 2 Gigabyte Datendurchsatz pro Sekunde seitens des Rohmaterials. Das schaffen meine Datenträger (externe SSD über USB 3) nicht einmal ansatzweise. Daher ist allein aus diesem Grund mit einem Mehrfachen von Echtzeit zu rechnen.


    und ebend auch das gleiche NLE.

    Jain.

    Es ging mir nicht um einen Vergleich zwischen Stefans Wert und meinem System bzw. meiner NLE (natürlich DVRS), sondern darum, ob 1:1 bei normalem Videomaterial (aus einer Kamera), im Zweifel gerendert mit Vegas, nun eben schnell oder eher langsam ist. Das letzte Mal, das ich so etwas selbst mit Vegas gerendert habe, ist schätzungsweise 8 Jahre her und dann auf Hardware die inzwischen fast 13 Jahre alt ist. Seit ich auf DVRS umgestiegen bin, habe ich keine (mit einer Kamera gefilmten) Projekte mehr gemacht. Ich habe somit keine eigenen Vergleichswerte (an die Renderzeiten von vor 8 Jahren erinnere ich mich nämlich nicht mehr). (BTW: Der Voukoder ist seinerzeit völlig an mir vorbeigegangen sofern es den damals schon gab; da ich in der Regel zu HEVC 10-Bit rendere, lasse ich das die das GPU machen.)

    Oder er will damit angeben wie schnell sein derzeitiger Rechner ist.

    Wäre 1:1 für UHD zu FHD schnell? Ernsthafte Frage, denn ich habe solche Videos schon "ewig" nicht mehr gerendert.


    Bei meinen Videos liege ich für UHD zu UHD in der Regel so bei 3-4:1 (also 3-4x so lange wie das Material selbst ist) bei 24/30p, aber das liegt an dem datenintensiven Ausgangsmaterial (ca. 2.200 MB/s).

    mein Oldi braucht derzeit von 4K zu FHD ungefähr 1:1

    Machst Du so viele Videos, dass die Zeit des finalen Renderns eine große Rolle spielt? Hast Du enge Terminvorgaben, die Du einhalten musst?

    Ich sehe ein, dass beim Schnitt/der Nachbearbeitung eine schnelle Reaktion der NLE und eine flüssige Wiedergabe sinnvoll sind oder dass das Warten auf die Erstellung von Proxies nervt, aber beim finalen Rendern, was vermutlich unbeaufsichtigt abläuft, verstehe ich nicht recht, was z.B. eine Halbierung der Renderzeit praktisch bringt. Aus meiner Sicht wäre ein schnelleres Rendern ein (positiver) Nebeneffekt eines performanteren Systems, aber nicht unbedingt das Hauptziel.

    Wobei aber ein Xeon nur dann Sinn macht, wenn man dessen "Fähigkeiten" (z.B. die Skalierbarkeit) auch tatsäschlich braucht und diese von den Programmen abrufen kann. Also z.B. die PCIe Lanes auch verwendet werden = entsprechende Anzahl an Geräten notwendig/vorhanden sind, und/oder mehrere Anwendungen gleichzeitig laufen.

    Das ist völlig klar. Homer1 hat solche Systeme m. E. ja nur ins Spiel gebracht, um zu demonstrieren, in was man (vermutlich) investieren müsste, um auch bei aufwändigen Effekten/Filtern eine (quasi) Echtzeitleistung zu bekommen. Das war sicherlich nicht als Empfehlung für Stefan gedacht.

    Ihr könnt auch schauen, was sie unter "Solutions" für spezielle Programme empfehlen: Premiere, Davinci usw..

    Leider ist Vegas bei den NLE nicht dabe, sondern nur Premiere Pro und DaVinic Resolve. Wäre interessant gewesen, was die da empfehlen.


    Ich habe spaßeshalber mal bei den Empfehlungen für DaVinic Resolve und Cinema 4D geschaut: die High-Performance-Versionen sehen nicht schlecht aus. Schade, dass Puget Systems nicht hier verkaufen.

    32gb sollen für den Videoschnitt völlig ausreichend und mehr soll oversized sein.

    Als ich damals noch mit Vegas gearbeitet habe, so habe ich öfters die RAM-Preview benutzt und die auf 16 GB gestellt (der Rechner hatte nur 48 GB), für aufwändigere Filter, etc. die sonst nicht in Echtzeit gingen. So etwas ähnliches mache ich heute mit meiner Hauptanwendung auch.


    Davon abgesehen, würde ich auch berücksichtigen, dass die iGPU, die Stefan ja empfohlen wird, sich auch Hauptspeicher abzwackt. Und wenn man mehrere Anwendungen gleichzeitig offen hat, kann etwas mehr RAM auch nicht schaden.


    Ich habe auch die Erfahrung gemacht, allerdings nicht mit Vegas, dass sich eine Anwendung auch bei einer dedizierten Grafikkarte mit eigenem VRAM, zusätzlich noch RAM-Speicher für die GPU holen kann; im Taskmanager habe ich schon Grafik-RAM-Verbrauch von über 30 GB angezeigt bekommen, was mich natürlich überrascht hat, weil die Graka gar nicht so viel hat und die iGPU nicht zum Einsatz kam.


    Auf irgendwelche Gemeinplätze aus Artikeln gebe ich daher nicht so richtig viel, wenn meine persönliche Erfahrung diesen widerspricht.

    sowas wäre für ca. EUR 2000 zu haben:

    Bedeutet das, die Höhe des Budgets ist ca. 2.000 Euro?


    Ansonsten: die CPU ist zwei Generationen zurück (aktuell wäre 14900K, allerdings soll der kaum schneller sein als der 13900K) und die RTX 3080 ist "ausbaufähig". Ob 32 GB Dir reichen, kann ich nicht beurteilen. Mir wäre es zu wenig.

    Hans-Jürgen

    Du hattest geschrieben, dass Resolve ohne Hintergrundrendern bei solchen Dingen ins "stocken" kommt. "Stocken" ist i.d.R. nicht erwünscht, also habe ich den Hinweis darauf als Kritik aufgefasst. Wenn Du damit angesichts der Ersparnis leben kannst, ist es ja in Ordnung.

    aber sobald ich z.B. mit Resolve entrausche, nachschärfe oder andere rechenintensive Filter anwende, kommt das System ohne Hintergrundrendern auch ins stocken.

    Willst Du das in Echtzeit, dann musst Du noch deutlich an GPU-Hardware nachlegen. Aus meiner Sicht ist eine RTX2070 einem i9-13900K nicht würdig; da dürfte es dann doch schon etwas mehr sein. Für manche Sachen haben die aktuellen Karten ca. 2-4x so viel "Dampf". Aber wenn das Budget entsprechend beschränkt war, dann war es halt beschränkt. Nur dann bitte auch nicht über mangelnde Performance bei rechenintensiven (auf der GPU) laufenden Filtern/Effekten beschweren.


    Ich fahre Resolve mit zwei RTX2080Ti und das ist mir oft schon zu "lahm" und auch davon erwarte ich kein Echtzeitleistung bei solchen Filtern. (Ich bekomme sowieso keine Echtzeitleistung, weil die Daten nicht schnell genug vom Massenspeicher ("normale" SSD über USB 3) geliefert werden können (da das System schon mehrere Jahren auf dem Buckel hat, kann ich leider nicht drei m.2 SSDs verbauen).