Sammelthread zu CGI-Themen, die in anderen Threads eher OT sind...

  • da hast Du doch echte Vorteile: andere müssen viel Geld für Flug und Hotel ausgeben, Du kannst Dir die Szenen billig ins Haus holen

    Jain. Für das was ich bis dato für Modelle ausgegeben habe, könnte ich wahrscheinlich ein paar Mal nach New York fliegen.


    Das von Dir verlinkte Modell wäre IMO beispielsweise de facto wertlos, da anscheinend keine Texturen enthalten sind. Die Gebäude sind also weiß/uni. Wozu soll das gut sein? Bestimmt nicht für ein "cinematisches Bild". :-) Wollte man z.B. Manhattan in brauchbarer Qualität (d.h. einigermaßen fotorealistisch) abbilden, müsste man ein vielfaches davon investieren (ich würde schätzen, ca. 300-500 USD pro Straßenblock).
    Schon etwas besser z.B. für Hubschrauberansichten (aber aus meiner Sicht "falsches" 3D-Format, .OBJ ist so ungefähr das popeligste Format, das es gibt. Außerdem ist das Modell auf Straßenebene nicht detailliert genug. Wenn ich mir die Polygondarstellung im letzten Vorschaubild ansehe, bekomme ich das große Gruseln; ich schätze mal, da hat jemand einen 3D-Scan der Stadt gemacht und nicht sauber modelliert).


    Ich denke, man sollte den (auch finanziellen) Aufwand von 3D nicht unterschätzen; nicht nur Verreisen ist teuer.

    Greetings,
    ro_max


    Grüne Kommentare sind als Mod, der Rest als User geschrieben.
    ----------------------- Meine CGI-Tests auf YouTube. ------------------------

  • Schon etwas besser z.B. für Hubschrauberansichten


    da hast Du als Fachmann natürlich ein viel besseres Beispiel verlinkt!


    Kann man da in den Häuserschluchten herumfahren?


    Ich habe mal einige Versuche mit C4D gemacht. Ist sehr interessant, aber auch sehr zeitaufwändig. Mir hat dann etwas die Gedult gefehlt.


    Gruß Jürgen

  • Als Fachmann möchte ich mich nun wirklich nicht bezeichnet. Wie gesagt, ich kann ja noch nicht einmal modellieren.


    Kann man da in den Häuserschluchten herumfahren?

    Theoretisch schon. Aber wie gut das dann aussieht, hängt auch von der Qualität der Modelle (und einer Reihe anderer Faktoren ab). Ich hatte ohnehin vor, bei Gelegenheit wieder eine Fahrt durch eine Stadt zu machen (ich hatte so etwas bereits vor ca. 4,5 Jahren gemacht, war aber mit dem Ergebnis damals schon nicht so recht zufrieden und heute erst recht nicht: jede Menge Fehler, kaum Details auf Straßenebene, völlig leergefegt, nur 1080p, usw.).


    Und, ja, C4D ist nicht etwas, was man sich mal so eben an einem Wochenende aneignet. Die letzte Woche erschienene neue Version hat auch wieder allerlei Funktionen und Änderungen, mit denen man sich dann erst vertraut machen muss. Aber damit lasse ich mir Zeit, bis die Plugins alle neu adaptiert sind.


    Da dies aber langsam ein wenig OT wird und nur noch am Rande mit einem "cinematischen Bild" zu tun hat, würde ich diese Diskussion bei Bedarf auslagern.

    Greetings,
    ro_max


    Grüne Kommentare sind als Mod, der Rest als User geschrieben.
    ----------------------- Meine CGI-Tests auf YouTube. ------------------------

  • @HJS
    Danke für das Lob. :-)

    Schade, dass Dein Rechner so lange zum Rendern braucht.

    Es ist nicht so sehr, dass speziell MEIN Rechner so lange benötigt, sondern das liegt eher in der Natur der Sache. Aus ähnlichen Gründen werden selbst in Hollywood CGI-Effekte meines Wissens oft nur in 2K gerendert und dann ggf. hochskaliert.


    In der Vergangenheit habe ich solche Animationen (z.B. den Titanic-Clip) auf mehreren Rechner gleichzeitig berechnen lassen (verteiltes Rendern/Netzwerk-Rendern), was ganz gut ging, weil nur mit Hilfe der CPU gerendert wurde (die Render-Rechner also noch nicht einmal eine dedizierte Grafikkarte benötigten). Nun bin aber seit einem Jahr auf einen GPU-Renderer (Redshift) umgestiegen und jetzt ist Netzwerk-Rendern nicht mehr so einfach, weil jeder Rechner 1) eine (oder mehrere) ähnlich potente Graka(s) braucht und 2) eine Renderlizenz zum Preis von 500 USD im ersten Jahre und danach 250 USD pro Jahr.


    Ich beabsichtige aber, in den nächsten 6-12 Monaten mein Hauptsystem durch eine potentere Neuanschaffung aufzurüsten und hoffe, dass dann auch etwas längere Animationen "machbarer" werden. Im Prinzip warte ich darauf, dass AMD und nVidia in die Pötte kommen.


    BTW: Laut aktuellen Gerüchten soll Lucasfilm für den im Dezember erscheinenden 9. Teil von Star Wars noch mal eben schnell ca. 300 CGI-Spezialisten angeheuert haben und das drei Monate vor der Veröffentlichung. Es gibt Spekulationen, dass die jetzt ganz schnell eine Menge neu machen müssen, weil die Reaktionen im Netz auf die Trailer/Leaks zum Films wohl eher verhalten bis negativ waren und man deshalb möglicherweise Teile des Films ändern will und das ist bei so CGI-lastigen Produktionen sehr zeitaufwändig.

    Greetings,
    ro_max


    Grüne Kommentare sind als Mod, der Rest als User geschrieben.
    ----------------------- Meine CGI-Tests auf YouTube. ------------------------

  • Nun bin aber seit einem Jahr auf einen GPU-Renderer (Redshift) umgestiegen


    Was ich nicht wirklich verstehe ist, dass z.B. Spielekonsolen 4k Bilder sogar in Echtzeit rendern.
    Benutzt Du C4D?


    noch mal eben schnell ca. 300 CGI-Spezialisten angeheuert

    So ist das eben, da kann man nur Staunen.


    Gruß Jürgen

  • Was ich nicht wirklich verstehe ist, dass z.B. Spielekonsolen 4k Bilder sogar in Echtzeit rendern.

    Das ist im Spielebereich etwas anderes. "Echtes" Raytracing gibt es dort meines Wissens erst seit den nVidia RTX-Grakas und und dann auch nur mit deutlich reduzierter Framerate (gegenüber nicht Raytracing) und dann wird auch noch allerlei getrickst (z.B. mit verschiedenen LODs (Level of Details), Low-Poly-Modellen, etc.) Und Motion Blur ist im Spielebereich mit seinen hohen Framerates uninteressant (kostet aber in der Animation Rechenzeit).
    Außerdem können die Entwickler die Spiele gerade bei den Konsolen auf eine ganz spezifische Hardware optimieren.


    Benutzt Du C4D?

    Ja, schon seit 10+ Jahren (mehr oder weniger intensiv und zwischendurch immer mal wieder längere Zeiten auch gar nicht, u.a. wegen Frust mit den Renderzeiten sowie der Lernkurve. Allerdings ist die Hardware natürlich im Laufe der Zeit besser geworden, mit der Lernkurve happert es aber noch. ;-) ).

    Greetings,
    ro_max


    Grüne Kommentare sind als Mod, der Rest als User geschrieben.
    ----------------------- Meine CGI-Tests auf YouTube. ------------------------

  • Blender ist doch nicht auf Cycles beschränkt!

    Habe ich auch nicht behauptet. Heute kann man mit den meisten 3D-Programmen unterschiedliche Renderengines kombinieren u.a. ja auch Cycles mit C4D.


    und die Renderergebnisse kommen nicht nur recht flott, sondern auch in entsprechender Qualität

    Du hast laut Profil auch zwei Grakas, ich nur eine. Das macht schon einen Unterschied aus.


    EEVEE kenne ich genauso wie Blender selbst nicht aus eigener Erfahrung. Für mich wäre ein Echtzeitrendering >=24 Frames pro Sekunde in mindestens FHD-Auflösung; sollte EEVEE das mit 1 oder 2 Grakas schaffen, würde mich das allerdings schon überraschen.

    Greetings,
    ro_max


    Grüne Kommentare sind als Mod, der Rest als User geschrieben.
    ----------------------- Meine CGI-Tests auf YouTube. ------------------------

  • 24 Frames pro Sekunde in mindestens FHD-Auflösung; sollte EEVEE das mit 1 oder 2 Grakas schaffen

    Das Echtzeit-Rendering bezieht sich bei EEVEE "nur" auf den Viewport.(Dazu gibts im Netz genug Videos) Das Ausrendern dauert länger, allerdings sehr viel schneller als mit Cycles.Cycles ist allgemein nicht sonderlich schnell. Wenn ich die Bildqualität in etwa gleichsetze, dann bin ich mit octane etwa den Faktor 10 schneller. Mir fehlt momnetan für Animation, auch Test leider die Zeit, aber schaun wir mal vielleicht komm ich in absehbarer Zeit mal zu einen Vergleichstest, dann zeichne ich das mal auf und Du kannst sich selbst davon überzeugen.
    Ich finde, daß das Einrichten der Szene, also auch die richtigen Lichtverhältnisse, Positionierungen etc. mit den resultierenden Proberendern sehr viel Zeitintensiver sind, als das Finalrendering. Bei letzteren muß ich ja nicht daneben sitzen. (PC ist i.d.R. nicht in einer Gewerkschaft und darf durchackern)

  • Ich finde, daß das Einrichten der Szene, also auch die richtigen Lichtverhältnisse, Positionierungen etc. mit den resultierenden Proberendern sehr viel Zeitintensiver sind, als das Finalrendering.

    Das ist schon richtig. Gerade bei Volumes oder auch Spielen mit Unschärfe ist jedoch die Vorschau oft nicht aussagekräftig genug und ich muss mir ein Vorschaubild in voller Auflösung (in meinem Fall also UHD) rendern, was mitunter schon mal ein paar Minuten dauert, um die Einstellung überprüfen zu können. Und für die Kontrolle von Bewegungsabläufen und Kamerafahrten eine Animation in niedrigerer Auflösung und Qualität proberendern, weil der Viewport nur noch mit ein paar Frames pro Sekunde dahinstottert und man da nichts mehr vernünftig überprüfen kann.


    Bei letzteren muß ich ja nicht daneben sitzen.

    Ich setze mich auch nicht daneben, aber ich muss längere Renders schon von Zeit zu Zeit kontrollieren, um z.B. Programmabstürze, oder Windows-Neustarts wegen Updates nicht erst mit zuviel Verspätung festzustellen (beides schon da gewesen).


    Cycles ist allgemein nicht sonderlich schnell.

    Über Cycles habe ich nur ein paar Demo-/Tutorial Videos von Insydium gesehen, die ein Cycles-Plugin für C4D anbieten. Und dabei war Cycles beim Rendern von Rauch und Feuer (mittels Volumes in deren X-Particles Plugin) deutlich schneller als der CPU-Renderer in C4D.


    Ich hatte mir seinerzeit eine Demo jeweils von Octane und Redshift (aber eben nicht Cycles) gezogen und mir gefiel Redshift irgendwie besser (der Biased-Approach war auch irgendwie näher an dem C4D Physical Renderer, den ich bis dahin immer benutzt hatte). Nun, inzwischen gehört Redshift ja zu Maxon und deshalb erwarte ich in Zukunft eine noch eine engere Kooperation (mir wäre z.B. eine native Unterstützung der C4D-Noises in Redshift - wie es wohl in Arnold bereits der Fall sein soll - durchaus wichtig und auch eine Unterstützung der C4D-Shader wäre schön).

    Greetings,
    ro_max


    Grüne Kommentare sind als Mod, der Rest als User geschrieben.
    ----------------------- Meine CGI-Tests auf YouTube. ------------------------

  • Ich fummle auch ab und an mit OctaneRender und Lightwave rum. Das geht schon ganz schön flott, wenn ich an frühere Zeiten mit Lightwave auf dem Amiga denke.


    So ein kleines Rechenzentrum https://www.itopnews.de/2019/0…e-50000-us-dollar-kosten/


    wäre da schon ungeheuer nützlich.


    Und mit https://www.turbosquid.com/3d-…-city-hd-3d-model-1418116 kann man dann auch mal Spiderman durch die Häuserschluchten sich hangeln lassen. Oder auch mal die Transformers etwas Action aufführen lassen. Leider sind mir die Modellpreise "zum Spielen" dann doch zu teuer. Obwohl was ich schon in die Updates von Lightwave und Octane reingebuttert habe, da wäre auch noch so ein Modell drin. Ach neee, lieber doch nicht.

  • Ich halte das Ding, bei aller Leistung, für überteuert. Außerdem mag ich das Unternehmen Apple nicht besonders.


    Wie weiter oben erwähnt, warte ich momentan auf AMD und nVidia, genauer gesagt auf die dritte Generation von Threadrippern und eine Nachfolgerin der RTX2080Ti für PCI 4.0.


    Sofern die Software das unterstützt wäre vermutlich ein verteiltes GPU-Rendern mit mehreren Rechnern die wirtschaftlichere Alternative zu dem verlinkten Mac Pro (oder einem vergleichbar teuren PC), zumindest für das finale Rendern.


    Bei einigen meiner Sachen habe ich das zusätzliche Problem, dass stundenlang Simulationsdaten (Feuer, Rauch, Flüssigkeiten) berechnet werden müssen, ohne dass die GPU dabei hilft/helfen kann (aber vielleicht kommt das noch).

    Greetings,
    ro_max


    Grüne Kommentare sind als Mod, der Rest als User geschrieben.
    ----------------------- Meine CGI-Tests auf YouTube. ------------------------

  • Ich halte das Ding, bei aller Leistung, für überteuert. Außerdem mag ich das Unternehmen Apple nicht besonders.

    Das ist bei denen doch Unternehmensphilosophie mit den überteuerten Preisen. Deswegen existieren die doch überhaupt noch. Doch nicht mehr wegen Innovation. Das war mal.


    Was ich aber interessant an der Zusammenstellung von ro_max finde ist, dass er AMD und NVIDIA mischen möchte. AMD CPU und NVIDIA GPU. (Würde ich von den Leistungsdaten auch so sehen)
    Aber andererseits sollte das Zusammenspiel von Produkten einer Firma eigentlich besser sein als wenn man was "zusammenwürfelt" von unterschiedlichen Firmen.


    Graphisch stehe ich auch auf jeden Fall mehr auf NVIDIA. Leider ist aus kompatibilitätsgründen Intel für mich der CPU-Standard. Auch, wenn die sich performancemäßig im Moment echt schwer tun gegenüber den AMD-Mehrkernern.

  • Fusion hat meines Erachten eine andere Ausrichtung als beispielsweise C4D oder Blender.

    Richtig, deshalb ja auch zusätzlich Blender (das "L" hat meine Tastatur irgendwie verschluckt).

  • Was ich aber interessant an der Zusammenstellung von ro_max finde ist, dass er AMD und NVIDIA mischen möchte. AMD CPU und NVIDIA GPU.

    Eine solche Kombination fahre ich jetzt seit ca. 15 Monaten und habe bisher keine (Kompatibilitäts)Probleme festgestellt.


    nVidia (bzw. Cuda) ist wegen Redshift "Zwang" und bei den für mich interessanten CPUs hat AMD seit zwei Jahren oder so das bessere Preisleistungsverhältnis; ich bin kein Gamer, der auf Single-Core-Leistung besonderen Wert legt, daher ist mir Multi-Core wichtiger.

    Greetings,
    ro_max


    Grüne Kommentare sind als Mod, der Rest als User geschrieben.
    ----------------------- Meine CGI-Tests auf YouTube. ------------------------

  • Leider ist aus kompatibilitätsgründen Intel für mich der CPU-Standard

    Interressant ist immer, wenn man dann jemand fragt was genau inkompatibel sein soll bekommt man i.d.R. keine Antwort. Ich habe in meinen Rechner nur deshalb einen Intel drinn, weil zu dem Zeitpunkt AMD nichts gescheites im Angebot hatte. Heute würde ich ganz klar einen Ryzen einbauen. Vor ca. 1,5 Jahren hab ich meiner BH einen Rechner zusammengeschraubt mit AMD Ryzen und NVidia GFX-Karte. Der Rechner hat auch keine Kompatibilitätsprobleme. - dieser nicht und einige andere auch nicht, die ich in den letzten 2 Jahren zusammengebaut habe.


    und eine Nachfolgerin der RTX2080Ti für PCI 4.0.

    wieso ist dir das so wichtig? - Die Datenübertragung während des Renderns zu den Grafikkarten ist doch recht überschaubar. Der Renderprozess findet komplett in den GPUs statt, sofern selbige genügend eigenes RAM haben und die Szene komplett hineinpasst. Da dauert der Renderprozess trotzdem immer noch länger als das Daten-Nachschaufeln.

  • Die Datenübertragung während des Renderns zu den Grafikkarten ist doch recht überschaubar.

    Das hängt von der Szene ab. Bei OVDBs kommen da schnell ein paar hundert MB zusammen und wenn dann noch komplexe Modelle und große Texturen dazukommen...

    Der Renderprozess findet komplett in den GPUs statt, sofern selbige genügend eigenes RAM haben und die Szene komplett hineinpasst.

    Die Sache mit dem genügend GPU-RAM könnte halt in Zukunft knapp werden. Der Sprung von 11 GB auf mehr ist bei nVidia überproportional teuer. Also muss ich längerfristig damit rechnen, dass aus dem PC-RAM nachgeschaufelt werden muss.


    Davon abgesehen gehe ich davon aus, dass die neuen AMD CPUs auch neue Mobos erfordern und dass die dann ohnehin auch PCI 4.0 unterstützen. Und dann macht es IMO schon Sinn, auch eine entsprechende Graka zu wählen (sofern dann verfügbar).


    Ja, der eigentliche Rendervorgang dauert länger als das Datenschaufeln, aber bei mehreren Grakas addiert sich das natürlich auch.


    Was mich allerdings bei Grakas viel mehr stört als die Frage PCI 3.0 oder 4.0 ist, dass seit RTX bei vielen Anbietern die "Unsitte" entstanden ist, mehr als 2 Slothöhen zu benötigen, was den Einbau von mehreren Karten IMO unnötig erschwert.

    Greetings,
    ro_max


    Grüne Kommentare sind als Mod, der Rest als User geschrieben.
    ----------------------- Meine CGI-Tests auf YouTube. ------------------------

  • @gurlt
    Kann man irgendwo ein Beispiel für etwas finden, was Du mit Blender gemacht hast?

    Greetings,
    ro_max


    Grüne Kommentare sind als Mod, der Rest als User geschrieben.
    ----------------------- Meine CGI-Tests auf YouTube. ------------------------

  • Der Sprung von 11 GB auf mehr ist bei nVidia überproportional teuer.

    Das stimmt. Ich habe allerdings schon etwas Erfahrung mit der Speicherbelegung der Grakas - wenn Du nicht zu viele HDR-Texturen verwendest, dann hast Du mit 11GB schon recht ordentlichen Spielraum.
    edit: hab mal ein Beispiel hinzugefügt: Die Szene enthält bisher 6 Texturen a 4096x4096 und belegt bisher etwa ein viertel des GPU-Speichers. (siehe Daten in roten Rahmen)