Sammelthread zu CGI-Themen, die in anderen Threads eher OT sind...

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Sammelthread zu CGI-Themen, die in anderen Threads eher OT sind...

      ro_max schrieb:

      sondern muss diese erst in der virtuellen Welt erstellen (bzw. erstellen lassen/fertig einkaufen
      da hast Du doch echte Vorteile: andere müssen viel Geld für Flug und Hotel ausgeben, Du kannst Dir die Szenen billig ins Haus holen:

      turbosquid.com/3d-models/3d-model-new-york-cityscape/916615 :thumbsup:



      Gruß Jürgen
    • HJS schrieb:

      da hast Du doch echte Vorteile: andere müssen viel Geld für Flug und Hotel ausgeben, Du kannst Dir die Szenen billig ins Haus holen
      Jain. Für das was ich bis dato für Modelle ausgegeben habe, könnte ich wahrscheinlich ein paar Mal nach New York fliegen.

      Das von Dir verlinkte Modell wäre IMO beispielsweise de facto wertlos, da anscheinend keine Texturen enthalten sind. Die Gebäude sind also weiß/uni. Wozu soll das gut sein? Bestimmt nicht für ein "cinematisches Bild". :) Wollte man z.B. Manhattan in brauchbarer Qualität (d.h. einigermaßen fotorealistisch) abbilden, müsste man ein vielfaches davon investieren (ich würde schätzen, ca. 300-500 USD pro Straßenblock).
      Schon etwas besser z.B. für Hubschrauberansichten (aber aus meiner Sicht "falsches" 3D-Format, .OBJ ist so ungefähr das popeligste Format, das es gibt. Außerdem ist das Modell auf Straßenebene nicht detailliert genug. Wenn ich mir die Polygondarstellung im letzten Vorschaubild ansehe, bekomme ich das große Gruseln; ich schätze mal, da hat jemand einen 3D-Scan der Stadt gemacht und nicht sauber modelliert).

      Ich denke, man sollte den (auch finanziellen) Aufwand von 3D nicht unterschätzen; nicht nur Verreisen ist teuer.
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ----------------------- Meine CGI-Tests auf YouTube. ------------------------
    • ro_max schrieb:

      Schon etwas besser z.B. für Hubschrauberansichten

      da hast Du als Fachmann natürlich ein viel besseres Beispiel verlinkt!

      Kann man da in den Häuserschluchten herumfahren?

      Ich habe mal einige Versuche mit C4D gemacht. Ist sehr interessant, aber auch sehr zeitaufwändig. Mir hat dann etwas die Gedult gefehlt.

      Gruß Jürgen
    • Als Fachmann möchte ich mich nun wirklich nicht bezeichnet. Wie gesagt, ich kann ja noch nicht einmal modellieren.

      HJS schrieb:

      Kann man da in den Häuserschluchten herumfahren?
      Theoretisch schon. Aber wie gut das dann aussieht, hängt auch von der Qualität der Modelle (und einer Reihe anderer Faktoren ab). Ich hatte ohnehin vor, bei Gelegenheit wieder eine Fahrt durch eine Stadt zu machen (ich hatte so etwas bereits vor ca. 4,5 Jahren gemacht, war aber mit dem Ergebnis damals schon nicht so recht zufrieden und heute erst recht nicht: jede Menge Fehler, kaum Details auf Straßenebene, völlig leergefegt, nur 1080p, usw.).

      Und, ja, C4D ist nicht etwas, was man sich mal so eben an einem Wochenende aneignet. Die letzte Woche erschienene neue Version hat auch wieder allerlei Funktionen und Änderungen, mit denen man sich dann erst vertraut machen muss. Aber damit lasse ich mir Zeit, bis die Plugins alle neu adaptiert sind.

      Da dies aber langsam ein wenig OT wird und nur noch am Rande mit einem "cinematischen Bild" zu tun hat, würde ich diese Diskussion bei Bedarf auslagern.
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ----------------------- Meine CGI-Tests auf YouTube. ------------------------
    • Neu

      @HJS
      Danke für das Lob. :)

      HJS schrieb:

      Schade, dass Dein Rechner so lange zum Rendern braucht.
      Es ist nicht so sehr, dass speziell MEIN Rechner so lange benötigt, sondern das liegt eher in der Natur der Sache. Aus ähnlichen Gründen werden selbst in Hollywood CGI-Effekte meines Wissens oft nur in 2K gerendert und dann ggf. hochskaliert.

      In der Vergangenheit habe ich solche Animationen (z.B. den Titanic-Clip) auf mehreren Rechner gleichzeitig berechnen lassen (verteiltes Rendern/Netzwerk-Rendern), was ganz gut ging, weil nur mit Hilfe der CPU gerendert wurde (die Render-Rechner also noch nicht einmal eine dedizierte Grafikkarte benötigten). Nun bin aber seit einem Jahr auf einen GPU-Renderer (Redshift) umgestiegen und jetzt ist Netzwerk-Rendern nicht mehr so einfach, weil jeder Rechner 1) eine (oder mehrere) ähnlich potente Graka(s) braucht und 2) eine Renderlizenz zum Preis von 500 USD im ersten Jahre und danach 250 USD pro Jahr.

      Ich beabsichtige aber, in den nächsten 6-12 Monaten mein Hauptsystem durch eine potentere Neuanschaffung aufzurüsten und hoffe, dass dann auch etwas längere Animationen "machbarer" werden. Im Prinzip warte ich darauf, dass AMD und nVidia in die Pötte kommen.

      BTW: Laut aktuellen Gerüchten soll Lucasfilm für den im Dezember erscheinenden 9. Teil von Star Wars noch mal eben schnell ca. 300 CGI-Spezialisten angeheuert haben und das drei Monate vor der Veröffentlichung. Es gibt Spekulationen, dass die jetzt ganz schnell eine Menge neu machen müssen, weil die Reaktionen im Netz auf die Trailer/Leaks zum Films wohl eher verhalten bis negativ waren und man deshalb möglicherweise Teile des Films ändern will und das ist bei so CGI-lastigen Produktionen sehr zeitaufwändig.
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ----------------------- Meine CGI-Tests auf YouTube. ------------------------
    • Neu

      ro_max schrieb:

      Nun bin aber seit einem Jahr auf einen GPU-Renderer (Redshift) umgestiegen

      Was ich nicht wirklich verstehe ist, dass z.B. Spielekonsolen 4k Bilder sogar in Echtzeit rendern.
      Benutzt Du C4D?

      ro_max schrieb:

      noch mal eben schnell ca. 300 CGI-Spezialisten angeheuert
      So ist das eben, da kann man nur Staunen.

      Gruß Jürgen
    • Neu

      HJS schrieb:

      Was ich nicht wirklich verstehe ist, dass z.B. Spielekonsolen 4k Bilder sogar in Echtzeit rendern.
      Das ist im Spielebereich etwas anderes. "Echtes" Raytracing gibt es dort meines Wissens erst seit den nVidia RTX-Grakas und und dann auch nur mit deutlich reduzierter Framerate (gegenüber nicht Raytracing) und dann wird auch noch allerlei getrickst (z.B. mit verschiedenen LODs (Level of Details), Low-Poly-Modellen, etc.) Und Motion Blur ist im Spielebereich mit seinen hohen Framerates uninteressant (kostet aber in der Animation Rechenzeit).
      Außerdem können die Entwickler die Spiele gerade bei den Konsolen auf eine ganz spezifische Hardware optimieren.

      HJS schrieb:

      Benutzt Du C4D?
      Ja, schon seit 10+ Jahren (mehr oder weniger intensiv und zwischendurch immer mal wieder längere Zeiten auch gar nicht, u.a. wegen Frust mit den Renderzeiten sowie der Lernkurve. Allerdings ist die Hardware natürlich im Laufe der Zeit besser geworden, mit der Lernkurve happert es aber noch. ;) ).
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ----------------------- Meine CGI-Tests auf YouTube. ------------------------
    • Neu

      ro_max schrieb:

      Wie die Renderzeiten mit Cycles aussähen, kann ich natürlich nicht abschätzen.
      Blender ist doch nicht auf Cycles beschränkt! - Ich benutze Blender in Verbindung mit octane und die Renderergebnisse kommen nicht nur recht flott, sondern auch in entsprechender Qualität. Die V2.8 besitzt ja sogar mit EEVEE eine Echtzeit-Renderengine.
      old_det auf https://www.turbosquid.com/Search/Artists/old_det
    • Neu

      old_det schrieb:

      Blender ist doch nicht auf Cycles beschränkt!
      Habe ich auch nicht behauptet. Heute kann man mit den meisten 3D-Programmen unterschiedliche Renderengines kombinieren u.a. ja auch Cycles mit C4D.

      old_det schrieb:

      und die Renderergebnisse kommen nicht nur recht flott, sondern auch in entsprechender Qualität
      Du hast laut Profil auch zwei Grakas, ich nur eine. Das macht schon einen Unterschied aus.

      EEVEE kenne ich genauso wie Blender selbst nicht aus eigener Erfahrung. Für mich wäre ein Echtzeitrendering >=24 Frames pro Sekunde in mindestens FHD-Auflösung; sollte EEVEE das mit 1 oder 2 Grakas schaffen, würde mich das allerdings schon überraschen.
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ----------------------- Meine CGI-Tests auf YouTube. ------------------------
    • Neu

      ro_max schrieb:

      24 Frames pro Sekunde in mindestens FHD-Auflösung; sollte EEVEE das mit 1 oder 2 Grakas schaffen
      Das Echtzeit-Rendering bezieht sich bei EEVEE "nur" auf den Viewport.(Dazu gibts im Netz genug Videos) Das Ausrendern dauert länger, allerdings sehr viel schneller als mit Cycles.Cycles ist allgemein nicht sonderlich schnell. Wenn ich die Bildqualität in etwa gleichsetze, dann bin ich mit octane etwa den Faktor 10 schneller. Mir fehlt momnetan für Animation, auch Test leider die Zeit, aber schaun wir mal vielleicht komm ich in absehbarer Zeit mal zu einen Vergleichstest, dann zeichne ich das mal auf und Du kannst sich selbst davon überzeugen.
      Ich finde, daß das Einrichten der Szene, also auch die richtigen Lichtverhältnisse, Positionierungen etc. mit den resultierenden Proberendern sehr viel Zeitintensiver sind, als das Finalrendering. Bei letzteren muß ich ja nicht daneben sitzen. (PC ist i.d.R. nicht in einer Gewerkschaft und darf durchackern)
      old_det auf https://www.turbosquid.com/Search/Artists/old_det
    • Neu

      old_det schrieb:

      Ich finde, daß das Einrichten der Szene, also auch die richtigen Lichtverhältnisse, Positionierungen etc. mit den resultierenden Proberendern sehr viel Zeitintensiver sind, als das Finalrendering.
      Das ist schon richtig. Gerade bei Volumes oder auch Spielen mit Unschärfe ist jedoch die Vorschau oft nicht aussagekräftig genug und ich muss mir ein Vorschaubild in voller Auflösung (in meinem Fall also UHD) rendern, was mitunter schon mal ein paar Minuten dauert, um die Einstellung überprüfen zu können. Und für die Kontrolle von Bewegungsabläufen und Kamerafahrten eine Animation in niedrigerer Auflösung und Qualität proberendern, weil der Viewport nur noch mit ein paar Frames pro Sekunde dahinstottert und man da nichts mehr vernünftig überprüfen kann.

      old_det schrieb:

      Bei letzteren muß ich ja nicht daneben sitzen.
      Ich setze mich auch nicht daneben, aber ich muss längere Renders schon von Zeit zu Zeit kontrollieren, um z.B. Programmabstürze, oder Windows-Neustarts wegen Updates nicht erst mit zuviel Verspätung festzustellen (beides schon da gewesen).

      old_det schrieb:

      Cycles ist allgemein nicht sonderlich schnell.
      Über Cycles habe ich nur ein paar Demo-/Tutorial Videos von Insydium gesehen, die ein Cycles-Plugin für C4D anbieten. Und dabei war Cycles beim Rendern von Rauch und Feuer (mittels Volumes in deren X-Particles Plugin) deutlich schneller als der CPU-Renderer in C4D.

      Ich hatte mir seinerzeit eine Demo jeweils von Octane und Redshift (aber eben nicht Cycles) gezogen und mir gefiel Redshift irgendwie besser (der Biased-Approach war auch irgendwie näher an dem C4D Physical Renderer, den ich bis dahin immer benutzt hatte). Nun, inzwischen gehört Redshift ja zu Maxon und deshalb erwarte ich in Zukunft eine noch eine engere Kooperation (mir wäre z.B. eine native Unterstützung der C4D-Noises in Redshift - wie es wohl in Arnold bereits der Fall sein soll - durchaus wichtig und auch eine Unterstützung der C4D-Shader wäre schön).
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ----------------------- Meine CGI-Tests auf YouTube. ------------------------
    • Neu

      Ich fummle auch ab und an mit OctaneRender und Lightwave rum. Das geht schon ganz schön flott, wenn ich an frühere Zeiten mit Lightwave auf dem Amiga denke.

      So ein kleines Rechenzentrum itopnews.de/2019/06/mac-pro-to…e-50000-us-dollar-kosten/

      wäre da schon ungeheuer nützlich.

      Und mit turbosquid.com/3d-models/new-york-city-hd-3d-model-1418116 kann man dann auch mal Spiderman durch die Häuserschluchten sich hangeln lassen. Oder auch mal die Transformers etwas Action aufführen lassen. Leider sind mir die Modellpreise "zum Spielen" dann doch zu teuer. Obwohl was ich schon in die Updates von Lightwave und Octane reingebuttert habe, da wäre auch noch so ein Modell drin. Ach neee, lieber doch nicht.
    • Neu

      Ich halte das Ding, bei aller Leistung, für überteuert. Außerdem mag ich das Unternehmen Apple nicht besonders.

      Wie weiter oben erwähnt, warte ich momentan auf AMD und nVidia, genauer gesagt auf die dritte Generation von Threadrippern und eine Nachfolgerin der RTX2080Ti für PCI 4.0.

      Sofern die Software das unterstützt wäre vermutlich ein verteiltes GPU-Rendern mit mehreren Rechnern die wirtschaftlichere Alternative zu dem verlinkten Mac Pro (oder einem vergleichbar teuren PC), zumindest für das finale Rendern.

      Bei einigen meiner Sachen habe ich das zusätzliche Problem, dass stundenlang Simulationsdaten (Feuer, Rauch, Flüssigkeiten) berechnet werden müssen, ohne dass die GPU dabei hilft/helfen kann (aber vielleicht kommt das noch).
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ----------------------- Meine CGI-Tests auf YouTube. ------------------------
    • Neu

      ro_max schrieb:

      Ich halte das Ding, bei aller Leistung, für überteuert. Außerdem mag ich das Unternehmen Apple nicht besonders.
      Das ist bei denen doch Unternehmensphilosophie mit den überteuerten Preisen. Deswegen existieren die doch überhaupt noch. Doch nicht mehr wegen Innovation. Das war mal.

      Was ich aber interessant an der Zusammenstellung von ro_max finde ist, dass er AMD und NVIDIA mischen möchte. AMD CPU und NVIDIA GPU. (Würde ich von den Leistungsdaten auch so sehen)
      Aber andererseits sollte das Zusammenspiel von Produkten einer Firma eigentlich besser sein als wenn man was "zusammenwürfelt" von unterschiedlichen Firmen.

      Graphisch stehe ich auch auf jeden Fall mehr auf NVIDIA. Leider ist aus kompatibilitätsgründen Intel für mich der CPU-Standard. Auch, wenn die sich performancemäßig im Moment echt schwer tun gegenüber den AMD-Mehrkernern.
    • Neu

      ro_max schrieb:

      Fusion hat meines Erachten eine andere Ausrichtung als beispielsweise C4D oder Blender.
      Richtig, deshalb ja auch zusätzlich Blender (das "L" hat meine Tastatur irgendwie verschluckt).
    • Neu

      homer1 schrieb:

      Was ich aber interessant an der Zusammenstellung von ro_max finde ist, dass er AMD und NVIDIA mischen möchte. AMD CPU und NVIDIA GPU.
      Eine solche Kombination fahre ich jetzt seit ca. 15 Monaten und habe bisher keine (Kompatibilitäts)Probleme festgestellt.

      nVidia (bzw. Cuda) ist wegen Redshift "Zwang" und bei den für mich interessanten CPUs hat AMD seit zwei Jahren oder so das bessere Preisleistungsverhältnis; ich bin kein Gamer, der auf Single-Core-Leistung besonderen Wert legt, daher ist mir Multi-Core wichtiger.
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ----------------------- Meine CGI-Tests auf YouTube. ------------------------
    • Neu

      homer1 schrieb:

      Leider ist aus kompatibilitätsgründen Intel für mich der CPU-Standard
      Interressant ist immer, wenn man dann jemand fragt was genau inkompatibel sein soll bekommt man i.d.R. keine Antwort. Ich habe in meinen Rechner nur deshalb einen Intel drinn, weil zu dem Zeitpunkt AMD nichts gescheites im Angebot hatte. Heute würde ich ganz klar einen Ryzen einbauen. Vor ca. 1,5 Jahren hab ich meiner BH einen Rechner zusammengeschraubt mit AMD Ryzen und NVidia GFX-Karte. Der Rechner hat auch keine Kompatibilitätsprobleme. - dieser nicht und einige andere auch nicht, die ich in den letzten 2 Jahren zusammengebaut habe.

      ro_max schrieb:

      und eine Nachfolgerin der RTX2080Ti für PCI 4.0.
      wieso ist dir das so wichtig? - Die Datenübertragung während des Renderns zu den Grafikkarten ist doch recht überschaubar. Der Renderprozess findet komplett in den GPUs statt, sofern selbige genügend eigenes RAM haben und die Szene komplett hineinpasst. Da dauert der Renderprozess trotzdem immer noch länger als das Daten-Nachschaufeln.
      old_det auf https://www.turbosquid.com/Search/Artists/old_det
    • Neu

      old_det schrieb:

      Die Datenübertragung während des Renderns zu den Grafikkarten ist doch recht überschaubar.
      Das hängt von der Szene ab. Bei OVDBs kommen da schnell ein paar hundert MB zusammen und wenn dann noch komplexe Modelle und große Texturen dazukommen...

      old_det schrieb:

      Der Renderprozess findet komplett in den GPUs statt, sofern selbige genügend eigenes RAM haben und die Szene komplett hineinpasst.
      Die Sache mit dem genügend GPU-RAM könnte halt in Zukunft knapp werden. Der Sprung von 11 GB auf mehr ist bei nVidia überproportional teuer. Also muss ich längerfristig damit rechnen, dass aus dem PC-RAM nachgeschaufelt werden muss.

      Davon abgesehen gehe ich davon aus, dass die neuen AMD CPUs auch neue Mobos erfordern und dass die dann ohnehin auch PCI 4.0 unterstützen. Und dann macht es IMO schon Sinn, auch eine entsprechende Graka zu wählen (sofern dann verfügbar).

      Ja, der eigentliche Rendervorgang dauert länger als das Datenschaufeln, aber bei mehreren Grakas addiert sich das natürlich auch.

      Was mich allerdings bei Grakas viel mehr stört als die Frage PCI 3.0 oder 4.0 ist, dass seit RTX bei vielen Anbietern die "Unsitte" entstanden ist, mehr als 2 Slothöhen zu benötigen, was den Einbau von mehreren Karten IMO unnötig erschwert.
      Greetings,
      ro_max

      Grüne Kommentare sind als Mod, der Rest als User geschrieben.
      ----------------------- Meine CGI-Tests auf YouTube. ------------------------
    • Neu

      ro_max schrieb:

      Der Sprung von 11 GB auf mehr ist bei nVidia überproportional teuer.
      Das stimmt. Ich habe allerdings schon etwas Erfahrung mit der Speicherbelegung der Grakas - wenn Du nicht zu viele HDR-Texturen verwendest, dann hast Du mit 11GB schon recht ordentlichen Spielraum.
      edit: hab mal ein Beispiel hinzugefügt: Die Szene enthält bisher 6 Texturen a 4096x4096 und belegt bisher etwa ein viertel des GPU-Speichers. (siehe Daten in roten Rahmen)
      Dateien
      • RAM_GPU.png

        (1,34 MB, 8 mal heruntergeladen, zuletzt: )
      old_det auf https://www.turbosquid.com/Search/Artists/old_det