Intros, Übergänge, Effekte, Animationen - Showroom

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Bei den beiden kleinen Schulungsfilmen z.B., aus denen ich hier schon mal ein, zwei Bilder gezeigt hatte,
      hatten wir rund 20 Stellen an denen in der Postpro Bildschirmeinstanzungen gemacht werden mussten, weil in vielen Szenen irgendwo ein Monitor im Blick war.

      Gefilmt wurde mit ausgeschaltetem Monitor.

      Wir haben uns bewusst gegen grüne Monitorbilder (also gegen Nutzung des Greenscreen-Keyers) entschieden, um die natürlichen Spiegelungen und Schattenwürfe auch später im Bild mit eingestanztem Monitorinhalt zu haben.
      Die Monitorinhalte waren wichtig für die Geschichte, deshalb sollte ihr Erscheinungsbild so echt wie möglich sein - wozu die Schatten und Spiegelungen dienten.

      Ebenso war der jeweilige Monitorinhalt genau definiert da geschichtstragend und es handelte sich um bewegte Inhalte, weil an den PCs gearbeitet wurde.

      Dazu kam dann noch, dass sich die Kamera bewegte und die Monitore teilweise von Schauspielern abgedeckt waren, während sich die Kamera auf den Monitor zu oder an ihm vorbei bewegte. (Over The Shoulder Dolly)

      Dazu musste dann der Inhalt des Monitor passend zum Tippen und Sprechen der Schauspieler generiert werden.

      Und ... als wenn das nicht schon genug "Challenge" wäre ... das ganze auch noch auf deutsch und englisch, weil die Filme gleichzeitig auf deutsch und englisch gedreht wurden. Eine Synchronisation der Sprache haben wir verworfen um auch die englische Fassung so echt wie möglich wirken zu lassen.
      Man konnte also die Einstanzungen der deutschen Fassung nicht einfach in die englischen Fassung wieder einfügen.
      Selbst das Tracking musste neu gemacht werden, da sich ein Schauspieler nie hundertprozentig gleich bewegt ... und andere Sprachen auch andere Sprechlängen und damit Körperbewegungen haben.


      Um das Ganze innerhalb des Zeitrahmens und nervenschonend realisieren zu können, haben wir dann folgenden groben Workflow verwendet:

      - NLE und Color: Davinci-Resolve
      - Aus der Resolve Timeline die "Monitor" Szenen jeweils über Fusion-Connect an Fusion übergeben.
      - Aus Fusion via OFX das Camera- und Planar-Tracking direkt an Mocha übergeben.

      Mocha gab die Trackingdaten direkt an Fusion zurück, Fusion gab das gerenderte Compositiongergebnis direkt in die Resolve Timeline zurück.

      Bei nachträglichen Änderungen von z.B. Color-Grading des Kameramaterials oder kleinen Änderungen der Schnitte brauchte man nur aus der Timeline von Resolve Fusion Connect neu starten, in Fusion das Rendering anstoßen und kam direkt wieder zurück.

      Mit zusammengesuchter kostenloser Software, die nicht so sauber ineinander verzahnt, wäre das Projekt nicht so sauber und nervenschonend machbar gewesen.

      Durch die Nutzung der OFX-Schnittstelle für Mocha war es nicht mehr möglich die freie Version von Fusion zu nehmen, sodaß die Studio-Version verwendet wurde. DaVinci verwenden wir ohnehin in der Studio-Version wegen ein paar Features, die nur darin enthalten sind, incl. dem XAVC-I Ausspielformat.


      Die einzige alternative Lösung, die uns bekannt ist und mit der wir das Projekt in dieser Art hätten stemmen können, wäre Autodesk Smoke + Mocha oder Autodesk Flame gewesen.
      Smoke + Mocha sieht aber lizenztechnisch "unangenehmer" aus, Flame on Linux wäre sowieso außerhalb des Projektbudgets gewesen.
      Außerdem sind wir froh, die Macs komplett aus der produktiven Kette verbannt zu haben.


      Als Übergabeformate zwischen den Programmen (Resolve und Fusion) verwenden wir OpenEXR, 16 Bit Float mit den je nach Projekt notwendigen Zusatzlayern.
      Als Ausspielformat aus Resolve kommt XAVC-I zum Einsatz, aus dem wird dann das jeweils benötigte Distributionsformat per MediaEncoder codiert. (Blu-Ray, Youtube/Vimeo, USB-Stick, Facebook, Präsentationsbilderrahmen usw. usw. wie es der Kunde halt braucht)


      Im Nachhinein muss ich sagen, dass für dieses aufwändige und in der Postpro anspruchsvolle Projekt doch erstaunlich wenig Software zum Einsatz kommen musste.


      Da hatte ich früher - als noch Edius als NLE zum Einsatz kam - alleine für einfache Retouchearbeiten, Corner-Pinnig oder einfach nur Schriften, die einem Objekt im Realbild folgten - deutlich mehr Zeit- und Nervenaufwand.


      Da ist es echt unerheblich, ob eine NLE 3 Spuren in Echzeit ab Timeline abspielen kann.
      Die Zeitfresser liegen in der Interaktion der Programme für's Compositing.

      Das habe ich bisher mit freien Programmen - oder auch einzelstehenden wie Edius - nicht in dieser gut funktionierenden Art zusammenbekommen wie es mit Resolve Studio + Fusion Studio + Mocha möglich ist.

      Viele Grüße
      Peter
    • Intro, Outro, Lower Thirds ect. hab ich alles als Composite Shots in Hitfilm extra gespeichert.

      Das bedeutet wenn mir irgendwann auffällt das mir eine Animation im Intro nicht gefällt brauch ich bloß den Composite Shot öffnen, die Animation anpassen und das ganze wieder in den Editor laden.

      Wenn zb. mir der 3D Text nicht gefällt, öffne ich den Intro Composite Shot, kopiere die Keyframes, gehe in Fusion, ändere den 3D Text und füge ihr dann wieder im Composite Shot ein, dann Keyframes wieder einfügen...fertig.
    • Kann Fusion auch so scripten, wie AfterEffects?