Beiträge von gurlt

    Da habe ich auch erhebliche Zweifel. Zudem hätte ich dann wohl erheblich Probleme um wieder zu meinen Standardeinstellungen zu kommen.

    Ich denke ja auch, dass die Chance den Fehler durch einen Werksreset zu beseitigen eher gering ist.

    Denn das kann logischerweise keinen Hardwarefehler beseitigen, der evtl. durch Feuchtigkeit oder einen Schlag/Sturz entstanden ist.

    Helfen würde das evtl. nur bei einem Softwarefehler, wenn da also intern im Gerät etwas falsch "geschaltet" wurde.


    Den Vorschlag hatte ich auch nur deshalb gemacht, weil ein Reset halt ohne Kosten und größere Probleme möglich sein sollte.

    Selbstverständlich werden damit alle Einstellungen zurückgesetzt - das ist ja der Sinn - und müssen hinterher dann neu definiert werden.



    Gruß

    Peter

    Na, Resolve kann eben nicht brennen.


    In Edius haben mir einige Funktionen gefehlt - z.B. bei einer DVD/BD mit mehreren kleinen Filmen diese wahlweise einzeln mit Rücksprung, oder ohne Pause hintereinander abspielen zu können. Da geht bei Edius nur entweder/oder.


    Deshalb Authoring Works, das auch noch andere Vorteile hat

    Und viel komplizierter ist es so auch nicht wirklich. Es kommt halt nur ein Export aus Edius hinzu.

    Den Workflow in Authoring Works fand ich auch immer komfortabler, als in Edius.


    Aber inzwischen habe ich schon einige Jahre keinen Bedarf mehr an einer "Scheibe".



    Gruß

    Peter

    Hi,


    m.E. kommt es da auf das Programm und dessen Gegebenheiten an, mit dem Du die Blu-ray brennst.


    Früher habe ich TMPGEnc Authoring Works genutzt (ist noch auf dem Rechner, aber ich brenne nicht mehr) und dafür aus meinem NLE (Edius) einen H.264-Export (MP4) erzeugt. Den konnte Authoringworks ohne neu rendern zu müssen auf die BD brennen. Nur die Übergänge zwischen einzelnen Dateien mussten noch gerendert werden.

    Die genauen Exporteinstellungen weiß ich jetzt nicht mehr, das ist zu lange her. Aber die ergaben sich quasi aus den BD-Spezifikationen.


    Vielleicht ilft Dir das schon weiter.



    Gruß

    Peter

    Bei Vegas kann das exportieren von verschachtelten Projekten schon mal deutlich langsamer stattfinden als die Projekten separat exportieren.

    Auch im Export gibt es (nach meiner Erfahrung) keine Probleme oder längeren Exportzeiten durch nested Sequenzen.

    Wie Kurt schon schreibt, passiert der Zugriff "zeitlos".



    Eigentlich sollte auch jedes halbwegs professionelle NLE die Möglichkeit von nested Sequenzen bieten. Das ist einfach eine Grundvoraussetzung.



    Aber jetzt lieber zurück zum Thema.... ;)

    PS: Fertige Sequenzen rendere ich mit SHIFT+Q.

    Nur als Erklärung für alle, die sich nicht mit Edius auskennen -


    SHIFT + Q erzeugt in Edius eine permanente Renderdatei für einen oder mehrere Clips, bis hin zur kompletten Sequenz.

    Diese Datei wird automatisch als Clip auf der obersten V-Spur abgelegt und ersetzt somit die auf der TL befindlichen Videoinhalte.


    Theoretisch könnten die Quelldatei-Clips nach SHIFT + Q -Rendern von der TL genommen werden (was aber nicht unbedingt sinnvoll ist, da sich der Schnitt dann bei Bedarf nict wiederherstellen ließe).


    Oder aber - und das macht ggf. mehr Sinn- könnte man dann die Quelldateien selbst aus dem Projekt herauslöschen. Was natürlich den Speicherbedarf erheblich vermindern kann.

    Solange die Clips (sozusagen die Verknüfung zur Quelldatei) im Projekt nicht gelöscht werden, kann man ja bei Bedarf alles wiederherstellen.



    Gruß

    Peter

    irkt sich bei Edius das arbeiten mit nested Sequenzen auch so negativ auf die Ausgabe Geschwindigkeit aus?

    Nein, hätte ich jedenfalls noch nie bemerkt.


    In Edius liegt eine nested Sequenz dann als "Sequenz-Clip" auf der übergeordneten Sequenz (Timeline).

    Dieser Sequenz-Clip lässt sich dann auf der übergeordneten TL ebenso flüssig abspielen, wie er sich selbst als geöffnete Sequenz abspielen lässt. In der Hinsicht besteht also kein Unterschied zu einem Clip irgendeiner anderen Quelldatei (= Kameraaufnahme).


    Im Gegenteil hast Du da sogar den Vorteil, dass Du eine Sequenz, die sich auf Grund von angewendeten Effekten nicht in Echtzeit abspielen lässt, als eigene Sequenz gerendert werden kann (indem man sie dazu öffnet).

    Auf der höheren Ebene ist dieser - ja dann schon gerenderte - Sequenz-Clip dann auch ruckelfrei abspielbar.

    Wenn Du jetzt an der übergeordneten Sequenz Änderungen vornimmst, bleiben die Renderungen der untergeordneten Sequenz aber immer erhalten, da diese ja in ihr stattgefunden hat und nicht auf der übergeordneten Sequenz.

    Also selbst wenn Du auf der übergeordneten Sequenz z.B. den Schnittpunkt dieses Sequenz-Clips veränderst, bleibt die nested Sequenz intern gerendert. Du musst dann lediglich ggf. auf der übergeordneten Sequenz verwendete Übergänge (Blenden) rendern.


    Möchtest Du aus irgendwelchen Gründen die nested Sequenz selbst bearbeiten, dann brauchst Du nur auf den Sequenz-Clip zu klicken und die eigentliche (Unter-)Sequenz öffnet sich. Diese ist ja eine eigenständige Sequenz.



    Ich hoffe ich habe mich einigermaßenverständlich ausgedrückt.


    Gruß

    Peter

    Da aber auch die Möglichkeit gegeben sein soll, zwei oder drei unterschiedliche Fotos gleichzeitig darzustellen, ist der Weg über nested nicht sehr viel effizienter.

    Logisch, da ja dann auf allen Spuren (Tracks) der gleiche Inhalt dargestellt wird.

    Ohne größere Eingriffe könnten dann halt die nested Sequenzen nur zeitverschoben auf die Spuren angewendet werden. Also z.B. so, dass das Bild dann vom Bereich 1 auf 2 und dann auf 3 wandert.


    Wenn die 3 Bereiche die Fotos in einer abweichenden, oder gar individuellen Reihenfolge darstellen sollen, dann muss man diese Reihenfolge halt auch für jeden Bereich einzeln festlegen - z.B. über einzelne Spuren/Tracks. Anders geht es nunmal nicht.

    Da dürfte Dir das von Dir genannte Boris PlugIn aber auch nicht helfen, wenn es das Foto nur in unterschiedlicher Weise spiegelt.


    Nested Sequenzen bieten sich halt insbesondere an um

    1. einen länger Film in gut bearbeitbare Einzelbschnitte ("Kapitel") zu unterteilen;
    2. in einem "gesamt" Film unterschiedliedliche Schnittvarianten längerer Teilbereiche (Sequenzen) durch den Austausch von nested Sequenzen auszuprobieren;
    3. komplizierte Effekt-Konstruktionen (z.B. Titel) vor ungewollten Veränderungen schützen.

    Gruß

    Peter

    Das Nested hatte ich im Hinterkopf, aber habe bisher noch nie damit gearbeitet.

    Ist für mich eines der wichtigsten "Werkzeuge" in einem professionellen NLE und kommt bei mir eigentlich auch in jedem Projekt zur Anwendung.



    Habe inzwischen das Plugin "BBC Trails" von Boris in meinen FX gefunden.

    ... auf den Track angewendet erscheint jedes hinzugefügte Foto 3mal.

    Ok, da ist da natürlich auch eine Möglichkeit.



    Gruß

    Peter

    Hat jemand eine Vermutung, was defekt sein könnte und ob sich eine Reparatur lohnt?

    In aller Regel lohnt sich bei solchen Geräten keine Reparatur. Und die Frage ist auch, ob es überhaut jemand gibt, der die ausführen würde.


    Wenn es in der Kamera die Möglichkeit für einen "Werksreset" gibt, könntest Du diesen mal ausprobieren.

    Bei einem elektonischen (Speicher-)Fehler hättest Du eine Chance, dass dieser so behoben werden kann.

    Ist aber das Display beschädigt (z.B. durch einen Schlag), dann hilft das natürlich nicht.



    Gruß

    Peter

    Vermutlich liegt die Lösung auf einem Track basierenden Plugin / FX

    :gruebel: Aber auch da musst Du doch angeben, wo welches Foto dann erscheinen soll. Also eine wirkliche Erleichterung sehe ich da auch nicht.



    Aber wie wäre es denn damit:

    1. Du legst die Fotos - wie von Dir gewünscht - in der von Dir gewünschten Folge in nur einen einzigen Track (Spur);
      dieser ist dann der "Bearbeitungs-Track", in dem die Durchmischung der Fotos festgelegt und ersichtlich ist;
    2. dann legst Du eine neue leere "Master"-Sequenz an (oder wie auch immer das in Deinem NLEgenannt wird);
    3. in dieser Master-Sequenz legst Du dann den "Bearbeitungs-Track" als verschachtelte (nested) Sequenz auf die nötigen 3 Spuren.

    Somit brauchst Du die Fotos nicht weiter kopieren.

    Jede Änderung an dem "Bearbeitungs-Track" wirkt sich dann auch ohne weiteres Zutun gleich auf alle 3 Wiedergabespuren aus.

    Bei Bedarf können die verschachtelten Sequenzen auch zeitversetzt in der Master-Sequenz verwendet werden, z.B. wenn Du ein "wandern" über die 3 Darstellungen beabsichtigst.




    Gruß

    Peter

    Dazu noch den Tonmodus, abhängig vom gewälten Format:

    Ok, daraus lese ich jetzt nach meinem Verständnis -


    gewähltes Format:

    • SDR - wäre richtig, wenn Du eine ganz normale Ausgabe in dem "althergebrachten" Farbraum Rec. (Bt.)709 erhalten möchtest;
      entspricht also dem was bisher jede übliche Kamera in der "Grundeinstellung" aufnimmt;
      dann sind aber auch Deine Möglichkeiten in der Nachbearbeitung nicht ganz so groß, sondern nur in dem bisher üblichen Rahmen;
    • HLG - erzeugt ein fertiges HDR Content für den Farbraum Bt.2020/Bt.2100 HLG;
      hier solltest Du also ein schon für diesen Farbraum mit seiner höheren Dynamik fertiges Produkt haben, in dem Du dann aber auch bleiben solltest, also den Film auch in einem HDR (HLG) Projekt bearbeiten und wieder nach HLG ausgeben;
      doch dazu brauchst Du dann auch unbedingt eine entsprechende HDR-Vorschau bei der Bearbeitung, sonst ist die Farbkorrektur kaum sinnvoll möglich, sondern eher ein "Stochern im Nebel";
      verwendest Du das HLG im "falschen" (SDR) Farbraum Rec.709, so sind Anpasungen nötig;
    • N-log - hier befindest Du Dich in einem herstellereigenen Format (ähnlich S-log von Sony, oder C-log von Canon - also auch nichts böses) und hast eigentlich den größten Spielraum bei der Nachbearbeitung, kannst dann aussuchen in welche Richtung (SDR oder HDR) Du gehen möchtest;
      nur muss dann das Material entweder automatisch über eine Materialerkennung im NLE, manuell, oder eben mit einer vorgefertigten LUT in den von Dir gewünschten Ziel-Farbraum (bzw. Arbeitsfarbraum des NLEs) gebracht werden;


    Bei N-RAW wäre das dann eigentlich auch nicht anders.

    Nur hättest Du da halt sogar 12bit und damit einen noch größeren "Vorrat" aus dem Du schöpfen könntest.


    Wobei halt N-RAW > SDR aus meiner Sicht relativ wenig Sinn macht.


    Das ganze Thema Farbräume, log, RAW, usw. ist halt am Anfang etwas undurchschaubar, da hier oft auch einiges durcheinder geworfen wird, oder Bezeichnungen (wie HLG) etwas unterschiedliche Bedeutung haben können.


    Da kann man dann schon schnell mal durcheinder kommen....



    Gruß

    Peter

    Ja, das Bild auf der Kamera war flau und kontrastarm. Da war ich darauf vorbereitet, dass es so aussieht....

    ...

    Man kann wohl an der Kamera eine kontrastreichere Darstellung einstellen, selbst wenn man N-Log aufnimmt. Das habe ich aber nicht gemacht.

    Nun wie gesagt, selbst mit einiger Erfahrung ist es nicht ganz leicht mit so einer "flachen" Darstellung bei der Aufnahme umzugehen. Und halt auch unnötig, da die Kameras i.d.R. eben irgendwelche Display-Korrekturen anbieten, z.T. sogar den Import einen LUT für die Darstellung.

    Wichtig ist dann nur, dass - wie in der von Dir zitierte Darstellungshilfe - das dann nicht mit in die Datei "eingebrannt" wird.



    Ist aber alles kein Problem sondern nur eine Gewöhnungssache. Auch was dann hinterher die Farbkorrektur im NLE betrifft.

    Mit dem 10bit N-log-Material hast Du jedenfalls schon eine gute Grundlage mit der Du arbeiten kannst.


    Der 3. Screenshot mit der von Dir erstellten Korrektur sieht doch auch schon recht gut aus. Und wenn Du da mehrere Aufführungen filmen konntest, dann sollte ja auch eine gewisse Auswahl bestehen.


    Vielleicht noch als Tipp (soweit nicht daran schon selbst gedacht) -

    selbstverständlich kann man ja nach der grundlegenden primären Farbkorrektur auch noch weitere Anpassungen in weiteren Schritten machen. Also hier z.B. (eine) Maske(n) mit weichem Rand auf die zu hellen oder zu dunklen Stellen legen und diese somit nachkorrigieren.


    Gruß

    Peter

    Na dann erstmal Glückwunsch.


    Auch wenn es sicherlich etwas stressig war, solange Du dann mit dem Ergebnis zufrieden bist, ist es doch schön.

    Und beim nächsten Mal geht es dann bestimmt auch leichter.





    Was die Filmaufnahme angeht hatte ich ein weiteres Erlebnis. Ich hatte in N-Log gefilmt und mir die LUT von Nikon installiert. Dadurch waren die hellen Stellen völlig ausgebrannt. Total unbrauchbar, keine Zeichnung mehr. Und dabei hat während des Filmens alles gut ausgesehen.

    Hast Du denn während der Aufnahme das Display der Kamera in der Darstellung angepasst, also entweder die von Dir genannte LUT, oder eine andere in der Kamera vorhandene Korrektureinstellung verwendet?


    Wenn nicht, dann sieht man auf dem Display das "flache" Bild der log-Aufnahme.

    Und das ist dann halt nur sehr schwer zu beurteilen, bzw, liegt man dann in den Einstellungen sehr schnell falsch.


    Oder anders gesagt, ohne solche Korrektureinstellung hätte das Bild bei der Aufnahme "flau" wirken müssen.

    Sah es dann "gut" aus, war es übersteuert.



    Gruß

    Peter

    Hi,


    es kommt da wirklich sehr darauf an, in welchem Zusammenhang die Traumszene steht, was "geträumt" wird und was Du mit der Darstellung des Traums eigentlich bezweckst.


    Außerdem kommt es noch darauf an, ob Du den Traum noch inzenieren kannst, oder ob Du eine schon bestehende AUfnahme verwenden willst/musst.



    Es könnte im Film ggf. schon ausreichen "Realität" und "Traum" durch einen Übergang zu trennen.

    Also z.B. den (unruhig, oder seelig träumenden?) Schläfer in Großaufnahme zu zeigen und den Traumgedanken durch eine passende (wie Kurt schreibt lange) Trick?-Blende einzuleiten.

    Dann könnte der Traum danach dann auch ohne große Verfälschung weitergehen.



    Häufig für "Träume" verwendet werden (einzeln oder in Kombination) :

    • Vignette mit unscharfen Rändern und/oder leichte Unschärfen außerhalb der Hauptperson/-handlung;
    • und/oder entsprechende (rosa?) Farbfilter;
    • möglichst eher pasteltöne in der Szene (wenn es ein angenehmer Traum ist);
    • oder halt (wie Kurt auch schon schreibt) von leicht entsättigt, bis hin zu monochrom;
    • oder nur den Hintergrund monochrom, und die Person in Farbe;
    • oder die Szene mit einer leichten (auf das ganze Bild wirkenden) Transparenz;
    • Zeitlupe, bzw. sehr fließender, langsamer Bewegungsablauf;
    • ein ungewöhnlicher Aufnahmewinkel, wie z.B. schräg von untenen;
    • oder grade bei "bösen" Träumen eine insgesamt schiefe" Perspektive


    Und da gibt es sicherlich noch mehr. Wie gesagt kommt es darauf an was Du da ausdrücken möchteste.


    Und noch als als völlig anderer Ansatz für Traumszenen. Eines der wohl berühmtesten Beispiele - der Wizard of Oz.

    Hier sind die "Realszenen" schwarz/weiß und die Traumszene (dort ja der entscheidende Filmtei) in einer kräftigen Farbgebung.


    Gruß

    Peter

    Wer bspw. ein 100-400 an mFT nutzt und will das gleiche, also 200-800 an APS-C oder Vollformat der schleppt da einen richtigen Prügel rum....

    Auf alle Fälle haben die MFTs im Bezug auf Baugröße und Gewicht da erhebliche Vorteile.

    Deshalb ist MFT eigentlich wirklich eine sehr gute und vernünftige "Reisekamera".


    Wobei für APS-C die Rechnung in Deinem Beispiel dann ja ungefähr 120-500 lauten müsste. Was es dann auch schon etwas relativiert.

    Insbes. wenn man dann auch auf APS-C ausgelegte Objektive nimmt. Die sind ja nicht nur preiswerter, sondern auch etwas kleiner und leichter als die Vollformater.


    Das Ganze bedarf halt der Überlegung, was man eigentlich will und tatsächlich braucht. Und da gehen halt oft Ansprüche und Wünsche etwas an der Realität vorbei. Aber egal wie, irgendeinen Kompromiss muss man halt leider immer eingehen.


    Das Problem ist halt, dass die Hersteller einen "Bedarf" erwecken wollen. Und hier ist im Moment halt Vollformat das Zugpferd, mit dem Käufer angelockt werden sollen. Und da das halt auch gelingt, versucht jeder Hersteller auf dieser Welle mitzuschwimmen.


    Die Frage ist also, ob es auch künftig genügend Interessenten für MFT gibt. Solange da eine Nachfrage besteht, werden die Hersteller das auch nicht einstellen und sicherlich auch Weiterentwicklungen auf den Markt bringen. Und wenn nicht, haben wir ja bei den Camcordern gesehen, was dann passiert.


    Gruß

    Peter

    Also ich bin da doch sehr zwiegespalten.


    Einerseits würde mich so ein Gerät quasi als „Kamerakran“ schon interessieren. Aber grade in einer Großstadt wie Berlin sind deren (rechtlich abgesicherte) Einsatzmöglichkeiten doch sehr gering.


    Ich befürchte außerdem, dass diese günstigen Werbeaktionen eher dazu führen werden, dass sich irgendwelche Leute so ein Fluggerät kaufen werden, die sich einen Sch…. um Vorschriften oder Vernunft kümmern. Teilweise ist das ja jetzt schon zu sehen. Und das dürfte dann evtl. zu noch schärferen Einschränkungen führen, obwohl diese natürlich bei solchen Leuten dann auch keine Wirkung haben, sondern nur die belasten, die sich korrekt verhalten.


    Gruß

    Peter

    Falls ich ein 25p Projekt mit meiner Sony ZV-1 anlege und mit einigen
    Smartphonevideos mit VFR-Bildrate(30p) mixe dann stelle ich in EDIUS
    folgendes ein:


    E11_Automatische_Korrektur.png

    Das funktioniert so bei mir, per Edius X und Edius bei einem Timelinmix sehr gut.
    Das Bild oben in #37 ist echt. :pfeifen:

    Oh,

    ich vergaß, dass Deine Geräte und Programme ja immer Einzelanfertigung mit ganz besonderen Eigenschaften sind.


    Lies doch einfach mal die Edius 11 Benutzeranleitung in welchen Fällen diese Einstellung wirkt:

    IMG_0064.png


    Das funktioniert also nur bei einer Kombination Clip-Rate <> Projektrate von:

    • 29.97 : 30.00
    • 59.94 : 60.00
    • 23.976 : 24.00

    Sprich dem „kleinen Unterschied“ der runden zu den verminderten Frameraten.


    Also nicht bei 25p : 30p!!!


    Das Edius 11 jetzt H.264/H.265-Material allgemein besser decodiert, liegt an den dort vorhandenen Verbesserungen. Das bewirkt auch (bei Vorhandensein einer guten GraKa), dass das Abspielen von Mischmaterial besser funktioniert.

    Und wenn Du halt die Clips mit eigentlich abweichender Framerate auf Projektgeschwindigkeit setzt, dann… s.o.

    Vorausgesetzt man ändert die Eigenschaften der Videos nach dem Import im Bin-Fenster auf 25p,
    wird das Smartphonevideo aus der Bin automatisch in CBR 25p auf der Timeline abgelegt.

    Das sind wieder in mehrfaches Hinsicht Halbwahrheiten…


    Eine Änderung der Clip-Eigenschaften verändert nicht das Material oder gar dessen Codierung! Du veränderst lediglich das Abspielverhalten im NLE.

    1. Das Material wird dann lediglich Bild für Bild mit festen 25 fps abgespielt. Dadurch ergibt sich bei 30p Material eine leichte Zeitlupe (Faktor 1,2), die bei Bewegungen im Bild durchaus bemerkbar ist. Eine 5 Sekunden Aufnahme 30p ist dann 6 Sekunden lang.
    2. Und das gilt auch für Bilder mit variabler Bildrate (VFR). Diese werden als 25 fps wiedergegeben, völlig unabhängig davon wie der tatsächliche Bildabstand bei der Aufnahme war. Du hast also vom Prinzip her eine beständig „schwankende“ Wiedergabe, was im Extremfall zum „eiern“ des Bildes führt. Also nichts mit konstanter Bildrate (CFR).
    3. Und mit der Bitrate hat das erst recht nichts zu tun. Ist das Video mit variabler Bitrate (VBR) aufgenommen, wird durch eine Änderung der Abspielgeschwindigkeit noch lange keine konstante Bitrate (CBR).

    Nur die Umwandlung = neue Codierung im NLE, oder durch ein anderes Programm (wie HandBrake) kanndas Material tatsächlich verändern.

    Gruß

    Peter