Beiträge von homer1

    Überbelichtet milchig kann ich mir auch als Stilmittel für einen Traum vorstellen. Eine andere Möglichkeit sind "Geisterbilder" als ein leicht nachlaufendes Bild in leichter Überblendung. Manchmal benutzt man auch den typischen 3D-Effekt der Rot-/GrünBrille an den Konturen, um etwas surreal darzustellen.

    Ansonsten kann man den Traum einfach nach Belieben mit einem Farbfilter verfremden. Bläulich für Kälte, grünlich wie eine Nachtaufnahme, rötlich erotisch heiß. Man muss da etwas den Kontext beachten.


    Eine andere Sache wäre eine abweichende Perspektive. Von Hinten Oben, wie ein allwissender Erzähler. Froschperspektive, wie ein Mäuschen, was etwas beobachtet.

    Deswegen habe ich mich schon davon verabschiedet. Man bekommt in Deutschland nur noch Knüppel zwischen die Beine geworfen. Das macht kein Spaß mehr. Da, wo es interessiert, darf man nicht und da, wo man darf, will man nicht. Ich sehne mich noch an die Anfangszeiten zurück, wo es keine Einschränkungen gab.

    Kurz nach der Zeit, wo Luftbilder noch mit Freigabenummern versehen werden mussten.


    Vorbei ist vorbei. Aber die Erinnerungen kann einem keiner mehr nehmen. Das war vor ca. 12 Jahren.

    Eigenbau, dann DJI von der Stange, Feuerwehr Drohnenflieger und nun gar kein Flieger mehr. Muss noch die Versicherung kündigen, sonst hänge ich noch ein Jahr da drin.

    Wenn ich das richtig deute ist über der Bühne eine Art "Heuboden". Gegebenenfalls könnte man den Ton auch von Oben nach unten aufnehmen. Dann gibt es zum einen keinen Trittschall von unten und man hat die ganze Bühne schallmäßig "im Kasten".

    Da sollte dann auch keiner vorrämpeln.

    Atmo wird in Studios oftmals mit Stützmikrofonen von der Decke aufgenommen.

    Stellt das Objektiv normal scharf oder verändert es dabei den Bildausschnitt, was es für Video ehr unnutzbar macht. Sowas habe ich später erst bei meinem Sony GM 35mm f1.4 festgestellt. Sehr teuer und doch aus obigem Grund schlecht für Video nutzbar. Und das Ding wurde als „Überflieger“ angepriesen. Ich habe mich darüber so geärgert.

    Ich hänge noch bei den externen RAW-Recordern von Atomos. Ninja V und Shogun 7. Die tun, was sie tun sollen mit meiner Sony A7SIII. Zusammen nehmen die auch RAW auf. Das nennt sich ProResRAW und ist so ähnlich, wie bei BlackmagicDesign das BRAW. Wobei der Shogun7 nie mit der A7SIII RAW aufnehmen konnte, obwohl er den besseren Monitor (größer und heller) hat.

    Die Hersteller Inzahlungnahme ist meines Erachtens nur Halsabschneiderei. Teuer verkaufen und billig ankaufen ist da die Devise.


    Auf dem freien Markt kann man viel mehr erzielen. Natürlich mit dem Risiko von „Internetbetrug“. Ware kommt nicht, falsche Ware im Paket, ...


    Ware mit Vor-Ort-Test gegen Cash ist das Wahre!

    Es kann eine Möglichkeit sein eine Beschleunigung mit einer neuen Grafikkarte zu erzielen, aber die Grafikkarte ist nicht das Allheilmittel.


    Wer noch einen etwas betagteren PC besitzt und die neueste Grafikkarte R4090 einbaut wird sich wundern, denn es kann sein, dass die CPU gar nicht schnell genug die Daten für die „Highendgrafikkarte“ anliefern kann.


    Also auf die sinnvolle Mischung welche Grafikkarte passt zu meinem Prozessor und dem Hauptspeicher. Hat man auch die schnellste CPU, dann kann immernoch der Hauptspeicher mit Wartezyklen, weil lahm, ausgebremst werden.


    So pauschal, wie es in dem Video der Filmpraxis rüber kommt, ist es nicht.

    Man kann den Film in Bilder teilen und die Bilder, wie deren Management steuern, wie beispielsweise Adobe ja schon im Photoshop KI für Bildberechnungen nutzen kann. Wenn Mync jetzt alles Bildersammlungen mit Text usw. verwaltet, dann können die einzelnen Bilder auch gephotoshoppt werden. In sofern können sogar „Fremdprodukte“ integriert werden. Oder Luminar könnte dann Bilder anpassen. Ein weites Feld der Möglichkeiten.

    Speech to Text kann dann die KI steuern und der Kommentar sagt, dass das Erdloch verschwand und eine grüne Wiese erschien. Im Bild wird auf einmal ersichtlich, was die Stimme sagt.

    Ich bin bei derartigen Preisunterschieden erst einmal skeptisch.


    Entspricht das Fluid unseren „Gesundheitsstandards“? Nicht, dass das wie bei Textilien ist und auf einmal irgendwelche Azzofarbstoffe in Textilien enthalten sind. Wer weiß, was im Fluid drin ist? Oder der Verdampfer, wird der mit der richtigen Temperatur betrieben, dass sich keine Schadstoffe bilden, wie bei zu heiß gebratenen Kartoffeln (Acrylamid).


    Die Bedenken mögen nicht notwendig sein, aber sind erstmal da.

    Genau das ist gemultiplext. So wäre es ja auch richtig, um den richtigen Ton zum richtigen Bild zu haben, also lippensynchron.

    Ob man vob oder eine DVD/BD ungescrambled als ISO hochläd ist ja wurscht. Wichtig ist, dass es zum einen ein gebräuchliches Format ist und zweitens ohne Extras von jedem NLE erzeugt werden kann. Wobei MKV bei Edius derzeit Essig ist.

    Ich verstehe nicht, warum man dafür mkv benötigt und nicht eine DVD/BD mit mehreren Tonspuren ermöglicht. Sogar im Fernsehen wird live in mehreren Kanälen live „gestreamt“ Deutsch/Original/Blindenkommentar...

    Die professionellen Videoformate beinhalten sogar von Hause aus bis zu 4 oder 12 Tonspuren. Warum man derartige Streams nicht nutzt, sondern mkv vorschreibt, bleibt mir rätselhaft. Sogar der VLC-Player (für mich Standard) kann mehrere Tonkanäle.

    Sogar die Streamingdienste Amazon Prime Video oder Netflix können mehrere Kanäle.

    Für mich haben die Streamingdienste (Youtube, Vimeo, ... ) gepennt.


    Tools, wie

    TMPGEnc MPEG Smart Renderer 6

    können mehrere Tonspuren rein- und rausmultiplexen.

    doch auf der Website gibt es ein Impressum mit diversen Angaben ...

    Auf der Deutschen Seite habe ich kein Impressum gefunden. Lediglich unter Kontakt/Zahlungsinformation ist eine Adresse aufgeführt, was ich aber nicht als namentliches Impressum erkenne. Die liefern demnach aus den Niederlanden, haben ihr Callcenter in Frankfurt und ich habe keine Steuernummer gesehen. Das mag in Holland anders sein, aber wer in Deutschland veröffentlicht, der sollte auch nach lokalen Regeln inserieren.

    Geworben wir mit "kann sechs 8K-Files gleichzeitig abspielen". Toll, aber wer braucht das schon?


    Doch sobald man nur entrauscht oder / und leicht komplexere Filter anwendet, bricht die Leistung ein und man arbeitet plötzlich wieder mit Proxies. Das ist der Unterschied zwischen Werbung und Praxis und deshalb die Erwartungen nicht all zu hoch hängen.

    Ich denke mal, dass man sowas auch in Echtzeit hinbekommt, nur mit welcher Hardware?

    Wenn ich mir eine Workstation mit 48 CPU Cores, zwei oder drei NVIDIA RTX4090 da rein schraube und 4 M.2 SSDs, dann wird das schon fluppen denkt man. Muss aber nicht, denn bei vier verbauten M.2 werden die Lanes anders zugeordnet, so das der Bus an anderer Stelle schmaler wird. Steht im Handbuch der Mainboards. Weiß aber kaum jemand.


    Deshalb gibt es zu den „Spiele-PC“ i7, i9 noch die Profiline mit echten Workstation/Servern. Das sind die Xeons. Die sind auch mit mehr Lanes an den Processor gebunden, haben mehr als 64 GB RAM (bis x Terrabyte) und können auch die Datenmenge schnellstmöglich verarbeiten.


    Aber mal davon ab. Man kann das Pferd auch von hinten aufzäumen. Warum wollt ihr Zehntausende ausgeben für „Entrauschen“. Kauft eine vernünftige Lichtempfindliche Kamera A7S3 oder A9S3 und ihr braucht nicht entrauschen. Alles eine Frage der Prioritäten.

    Ich lade mir schon mal Schnipsel von Youtube und möchte Ausschnitte verwerten (Diverse Pleiten, Pech und Pannen-Videos) und ärgere mich schwarz, dass ich weder VP9 noch AV1 in Edius zur Bearbeitung bewegen kann. Dann heißt es wieder Handbrake anwerfen, was ich relativ umständlich und qualitätsschrumpfend empfinde, wenn ich immer erst nochzwischencodieren muss. Das ist ja quasi, wie Proxy erzeugen, wenn man erst mal was Brauchbares draus machen muss.

    Wenn man den derzeitigen Stand i7 4770 mit einem i9 14900K vergleicht, dann ist das wie Nacht und Tag. Ob es dann proxylos geht? Keine Ahnung.

    Jedenfalls sind 24 Kerne und eine 770 UHD GPU schon flott.

    Gibt es spezielle Vegas Händler, die das wissen? Wenn die sagen können, dass die dickste CPU, wie angeführt nicht ausreicht, dann weißt du Bescheid.

    Ich glaube nicht, dass mehrere Tonspuren in Youtube funktionieren.


    Ich habe aber schon mehrere Firmen gesehen, die ein Video mehrfach in verschiedenen Sprachen hochladen. Ob das noch Altlasten sind oder der aktuelle Stand, weiß ich nicht.


    Die betreffenden Videos waren 1xdeutsch und 1xenglisch.