Beiträge von Snofru

    Vielen Dank für die schönen Erinnerungen! Offensichtlich hattet Ihr dasselbe Wetter wie wir.

    Kaum zu glauben, dass der Jemen damals noch ein intakter Staat war und mitgemacht hat.


    Woran ich mich auch noch erinnere:

    Die Seilbahnfahrt gab wirklich einen tollen Überblick.

    Plasmafernseher waren damals der neueste Schrei und sündhaft teuer. Trotzdem waren sie gefühlt an jeder Ecke und in jedem Pavillon zu sehen, vermutlich kam man wegen des Werbeeffekts günstig(er) an die Geräte heran.

    Insgesamt gab es so ungeheuer viel zu sehen, dass man sich nur ein paar Länder herauspicken konnte.

    Ich war damals auch auf der EXPO 2000, habe meine praktisch allerersten Videoaufnahmen mit der nagelneuen Kamera geschossen, ebenfalls einer miniDV von Panasonic. Die Aufnahmen schienen mir aber schon wenige Jahre später grottig schlecht, zu viele Schwenks, zu viele Zoomfahrten, furchtbar verwackelt. Den Kollegen mit denen ich damas dort war hat es aber trotzdem gefallen, obwohl sie auf einem Videorekorder manuell geschnitten wurden, was die Qualität weiter verschlechterte. Die Bearbeitung am PC habe ich erst später begonnen. Weil mich mein Material nicht überzeugte habe ich es letztlich nie auf eine Festplatte kopiert. Die miniDV-Kassette dürfte sogar noch irgendwo vorhanden sein (aber keine Abspielmöglichkeit).


    Konkret erinnern kann ich mich noch an den Äthiopischen Pavillon. Ein Jahr später in Äthiopien hat unser Reiseführer erzählt, dass die Gebeine der Urfrau "Lucy" in Addis Abeba nie im Original gezeigt werden, zur Expo wurden sie aber extra nach Hannover geflogen.


    Und ich habe sogar noch ein "EXPO 2000"-T-Shirt, offensichtlich gute Qualität :) !

    Bei mir hat sich schon einmal ein Mainboard ohne erkennbaren Grund nach ca. 3 Jahren verabschiedet. Das war dann auch nicht mehr (neu) erhältlich aber es gab noch genügend andere Boards, die zur CPU und den sonstigen Komponenten passten, sogar ziemlich günstig.

    Das war aber wirklich nur einmal in den gut 20 Jahren in denen ich meine PCs selbst zusammen baue.

    Ich denke es geht vor allem darum, die nicht notwendigen Fahrten mit dem Auto zu reduzieren. Unsere Nachbarin fährt schon mal 400m um ein paar Scheiben Wurst zu kaufen. An ihrem Arbeitsplatz sind Parkplätze knapp, deshalb hat sie sich für 140€ im Monat einen Tiefgaragenplatz gemietet, ca. 1 km vom Arbeitsplatz entfernt (Gesamtstrecke 7 km). Damit braucht sie ungefähr genauso lang wie mit dem Bus. Sie möchte "flexibler" sein, ich denke aber auch, es geht um Status (wer was auf sich hält fährt nicht mit dem Bus). Nur wegen ihrer Fahrten zur Arbeit brauchen sie zu zweit auch 2 Autos.


    Ich wohne am Stadtrand von Leipzig, alle Erledigungen bis 10km werden mit dem Fahrrad erledigt, bei Eis & Schnee bis zu 3 km zu Fuß, sonst per Bus. Nur bei schweren Transporten wird das Auto bemüht. Alle gut erreichbaren Ziele werden per Bahn angefahren (Frankfurt, Berlin, München) oder per Flixbus, nur selten wird hier das Auto bemüht (unter 2000 km im Jahr). Mein Golf ist 22 Jahre alt und steht oft wochenlang ungenutzt rum und verbraucht dabei auch keine Resourcen. Ich könnte mir sicher auch was neueres oder größeres leisten, aber wieso?


    PS: Hier ist alles flach, da brauche ich keine elektrische Unterstützung. In hügeligen Regionen würde ich ein Pedelec nehmen, da ist das dann auch kein Problem.

    Die DaVinci Resolve European Live Tour fand am 20.06.2024 im Motorwerk in Berlin statt. Weitere Termine waren zuvor in Madrid und in Amsterdam, hier also die einzige Veranstaltung im deutschsprachigen Raum.


    Obwohl vorher angekündigt wurde, dass die Veranstaltung „wenn möglich“ auf deutsch stattfindet waren doch gefühlt 90% der Vorträge auf Englisch und auch das beratende und kontrollierende Personal sprach eher nicht deutsch.


    Im Foyer waren reichlich Rechner mit DaVinci Resolve aufgebaut (immer die neueste Beta 19) und man konnte mit so ziemlich allen Steuerungsgeräten die Blackmagic zur Verfügung hatte herumspielen. Dabei wurde man vom extrem freundlichen und kompetenten Personal gut beraten. Mit ein paar Kameras von Blackmagic konnte man auch herumspielen, das war aber eher untergeordnet. Zudem gab es ein paar Stände von Partnerfirmen (z.B. AMD) die aber eher wenig ergiebig waren (zumindest für mich).


    Die Vorträge teilten sich in 3 Gruppen, die weitgehend parallel liefen, man musste sich also entscheiden, was man sehen bzw. hören möchte. Im großen Saal berichteten Profis (z.T. aus Hollywood) über ihre Arbeit an Filmprojekten. Das war eher allgemein ausgerichtet und hatte mit DVR nur am Rande zu tun, deshalb habe ich lieber die anderen Veranstaltungen besucht (obwohl das grundsätzlich sicher auch interessant gewesen wäre).


    Im „Certified Training Theatre“ wurden Kurse von professionellen Lehrern zu bestimmten Themen (Grading, Fairlight, Fusion, Social Media, etc) durchgeführt. Dazu standen 20 Plätze mit Laptop bereit. Hier zeigte sich ein grundsätzliches Problem der Veranstaltung: Viel zu viele Teilnehmer (geschätzt über 500) für die Räumlichkeiten und die Ausstattung. Man durfte nur an einem dieser Kurse teilnehmen und musste (sehr) schnell sein, um einen Platz zu ergattern. Das ist mir gelungen bei „Grade: Essential Compositing Techniques for Editors“. Leider wurde der Kurs in atemberaubender Geschwindigkeit durchgezogen und im Prinzip vorausgesetzt, dass man schon genau weiß, wie das alles funktioniert. Deshalb war ich schon nach kurzer Zeit „draußen“, und konnte somit das, was der Kursleiter (auf Englisch) vortrug nicht am Rechner nachvollziehen und habe schließlich nur noch zugehört. Immerhin war es faszinierend zu sehen, welche Möglichkeiten es in DVR (vor allem im Color-Modus) gibt, um Bereiche freizustellen, diese Flächen im Film zu verfolgen und dann zu bearbeiten. Im konkreten Fall wurde z.B. eine Drohne, die einen Rennwagen verfolgt hat aus der Aufnahme entfernt. Die neuen AI-Funktionen scheinen da die Arbeit wirklich zu erleichtern.


    Der dritte Vortragsbereich, „Seminar Theatre“ war für mich am interessantesten, in 30-minütigen Vorträgen wurden spezielle Themen zu DVR vorgestellt. Leider war der Andrang für den kleinen Raum auch hier viel zu groß. Damit die vielen draußen Wartenden auch eine Chance haben, durfte man nach einem Vortrag nicht sitzen bleiben und musste den Saal verlassen, damit konnte man nur maximal jeden 2. Vortrag besuchen (teilweise nur stehend). Diese waren aber sehr kompetent vorgetragen, mit guter Technik ausgestattet (professionelles Video- und Audiosystem), nur einer der von mir besuchten war auf deutsch.


    Ein paar Erkenntnisse:


    Die Version 19 (aktuell noch in Beta) bringt viele interessante Neuerungen:


    „Edit“-Bereich: Mit „Auto Transcription“ können automatisch Untertitel erstellt werden. Außerdem ist es möglich verschiedene Sprecher in verschiedene Spuren zu separieren. Mit „fixed Playhead“ ist es möglich beim Abspielen die aktuelle Position stets in der Mitte der Timeline zu haben. Beim Trimmen kann man per Doppelklick eine deutlich übersichtlichere Darstellung des Trim-Bereiches bekommen.


    Im „Color“-Bereich gibt es jetzt die „Colorslice“-Darstellung. Damit können 6 Farben (incl. „Skin“) per Wheel und Slider separat eingestellt werden. Das sah nach einer deutlich verfeinerten Kontrolle als bisher aus. Mit „Intellitrack“ kann man mit AI-Hilfe Objekte sehr gut verfolgen. Mit „Ultra NR“ gibt es jetzt eine deutlich verbesserte, AI-unterstützte Rauschreduzierung. Zudem gibt es eine verbesserte Reduktion von Bewegungsunschärfe. Im RGB-Mixer gibt es einen neuen „Auto-Normalize“-Schalter und es gibt den neuen Effekt „Film Look Creator“.


    In Fairlight gibt es auch mehr AI: Music Separator kann in einem Musikstück Instrumente und Sänger separieren, Dialogue Separator kann stark verbessert Hintergrundgeräusche oder auch verschiedene Sprecher separieren. Die Beispiele waren echt beeindruckend. Zudem gibt es eine Option, die anhand einer Videoaufnahme einen künstlichen Stereoeffekt erzielen kann. Im Beispiel flog hier ein Flugzeug durchs Bild und der ursprüngliche Mono-Ton folgte ihm.



    Im Vortrag „Smart Creating (fast)“ wurde u.a. gezeigt, was man im „Cut“-Modus (den ich kaum benutze) so alles machen kann. Der Import von Medien ist einfach, die Arbeit mit Aufnahmen von vielen Kameras funktioniert überraschend übersichtlich, die Synchronisation der Spuren sah sehr einfach aus. Außerdem gezeigt wurde die praktische Einbindung von Titeln und der Quick Export. Was mir allerdings am „Cut“-Modus nach wie vor nicht gefällt ist, dass man die Höhe der Spuren in der Timeline nicht verändern kann.



    Unter „AI: Neural Engine“ wurden die Vorzüge der neuen AI-Funktionen nochmal ausführlicher gezeigt.


    Im Edit-Bereich gibt es z.B. verbesserte Audio-Funktionen, voice isolation und de-hall. In „Color“ wurde das intelligente Freistellen von Objekten mit anschließendem Tracking gezeigt. Mit der „Depth Map“ kann man das Bild in unterschiedlichen Graustufen nach (errechneter) Tiefe darstellen. Damit kann man dann auch Objekte, die sich vorne oder hinten im Bild befinden freistellen. Mit „Relight“ kann man im Bild eine künstliche Lichtquelle hinzufügen. Die Effekte „Speedwarp“ (Geschwindigkeit ändern) und „Superscale“ (Auflösung erhöhen) wurden wohl auch mit AI-Hilfe verbessert.



    Der Vortrag „DaVinci Colour Management vs. ACES“ kam zu dem Schluss, dass ACES einfacher in der Handhabung ist, Vorteile durch open source hat und z.B. bei Netflix gefordert wird, aber DaVinci Wide Gammut die etwas besseren Ergebnisse liefert. Es wurde gezeigt, wie man ACES-Material im DaVinci Farbraum bearbeiten und dann wieder als ACES ausgeben kann. Wenn man das mal eingerichtet hat, kann man es als LUT abspeichern.



    Im Vortrag „Fix it in the Post“ wurden mehrere Beispiele gezeigt, wie man Aufnahmen in DVR retten oder zumindest verbessern kann, z.B. per Voice Isolation, Object Removal, Noise Reduction, Deband (Banding entfernen), Face Refinement (Gesichter optimieren), Defocus Background, Relight (mit AI die Helligkeit korrigieren, auch bei extrem überstrahlten oder sehr dunklen Aufnahmen), Frame Replacement (fehlerhafte Frames werden per AI durch berechnete ersetzt), Super Scale (Auflösung erhöhen).


    Im abschließenden Vortrag zu Fairlight (welches ich noch nie benutzt habe) wurde gezeigt wie mächtig auch dieses Audio-Tool innerhalb von DVR ist. Man kann in Teilen einer Tonspur die Geschwindigkeit blitzschnell verändern ohne Schneiden zu müssen, z.B. um bei einer (schlechten) Nachvertonung Lippensynchronität zu erreichen. In der „Layers“-Einstellung werden nicht wie sonst alle Tonspuren miteinander abgespielt, sondern nur die oberste (also so, wie bei den Videospuren auch). Mit „Transient Detection“ kann man den Rhythmus eines Musikstücks erkennen und bei der Weiterbearbeitung berücksichtigen (schien mir sehr kompliziert). Bei vielen Tonspuren kann man mehrere in einen sogenannten „Bus“ gruppieren, also z.B. alle Spuren mit Musik, alle mit gesprochenem Text usw. Diesen „Bus“ kann man dann wie eine einzelne Tonspur bearbeiten, z.B. entrauschen, Lautstärke ändern etc. oder auch mit Effekten versehen (z.B. reverb). Zudem gibt es im Delivery-Bereich in Version 19 unter „Audio Normalization“ jetzt die Möglichkeit den Gesamtton intelligent z.B. YouTube-konform zu machen.



    Insgesamt für mich ein gelungener Tag, schließlich habe ich sehr viel gelernt, war aber auch sehr anstrengend. DaVinci Resolve ist eine unglaublich mächtige Software und Blackmagic Design hat sich wirklich sehr viel Mühe gegeben, das ihren Kunden und potentiellen Kunden zu vermitteln.

    Ich war gestern den ganzen Tag auf der DaVinci Resolve European Live Tour in Berlin. Ich kann da mal einen Bericht über meine Erfahrungen und Erkenntnisse geben.

    Die Mühe mache ich mir aber nur, wenn hier auch Interesse besteht, schließlich habe ich auf meine letzten Beiträge hier exakt 0 Feedback bekommen...

    Bei meiner Sony Alpha 7IV ist Dreck auf dem Sensor schon ein Thema. Danke für den Hinweis mit der ausgeschalteten Kamera, das war mir so noch nicht bewusst.

    Ich versuche auch Objektivwechsel zu minimieren und dann möglichst mit der Kamera nach unten geneigt. Ein Blasebalg ist da auch ein wichtiges Utensil.

    Einmal wurde ich beim Wechseln gestoßen und hatte dann einen fetten Fingerabdruck auf dem Sensor - danke dafür :red: ...

    Parfokale Objektive sind schon ein Thema für die Objektivhersteller, wenn mal eines diese Eigenschaft hat wird es auch beworben.

    Hier gibt es eine Liste solcher Objektive, die aber offensichtlich unvollständig ist.

    So ist auch mein Sony 16-35 4.0 PZ parfokal, mein Tamron 50-400 leider nicht. Mit ersterem sind Zoomfahrten unkritisch (und durch den Powerzoom auch gleichmäßig möglich), mit letzterem an meiner Sony Alpha 7IV geht der Fokus bei Zoomfahrten praktisch immer für kurze Zeit verloren - die Aufnahme ist unbrauchbar.


    Zurück zum eigentlichen Thema: Das 24-105 ist sicherlich ein Top-Objektiv, ich würde allerdings das etwas teurere 20-70 4.0 vorziehen, es ist kleiner und hat den (für mich!) interessanteren Zoombereich, ist aber auch nicht parfokal.

    Das Grundproblem scheint in einem antiken Vertrag zu liegen, der sündhaft viel Geld für mobile Daten verlangt. Selbst bei preiswerten aktuellen Verträgen kosten innerhalb der EU mobile Daten nichts extra, werden ab einer bestimmten Datenmenge aber stark gedrosselt (bis zum Monatsende). Außerhalb der EU kann man zusätzliche Kosten durch Ausschalten von Daten-Roaming vermeiden.

    WLAN ist natürlich grundsätzlich kostenlos. Wieso Dein Smartphone am Flughafen anscheinend nicht auf das WLAN (zumindest zeitweise) zugegriffen hat kann ich aus der Ferne nicht sagen. Vielleicht war es nicht richtig aktiviert oder der Empfang zu schlecht.


    Allgemein: Smartphones versuchen ständig eine Datenverbindung aufzubauen, z.B. um festzustellen ob neue Nachrichten eingetroffen sind, Updates vorliegen etc. Sobald kein WLAN vorhanden ist werden dazu die mobilen Daten verwendet, wenn nicht ausgeschaltet. Ein Vertrag der keine Flatrate für mobile Daten enthält macht bei einem Smartphone wenig Sinn (außer man ist ständig in einem WLAN).

    Danke, Christian!

    Ich hatte kürzlich im Zoo das Objektiv getestet (an der Sony A7IV) und obwohl sich die Tiere sicher nicht so schnell bewegt haben, war der Ausschuss höher als gedacht, evt. aber das Licht auch schlechter. Der Autofokus war auf Spot gestellt, vielleicht versuche ich aber auch mal Breit oder den erweiterten Spot. Ich muss auf jeden Fall noch üben...

    Ich war vor ein paar Wochen auf einem Sting-Konzert und habe ein paar kurze Sequenzen mit dem Samsung Galaxy S23 plus gefilmt. Wen es interessiert, der kann 2 Filme, jeweils nur ein paar Sekunden lang hier und hier herunterladen.

    Beide Filme sind in UHD60p in den Automatikeinstellungen gefilmt und unbearbeitet. Trotz der naturgemäß sehr dunklen und schwierigen Lichtverhältnisse finde ich die Qualität des ersten Films mit der Hauptkamera (entspricht 23mm) überraschend gut. Die "Tele"-Kamera (entspricht 69 mm) im 2. Film (identische Lichtverhältnisse) fällt da vergleichsweise schon deutlich ab, da merkt man den kleineren Sensor mit dem lichtschwächeren Objektiv. Ebenfalls positiv überrascht bin ich über die Tonqualität. Es ist schon immer wieder erstaunlich, welche Technik man doch in so ein kleines, flaches Gerät packen kann.

    Außerdem beachtlich: Die verwendete Stabilisation, da wackelt wirklich nichts.

    - Mit welcher "Film-App" sollte ich arbeiten? // Möchte kein Abo !!!

    Ehrlich gesagt keine Ahnung, ich benutze die auf dem Galaxy vorhandene Foto-App die auch die Video-Einstellungen hat.

    - Wie/woher lade ich die auf mein Handy?

    - Wie bezahlt man die App (mit Visa z.B., falls kostenpflichtig)

    Im Google Play Store aussuchen, die gleichnamige APP ist auf dem Smartphone bereits vorhanden. Geht aber auch aus dem Internet z.B. vom PC aus. Bezahlen kann man da z.B. mit der Kreditkarte. Wer extrem ängstlich ist und seine Daten da nicht eingeben möchte kann ich sich auch im nächstgelegenen Supermarkt neben der Kasse so ein Google-Kärtchen kaufen, da ist dann ein Code zum rubbeln, mit dem kann man auch bezahlen.