Tonqualität bei Kamera-Apps

  • Seit einiger Zeit filme ich bei Gelegenheit mit dem Handy. Dabei nutzte ich die die App "Open Camera" ohne speziell auf den Ton zu achten. Nun habe ich einige Aufnahmen von Guggenmusigen an der Fasnacht gedreht, mit ganz schlechtem Tonergebnis. Es tönt wie aus einem Gartenschlauch!

    Woran kann das liegen? An meinem Billighandy "WIKO Power U20" oder an der Open Source App?

    Ist bei Deiner besseren Ausrüstung der Ton immer brauchbar?

    "Open Camera" habe ich nun ersetzt durch "Libre Kamera" und nun kann man das Resultat wieder ohne Ohrenschmerzen anhören.

    Schau mal mein Tontestvideo:

    Open Camera versus Libre Kamera

  • Ein Handymikrofon ist auf den reinen Sprachbereich optimiert, das damit der Ton nach Gießkanne klingtn wundert mich nicht sonderlich....


    Es klingt halt nach "Telefon" - und nicht mehr! Ein Smartphone ist eben doch keine Kamera ;)

    Als Moderator verfasste Beiträge durch grüne Schrift erkennbar

  • Woran kann das liegen?

    Nun, eigentlich ist das doch klar

    1. das WIKO ist laut den Testberichten wirklich ein Billiggerät mit nicht nur veralteterTechnik, sondern auch schlechter Performance - und das wird dann auch für die Mikros gelten;
      die natürlich auch wesentlich teureren modernen Geräten von Samsung oder Apple sind da leistungsfähiger, und selbst bei denen gibt es Grenzen;
    2. Open Camera nimmt einen 2 Kanalton auf; und so wie sich das Ergebnis anhört, könnte da eine andere Ansteuerung der Mikrofone erfolgen, nämlich (auch) über das Mikrofon, welches sonst beim normalen Telefonieren (Gerät am Ohr) verwendet wird (?);
      Libre Kamera nimmt nur einen Kanal auf und wird dieses "Sprech"-Mic vermutlich nicht nutzen;
    3. schau Dir doch mal Deine Frequenzanalysen an (auch wenn die eigentlich unbrauchbar ist, da nicht logarithmisch = die wichtigen Bereiche unter 5kHz sind bei Deiner Anzeige nicht gut zu erkennen);
      bei Open Camera fehlen einfach die Höhen, von denen Libre wenigsten noch etwas bringt, deshalb die Vermutung 2.;
    4. der Audiorecorder liefert da natürlich das beste Ergebins, nicht nur weil dieser bessere Mics haben dürfte, sonder auch schon durch den PCM-Ton (.wav); AAC ist halt stark komprimiert, quasi mp3.



    Gruß

    Peter

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung

  • Das Problem bei der Tonaufnahme mit externen Aufnahmegeräten ist immer die Synchronisation mit dem Bild. Oft spielt das keine große Rolle (wenn's z.B. nur um Umgebungsgeräusche geht), sobald aber eine Lippen-Synchronisation erforderlich wird, fangen die Probleme an - das macht dann viel Arbeit, weil bei schlechter Aufnahme (hier Handyton) meist keine Ton-Zackenkurve sichtbar ist, bei der eine Automatikfunktion, die viele Schnittprogramme haben, unterstützen kann.

  • Ein Smartphone ist eben doch keine Kamera

    :thumbsup::thumbsup:

    Gruß aus dem Ahrtal! Michael

  • Das Problem bei der Tonaufnahme mit externen Aufnahmegeräten ist immer die Synchronisation mit dem Bild.

    Nun, nicht unbedingt.


    Einerseits bieten die NLEs heute meist eine "Synchronisations-Funktion", die zwei Kameras, oder eben externen und Kameraton automatisch aufeinander abstimmen. Natürlich braucht es dabei dann einen verständlichen Kameraton.

    Z.B. in Edius klappt das wirklich gut, wenn sich das Audio dafür ausreichend unterscheidet = bei Musik oder Sprache (Interview/Theater). Bei Landschaftsaufnahmen, in der dann nur mal kurz jemand was im Hintergrund sagt, wird das eher nicht funktionieren.


    Andererseits (und seit Erfindung der Tonaufnahme immer hilfreich) gibt es die "Klappe". Also einen sehr kurzes akustisches - und möglichst auch optisches - Signal am Anfang oder Ende der Aufnahme.

    Also Händeklatschen oder Fingerschnippsen und später einfach diese Audiospitzen übereinanderlegen reicht für unsere Belage völlig aus.


    Im NLE ist man dabei aber natürlich an die Bildrate des Projektes gebunden. Kann also auch einen Audio-Clip immer nur um ein Einzelbild genau platzieren. Je nach Bildrate sind das dann zwischen 16 (60p) und 42 (24p) Millisekunden.

    Das kann dann halt in sehr ungünstigen Situationen bei der Lippensynchronität einfach nicht richtig passen.


    Aber die guten NLEs bieten da i.d.R. auch eine entsprechende Funktion ein Audio-Offset zu definieren (kann auch anders benannt sein). Also auf der TL nicht den Clip selbst, sondern den Audioinhalt im Bereich von Millisekunden oder sogar sampleweise verschieben zu können.

    Damit kann man dann solche "Ausreißer" in den Griff bekommen.


    Gleiches geht natürlich auch In einem Programm für die Audiobearbeitung, wenn das eigene NLE das nicht bieten sollte.


    Gruß

    Peter

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung

  • Gemeint ist die Audio Recorder App im identischen Gerät mit dem gleichen Mic.

    Ok, ich hatte gedacht, Recorder wäre extern gemeint.


    Zeigt aber dann doch deutliche Unterschiede zwischen PCM und AAC.

    Als Moderator verfasste Beiträge sind durch grüne Schrift erkennbar.

    Rest ist private Meinung