- Registriert
- 08.11.20
- Beiträge
- 324
Ich bin sehr an gutem/schönem Audio interessiert und finde, dass Apple hier das Feld anführt, was die effektive Wirkung diverser Klang-Optimierungen/Verschönerungen angeht. So habe ich u.a. auch alle IOS-Verbesserungen in Richtung 3D-Audio immer angeschaltet. Vorab direkt: ich weiss, wie hochgradig subjektiv so etwas sein kann...
Jetzt bin ich in der neuen IOS-16-Beta auf etwas gestossen, das sich "Personalisiertes 3D-Audio" nennt. Man findet es in den Systemeinstellungen, wenn die Hörer (in meinem Fall Airpods Pro) mit dem iPhone verbunden sind. Dort erscheint dann auf oberster Ebene "Airpods", und wenn man das antippt und ziemlich nach unten scrollt, dann kommt unter "3D-Audio" die Möglichkeit, dieses Personalisierte 3D-Audio zu aktivieren und einzustellen. Den parallelen Button "Funktionsweise erleben..." sollte man ignorieren, weil das dadurch Abgespielte ja keinen Vergleich mit/ohne ermöglicht und ja auch keine Personalisierung enthält. Also ziemlicher Unsinn mMn...
Beim Aktivieren der Funktion durch das konkrete Personalisieren/Einstellen erlebt man einen ziemlichen Frust. Der erste Teil der Prozedur geht ja noch, weil er ähnlich ist wie bei Face-ID, aber danach müssen die Ohren gescannt werden, und zwar mit dem iPhone von der Seite. Ich hatte das trotz sehr erheblicher Mühe nicht geschafft, war frustriert und wollte schon aufgeben, bis ich auf diesen Artikel stiess. Der erklärt ganz gut, wie man es hinkriegen kann, und verweist diesbezüglich auch auf andere Artikel zum gleichen Thema.
Trotzdem bin ich erst dann richtig weitergekommen, als ich mit einem Spiegel vor der Nase einen Teil des iPhone-Bildschirms, den ich an meine Ohren hielt, sehen und dadurch die passende Scan-Haltung kontrollieren konnte. Das muss man sich mal vorstellen... In diesem Sinn wohl auch noch ziemlich beta, wenn ich mir auch nicht vorstellen kann, wie das zu verbessern wäre. Aber ich bin ja auch nicht Apple...
Jedenfalls ist die Wirkung schon verdammt gut... Ich will jetzt nicht in Hymnen ausbrechen, aber die gewonnene Durchsichtigkeit des Klangbildes ist für mich subjektiv sehr beeindruckend. Interessanterweise ist der Schreiber des oben verlinkten Artikels nicht besonders angetan von der Feature, zitiert selbst aber fairerweise andere Leute, die anderer Meinung sind.
Kurz zur Technik: Man mag sich ja fragen, wie so etwas durch das Scannen von Ohren möglich sein soll? Hört sich doch erstmal reichlich nach Voodoo an... Muss man aber letztlich ja nicht wissen, so wie man bei (s)einem E-Auto ja auch nichts über die chemischen Prozesse der Akkus wissen muss... Meine Hypothese ist, dass aus den Formen von Gesicht und Ohren der Abbildungsprozess von Klang aus originalen physischen Quellen ermittelt wird (z.B. in Bezug auf Frequenz- und Phasen-Übertragungen), und dass dann für die Wiedergabe über die Airpods entsprechende Kompensationen in den transferierten Schall eingearbeitet werden, um der Originalübertragung ans Trommelfell näher zu kommen. Denn das, was insbesondere die Airpods unter normalen Umständen auf das Trommelfell liefern, das kann ja nicht das Gleiche sein, was von der "originalen" Schallquelle wie z.B. einer Konzertbühne ans Trommelfell geliefert wird... Ich hoffe, ich konnte mich verständlich machen, und will das hier auch nicht vertiefen. Muss man wie-gesagt ja auch nicht wissen.
Hier mit diesem Post möchte ich das Ausprobieren sehr empfehlen, und mMn lohnt sich bei Musik-Fans alleine deshalb schon das Installieren der IOS-16-Beta, soweit man einen passenden Apple-Hörer hat.
Disclaimer:
Falls sich eine Bürokratenseele (sorry) aufgefordert fühlen sollte, die Tatsache meines Posting in einem Nicht-Beta-Thread zu kritisieren: ich hatte im Beta-Thread schon die Existenz der neuen Funktion angesprochen, dort aber kein Interesse gefunden. Was ich auch nachvollziehen kann. Deshalb wende ich mich hier - auch am Thread-Titel erkennbar - an diejenigen, die grundsätzlich an neuen Audio-Funktionen interessiert sind und sie ausprobieren wollen.
Have fun!
Jetzt bin ich in der neuen IOS-16-Beta auf etwas gestossen, das sich "Personalisiertes 3D-Audio" nennt. Man findet es in den Systemeinstellungen, wenn die Hörer (in meinem Fall Airpods Pro) mit dem iPhone verbunden sind. Dort erscheint dann auf oberster Ebene "Airpods", und wenn man das antippt und ziemlich nach unten scrollt, dann kommt unter "3D-Audio" die Möglichkeit, dieses Personalisierte 3D-Audio zu aktivieren und einzustellen. Den parallelen Button "Funktionsweise erleben..." sollte man ignorieren, weil das dadurch Abgespielte ja keinen Vergleich mit/ohne ermöglicht und ja auch keine Personalisierung enthält. Also ziemlicher Unsinn mMn...
Beim Aktivieren der Funktion durch das konkrete Personalisieren/Einstellen erlebt man einen ziemlichen Frust. Der erste Teil der Prozedur geht ja noch, weil er ähnlich ist wie bei Face-ID, aber danach müssen die Ohren gescannt werden, und zwar mit dem iPhone von der Seite. Ich hatte das trotz sehr erheblicher Mühe nicht geschafft, war frustriert und wollte schon aufgeben, bis ich auf diesen Artikel stiess. Der erklärt ganz gut, wie man es hinkriegen kann, und verweist diesbezüglich auch auf andere Artikel zum gleichen Thema.
Trotzdem bin ich erst dann richtig weitergekommen, als ich mit einem Spiegel vor der Nase einen Teil des iPhone-Bildschirms, den ich an meine Ohren hielt, sehen und dadurch die passende Scan-Haltung kontrollieren konnte. Das muss man sich mal vorstellen... In diesem Sinn wohl auch noch ziemlich beta, wenn ich mir auch nicht vorstellen kann, wie das zu verbessern wäre. Aber ich bin ja auch nicht Apple...
Jedenfalls ist die Wirkung schon verdammt gut... Ich will jetzt nicht in Hymnen ausbrechen, aber die gewonnene Durchsichtigkeit des Klangbildes ist für mich subjektiv sehr beeindruckend. Interessanterweise ist der Schreiber des oben verlinkten Artikels nicht besonders angetan von der Feature, zitiert selbst aber fairerweise andere Leute, die anderer Meinung sind.
Kurz zur Technik: Man mag sich ja fragen, wie so etwas durch das Scannen von Ohren möglich sein soll? Hört sich doch erstmal reichlich nach Voodoo an... Muss man aber letztlich ja nicht wissen, so wie man bei (s)einem E-Auto ja auch nichts über die chemischen Prozesse der Akkus wissen muss... Meine Hypothese ist, dass aus den Formen von Gesicht und Ohren der Abbildungsprozess von Klang aus originalen physischen Quellen ermittelt wird (z.B. in Bezug auf Frequenz- und Phasen-Übertragungen), und dass dann für die Wiedergabe über die Airpods entsprechende Kompensationen in den transferierten Schall eingearbeitet werden, um der Originalübertragung ans Trommelfell näher zu kommen. Denn das, was insbesondere die Airpods unter normalen Umständen auf das Trommelfell liefern, das kann ja nicht das Gleiche sein, was von der "originalen" Schallquelle wie z.B. einer Konzertbühne ans Trommelfell geliefert wird... Ich hoffe, ich konnte mich verständlich machen, und will das hier auch nicht vertiefen. Muss man wie-gesagt ja auch nicht wissen.
Hier mit diesem Post möchte ich das Ausprobieren sehr empfehlen, und mMn lohnt sich bei Musik-Fans alleine deshalb schon das Installieren der IOS-16-Beta, soweit man einen passenden Apple-Hörer hat.
Disclaimer:
Falls sich eine Bürokratenseele (sorry) aufgefordert fühlen sollte, die Tatsache meines Posting in einem Nicht-Beta-Thread zu kritisieren: ich hatte im Beta-Thread schon die Existenz der neuen Funktion angesprochen, dort aber kein Interesse gefunden. Was ich auch nachvollziehen kann. Deshalb wende ich mich hier - auch am Thread-Titel erkennbar - an diejenigen, die grundsätzlich an neuen Audio-Funktionen interessiert sind und sie ausprobieren wollen.
Have fun!
Zuletzt bearbeitet: