Hallo
Na geh, jetzt fängst du auch mit solchen Spielchen an.
Klar hast Du das behauptet:
Und von diesen 100% oder ganz links/ganz rechts hat keiner geschrieben.
Und dazu hast Du ja eine klare Meinung geäußert:
Man kann sich alles schönreden.
Also die Laufzeitdifferenzen künstlich zu vermehren und welche zu produzieren, die auf der Aufnahme NICHT drauf sind, verändert die Darstellung nicht?
Aha und die Signaldarbietung wird doch verändert.
Worin siehst Du den Unterschied zwischen Darstellung und Darbietung?
Man kann auch kurzen Pulen und Klickgeräuschen feste Werte zuordnen.
Es gibt genügend Literatur zu Experimenten, die so durchgeführt worden sind.
Und eben genau weil Musik und Sprache ein komplexes Frequenzgemisch ist, sind Laufzeitdifferenzen für unser Gehör so wichtig.
Das Gehör analysiert Muster in den Schallstrukturen und vergleicht die Laufzeitunterschiede zwischen diesen Mustern, die links bzw, rechst ankommen (und Pegelunterschiede und spektrale Verfärbungen, der Vollständigkeit halber).
Drum funktioniert das bei Sinus und Rauschen weniger gut, da dort weniger auswertbare Muster enthalten sind. Klickgeräusche und kurze Pulse gehen da besser.
Nicht nur die Hüllkurve wird da berücksichtigt, sondern auch verschiedene Frequenzanteile (sie Sinneszellen im Innenohr sind nach Frequenzbereichen aufgeteilt).
Für die Lokalisation werden bevorzugt diese Laufzeitunterschiede bis zu einer Frequenz von 1,5-3 kHz (je nach Autor) ausgewertet. Drüber nur Pegeldifferenzen (wegen dem Ohrabstand).
Die Laufzeitunterschiede werden bei tieferen Frequenzen auch dann bevorzugt ausgewertet, wenn die Pegeldifferenz bis ca. 20 dB beträgt.
Genau deshalb sollten Pegel- und Laufzeitdifferenzen gleichzeitig in der Aufnahme vorhanden sein.
Äquivalenzstereophonie eben.
Du schreibst ja selber:
Und genau deshalb ist es für eine saubere Lokalisation wichtig, die Laufzeitunterschiede beizubehalten.
Macht man aus einem Laufzeitunterschied ganze 6, so löst man für das Gehör den ursprünglichen Laufzeitunterschied auf, da keiner eindeutig ist.
Dann landet man wieder bei der Intensitätsstereophonie, es zählen nur die Pegelunterschiede.
Und das ist längst nimmer stand der Technik.
Aber wie gesagt:
Wem es gefällt, der soll ruhig so hören.
:M
Nun Gründe sind das keine, sondern eher Spekalutationen, die Du selber anstellst.
Gründe wären das erst, wenn Du zeigst, dass Trinaural auch die Laufzeitunterschiede berücksichtigt.
Die Schaltungen, die hier im Forum gezeigt wurden, lassen die Laufzeitunterschiede unangetastet.
In den Links, die ich postete, hat Sengpiel nicht nur eigene Daten, sondern auch die anderer Tests gezeigt.
Dort sieht man, dass da kein linearer Zusammenhang zwischen Laufzeitdifferenz und Lokalisation besteht.
Das ist eher eine Schwäche des Aufnahmeraums.
Mit einem richtig konfigurierten System in einem richtig behandelten Raum hat der Sweetspot größere Ausmaße.
Selbst in einem EBU-Tech-Paper wird ein sinnvoller Hörbereich mit einem Radius von bis zu 70-80 cm angegeben
Es gibt genug 2 Kanal-Systeme, die nicht so einen engen Sweet Spot erzeugen, wie Du es hier darstellst.
Ich sehe es ähnlich wie Schauki:
Oder zumindest:
Wenn für 2 Kanal produziert, dann mit 2 Kanal wiedergeben.
Wenn für Mehrkanal produziert, dann auch mit der entsprechenden Konfiguration wiedergeben.
All die virtuellen Umrechnungen und Vermanschungen von Signalen sind sachlich betrachtet unsauber.
Dass sie gefallen können, glaube ich gerne.
Ist ja das eigentliche Ziel des ganzen Zirkus.
Es zählt, was am Ende gefällt.
Darauf habe ich gewartet, Fotografie als Analogie ...
Nur zu Tilt-Shift:
Die wird ja zweierlei eingesetzt.
Die einen korrigieren damit stürzende Linien (Architekturphotographen), die anderen verringern durch Kippen der Schärfeebene den Bereich, der Scharf dargestellt wird (Lensbaby & Co)
Schauki meint wohl letzteres.
Bauen wir mal die Analogie sauber auf
HDR entspräche für mich der Dynamikkompression (passt auch begrifflich). Die ist immer notwendig (sonst würde niemand ein Schlagzeug sinnvoll aufnehmen können) und fällt nicht auf, wenn sie richtig eingesetzt wird.
So auch bei sinnvoll eingesetztem HDR in der Fotografie (in der Dunkelkammer gab es eben das Zonensystem, man hat nachbelichtet und abgewedelt).
Die peinlich übertriebenen HDR-Bilder entsprechen dem Loudness-War im Musikbusiness.
Aber mal für mich passendere Foto-Analogien zu 2 Kanal und Trinaural, wenn man ach die menschliche Wahrnehmung berücksichtigt:
Wahrnehmung:
Audio:
Für die Lokalisation wertet das Gehör Pegel- und Laufzeitunterschiede aus.
Foto:
Das Auge wertet mit den Stäbchen der Netzhaut Helligkeitsunterschiede aus (Graustufen), mit den Zäpfchen Farben.
Wiedergabe/Darstellung
Audio:
2 Kanal Stereo bietet Eindeutige und auf einander abgestimmte Pegel- und Laufzeitunterschiede (angenommen, der Tonmensch hat es richtig gemacht)
Trinaural mischt die Pegel neu und stellt sie neu dar, teils schärfer. Laufzeitunterschiede werden in jeweils 6 aufgeteilt und dadurch für das Gehör verwischt. da gibt es nichts eindeutiges mehr
Foto:
Nehmt (in Gimp, Photoshop, etc.) ein Foto her und macht 2 Ebenen draus.
In der einen ebene wandelt Ihr das Bild in Graustufen und erhöht den Kontrast (wie Tri es bei Pegelunterschieden macht).
In der zweiten Ebene nehmt lässt ihr das Farbbild und fügt eine sehr starke Unschärfe hinzu, sodass man die Formen nicht mehr gut erkennen kann, sondern nur mehr Farbkleckse hat.
Legt die beiden Ebenen übereinander.
Siehe da:
Das sieht ja fast wie ein normales Bild aus. Man erkennt alles.
Doch irgendwas ist anders.
Je nach Einstellungen sieht das aus wie ein handcoloriertes SW-Foto oder wie eine colorierte Tuschezeichnung.
Das kann ja sehr gut gefallen.
Sowas hängt sogar in Museen.
Das sagen wir ja die ganze Zeit.
Nur sollte man eben die Argumentation sein lassen, dass es eh richtig ist.
:S
Die Pegel-Lokalisierung entsprich der Lokalisierung durch Intensitätsunterschieden, von denen wir schreiben.
Die Phasen-Lokaliierung eben der Lokalisierung durch Laufzeitunterschiede.
Dennoch sollte man Unterscheiden, ob man diese beiden Themen bezüglich der Mikrophonierung oder bezüglich der Lautsprecherwiedergabe meint.
LG
Babak
P.S.:
@ David: Ja, die LS waren exakt ausgemessen und standen im Kreisbogen.
Wie gesagt: Keiner von denen ist auf der Nudelsuppen daher geschwommen. ;)
Zitat von Brainbox
Beitrag anzeigen
Klar hast Du das behauptet:
Zitat von Brainbox
Beitrag anzeigen
Zitat von Brainbox
Beitrag anzeigen
Zitat von Brainbox
Beitrag anzeigen
Zitat von Brainbox
Beitrag anzeigen
Aha und die Signaldarbietung wird doch verändert.
Worin siehst Du den Unterschied zwischen Darstellung und Darbietung?
Zitat von Brainbox
Beitrag anzeigen
Es gibt genügend Literatur zu Experimenten, die so durchgeführt worden sind.
Und eben genau weil Musik und Sprache ein komplexes Frequenzgemisch ist, sind Laufzeitdifferenzen für unser Gehör so wichtig.
Das Gehör analysiert Muster in den Schallstrukturen und vergleicht die Laufzeitunterschiede zwischen diesen Mustern, die links bzw, rechst ankommen (und Pegelunterschiede und spektrale Verfärbungen, der Vollständigkeit halber).
Drum funktioniert das bei Sinus und Rauschen weniger gut, da dort weniger auswertbare Muster enthalten sind. Klickgeräusche und kurze Pulse gehen da besser.
Nicht nur die Hüllkurve wird da berücksichtigt, sondern auch verschiedene Frequenzanteile (sie Sinneszellen im Innenohr sind nach Frequenzbereichen aufgeteilt).
Für die Lokalisation werden bevorzugt diese Laufzeitunterschiede bis zu einer Frequenz von 1,5-3 kHz (je nach Autor) ausgewertet. Drüber nur Pegeldifferenzen (wegen dem Ohrabstand).
Die Laufzeitunterschiede werden bei tieferen Frequenzen auch dann bevorzugt ausgewertet, wenn die Pegeldifferenz bis ca. 20 dB beträgt.
Genau deshalb sollten Pegel- und Laufzeitdifferenzen gleichzeitig in der Aufnahme vorhanden sein.
Äquivalenzstereophonie eben.
Du schreibst ja selber:
Zitat von Brainbox
Beitrag anzeigen
Macht man aus einem Laufzeitunterschied ganze 6, so löst man für das Gehör den ursprünglichen Laufzeitunterschied auf, da keiner eindeutig ist.
Dann landet man wieder bei der Intensitätsstereophonie, es zählen nur die Pegelunterschiede.
Und das ist längst nimmer stand der Technik.
Aber wie gesagt:
Wem es gefällt, der soll ruhig so hören.
:M
Zitat von Brainbox
Beitrag anzeigen
Gründe wären das erst, wenn Du zeigst, dass Trinaural auch die Laufzeitunterschiede berücksichtigt.
Die Schaltungen, die hier im Forum gezeigt wurden, lassen die Laufzeitunterschiede unangetastet.
Zitat von Brainbox
Beitrag anzeigen
Dort sieht man, dass da kein linearer Zusammenhang zwischen Laufzeitdifferenz und Lokalisation besteht.
Zitat von Brainbox
Beitrag anzeigen
Mit einem richtig konfigurierten System in einem richtig behandelten Raum hat der Sweetspot größere Ausmaße.
Selbst in einem EBU-Tech-Paper wird ein sinnvoller Hörbereich mit einem Radius von bis zu 70-80 cm angegeben
Es gibt genug 2 Kanal-Systeme, die nicht so einen engen Sweet Spot erzeugen, wie Du es hier darstellst.
Ich sehe es ähnlich wie Schauki:
Zitat von schauki
Beitrag anzeigen
Wenn für 2 Kanal produziert, dann mit 2 Kanal wiedergeben.
Wenn für Mehrkanal produziert, dann auch mit der entsprechenden Konfiguration wiedergeben.
All die virtuellen Umrechnungen und Vermanschungen von Signalen sind sachlich betrachtet unsauber.
Dass sie gefallen können, glaube ich gerne.
Zitat von schauki
Beitrag anzeigen
Es zählt, was am Ende gefällt.
Zitat von Brainbox
Beitrag anzeigen
Nur zu Tilt-Shift:
Die wird ja zweierlei eingesetzt.
Die einen korrigieren damit stürzende Linien (Architekturphotographen), die anderen verringern durch Kippen der Schärfeebene den Bereich, der Scharf dargestellt wird (Lensbaby & Co)
Schauki meint wohl letzteres.
Zitat von Brainbox
Beitrag anzeigen
Bauen wir mal die Analogie sauber auf
HDR entspräche für mich der Dynamikkompression (passt auch begrifflich). Die ist immer notwendig (sonst würde niemand ein Schlagzeug sinnvoll aufnehmen können) und fällt nicht auf, wenn sie richtig eingesetzt wird.
So auch bei sinnvoll eingesetztem HDR in der Fotografie (in der Dunkelkammer gab es eben das Zonensystem, man hat nachbelichtet und abgewedelt).
Die peinlich übertriebenen HDR-Bilder entsprechen dem Loudness-War im Musikbusiness.
Aber mal für mich passendere Foto-Analogien zu 2 Kanal und Trinaural, wenn man ach die menschliche Wahrnehmung berücksichtigt:
Wahrnehmung:
Audio:
Für die Lokalisation wertet das Gehör Pegel- und Laufzeitunterschiede aus.
Foto:
Das Auge wertet mit den Stäbchen der Netzhaut Helligkeitsunterschiede aus (Graustufen), mit den Zäpfchen Farben.
Wiedergabe/Darstellung
Audio:
2 Kanal Stereo bietet Eindeutige und auf einander abgestimmte Pegel- und Laufzeitunterschiede (angenommen, der Tonmensch hat es richtig gemacht)
Trinaural mischt die Pegel neu und stellt sie neu dar, teils schärfer. Laufzeitunterschiede werden in jeweils 6 aufgeteilt und dadurch für das Gehör verwischt. da gibt es nichts eindeutiges mehr
Foto:
Nehmt (in Gimp, Photoshop, etc.) ein Foto her und macht 2 Ebenen draus.
In der einen ebene wandelt Ihr das Bild in Graustufen und erhöht den Kontrast (wie Tri es bei Pegelunterschieden macht).
In der zweiten Ebene nehmt lässt ihr das Farbbild und fügt eine sehr starke Unschärfe hinzu, sodass man die Formen nicht mehr gut erkennen kann, sondern nur mehr Farbkleckse hat.
Legt die beiden Ebenen übereinander.
Siehe da:
Das sieht ja fast wie ein normales Bild aus. Man erkennt alles.
Doch irgendwas ist anders.
Je nach Einstellungen sieht das aus wie ein handcoloriertes SW-Foto oder wie eine colorierte Tuschezeichnung.
Das kann ja sehr gut gefallen.
Sowas hängt sogar in Museen.
Zitat von Brainbox
Beitrag anzeigen
Nur sollte man eben die Argumentation sein lassen, dass es eh richtig ist.
:S
Zitat von wolfus
Beitrag anzeigen
Die Phasen-Lokaliierung eben der Lokalisierung durch Laufzeitunterschiede.
Dennoch sollte man Unterscheiden, ob man diese beiden Themen bezüglich der Mikrophonierung oder bezüglich der Lautsprecherwiedergabe meint.
LG
Babak
P.S.:
@ David: Ja, die LS waren exakt ausgemessen und standen im Kreisbogen.
Wie gesagt: Keiner von denen ist auf der Nudelsuppen daher geschwommen. ;)
Kommentar