Donnerstag, 29. Oktober 2015

Irreführung gut gemeint

Es ist schon erstaunlich wie die Grundlagen von Digital-Audio noch Jahrzehnte nach der technischen Einführung falsch dargestellt werden. Es ist anscheinend so, daß sich die falschen Darstellungen durch stetige Weiterverbreitung immer wieder selbst bestätigen und in Umlauf halten. Und sie werden so sogar von gutmeinenden Leuten weiterverbreitet, die meinen damit Anderen einen Dienst zu tun, dabei aber eher zur Verwirrung beitragen.

Kürzlich machte mich ein Blogleser auf dieses aktuelle Beispiel aufmerksam. Es ist ein Video auf Englisch, aber die meisten von Euch werden's wohl verstehen. Der "Präsentator" David Domminney Fowler gibt von sich an, er sei "Programmer, Producer and Professional Musician". Was Digital-Audio angeht scheint er jedenfalls nicht über die Basics hinaus gekommen zu sein.

Was macht er falsch? Ich handle das mal in Listenform ab:
  • Fowler kennt offenbar die menschlichen Hörfähigkeiten schlecht. 

Es ist keineswegs so daß die Menschen Frequenzen bis hoch zu 22050 Hz hören würden. So genau kann man die Grenze ohnehin nicht ziehen, denn je höher die Frequenzen werden, desto unempfindlicher wird das Ohr, und der Ton muß immer lauter werden damit man noch was hört. Siehe die alten Kurven von Fletcher/Munson oder Robinson/Dadson oder die normierten von der ISO. Die hören üblicherweise schon bei 16 kHz auf, darüber hören sehr viele Leute bereits nichts mehr, und diejenigen die noch was hören gehören zu den jüngeren Semestern.

Es gibt immer wieder Leute, die behaupten sie könnten noch weit darüber was hören, aber es ist die Frage woher sie das haben. Man kann auch auf Verzerrungen und andere "Falschmeldungen" hereinfallen, wenn man nicht aufpaßt. Wen's interessiert: Hört Euch einmal einen aufsteigenden "Sweep" an, mit Kopfhörer oder per Lautsprecher. So etwas kann man als Datei entweder mit geeigneter Software selbst erzeugen, oder man findet es im Netz. Es sollte nicht zu schnell gehen damit man auch was mitkriegt. Wenn der Pfeifton extrem hoch wird, wird er auch leiser und verschwindet irgendwann. Sollte er in der Tonhöhe zwischendurch wieder niedriger werden, oder springen, dann stimmt was nicht, und man hört "Störungs-Artefakte", aber nicht die höhere Frequenz. Ich würde wetten daß von Euch Lesern so gut wie niemand über 20 kHz hinaus kommen wird. Die allermeisten vermutlich nicht mal über 16 kHz. Das ist normal.

Der Tonhöhenumfang eines üblichen Konzertflügels reicht in etwa von 27 Hz bis knapp unter 9000 Hz. Manche Instrumente haben ein paar Tasten mehr und kommen damit etwas weiter. Für die Musik spielt das aber so gut wie keine Rolle. Andere Instrumente haben tendenziell weniger Tonumfang, allenfalls üppig ausgestattete Kirchenorgeln kommen noch darüber hinaus. Auch der Hinweis auf Obertöne ("Harmonische") zieht nicht wirklich, denn die Töne, für die die Obertöne klangrelevant sind, sind nicht die ganz hohen Töne. Die Obertöne der höchsten Flügelsaite hört so gut wie niemand. Folglich kann man sagen daß sich die Musik, selbst anspruchsvolle Musik, im Frequenzbereich zwischen etwa 30 und 8000 Hz abspielt. Darunter und darüber spielt nur noch eine geringe Rolle, besonders mit steigendem Alter des Hörers.

Ich finde man sollte das als professioneller Musiker und Tonschaffender wissen.

Der üblicherweise angegebene Hörbereich von 20 Hz bis 20 kHz ist damit schon eine großzügige Festlegung, die nur noch von sehr wenigen Personen und Situationen übertroffen werden dürfte, und sie hat darüber hinaus den Vorteil der Einfachheit. Deswegen wurde sie zugrunde gelegt, als man die CD und die weiteren Digital-Audio-Systeme eingeführt hat. Und wie es zu den 44,1 kHz kam ist auch recht einfach erklärbar: Es hat mit dem Mastering zu tun, das in der Anfangsphase der CD nicht auf dem Computer geschah, sondern mit Hilfe von PCM-Adaptern, die das digitale Audiosignal in ein analoges Videosignal umgewandelt haben, damit man es auf Videobändern aufnehmen konnte. Die Abtasftrequenz mußte deswegen zu der Videofrequenz passen, und 44,1 kHz war eine der möglichen Frequenzen. Da hat Fowler einfach ahnungslos vor sich hin spekuliert.
  • Fowler scheint nichts von Dither gehört zu haben.

Dither ist ein kleines bißchen Rauschen, das digitale Signale so macht wie analoge. Es ist wichtig, weil damit seine ganze Erklärung mit der Bit-Tiefe obsolet wird. Mit Dither degeneriert ein kleiner werdendes Signal nicht zur Rechteckform, wie er suggeriert, sondern geht - genau wie im Analogen - allmählich im Rauschen unter.
Nochmal zur Bestätigung: Mit ein klein wenig Rauschen wird die Digital-Audio-Technik zur Analog-Audio-Technik äquivalent, und in beiden Fällen passiert das Gleiche: Man hat einen Rauschteppich, und Signale gehen im Rauschteppich unter, wenn sie leiser werden. Bei 24 Bit ist einfach der Rauschteppich leiser als bei 16 Bit, aber in beiden Fällen ist, wie jeder leicht nachprüfen kann, der Rauschteppich sowieso schon niedriger als der von analogen Medien.

Wenn Fowler Probleme hat mit kleinen Signalen, die rauh und "grainy" werden wenn sie leiser werden, dann hat er einen Fehler, den er dingfest machen sollte. Entweder es fehlt Dither, oder er hat irgendwelche Verzerrungen im Kleinsignalbereich, möglicherweise gar nicht im digitalen Teil seiner Anlage sondern im analogen. Mit den Grundlagen der Digital-Audio-Technik hat es nichts zu tun.

Das bedeutet auch, daß es nicht viel bringt, die Anzahl der möglichen Stufen der Codierungen miteinander zu vergleichen. Klar sind mehr als 16 Millionen viel eindrücklicher als nur gut 65000, aber was heißt das für das Audiosignal? Nicht viel. Da wir gesehen haben daß der Unterschied im Pegel des Rauschteppichs liegt, ist es viel sinnvoller, diesen Unterschied zu benennen. Dabei kommt die viel nützlichere Zahl heraus. Nämlich daß durch die zusätzlichen 8 bit der Rauschteppich um etwa 48 dB niedriger ist. Das ist ein Maß, das im Audiokontext einen Sinn ergibt, im Gegensatz zu irgendwelchen freischwebenden Zahlen.
  • Es gibt keine "Centerline", durch die sich die Bit-Tiefe halbiert.

Fowler behauptet, daß der Zahlenvorrat letztlich deswegen halbiert ist, weil sich eine Welle ja aus negativen und positiven Halbwellen zusammensetzt, also einen Teil unter und einen über der Mittellinie, und damit letztlich in jede Richtung nur die Hälfte der Zahlen zur Verfügung steht.

Das ist richtig und falsch zugleich. Richtig ist natürlich, daß man beide Halbwellen codieren können muß. Der von ihm vernachlässigte Punkt ist aber, daß es diese Mittellinie nicht wirklich gibt. Es ist ein darstellerisches Artefakt ohne Entsprechung im physikalischen Signal. Man hört keine Gleichspannung, also keine Frequenz Null. Eventuell vorhandene Gleichspannungen werden sogar von Audiosystemen weggefiltert, denn sie können die Technik stören. Das bedeutet man könnte die Nullinie beliebig hoch oder runter schieben, ohne daß sich etwas ändert. Speziell kann man genauso gut so tun als wäre die Nullinie ganz unten, und alle Zahlen positiv. Der für Audio relevante Signalanteil würde sich dadurch nicht ändern; es gäbe nur einen irrelevanten Gleichspannungs-Offset.

Ergo: Man hat 16 Bit für die Codierung zur Verfügung, das ist alles was man wissen muß.


Immerhin, Fowler hat auch ein paar gute Hinweise in seinem Vortrag, nämlich z.B. was Headroom angeht, und Clipping, besonders wenn man Signale zusammen mischt. Könnte also schlimmer sein. Trotzdem, mir wäre es lieber, wenn die falschen Vorstellungen korrigiert würden, anstatt als Tutorial weiter unter den Leuten verbreitet zu werden.

Freitag, 9. Oktober 2015

Gedämpftes Verständnis

Der sogenannte "Dämpfungsfaktor" ist ein Begriff, dem man im Zusammenhang mit Verstärkern und Lautsprechern seit vielen Jahrzehnten begegnet, und um den sich viel Ideologie, aber auch viel Unverstand rankt. Ich finde, die damit erzeugte Verwirrung ist größer als die erzeugte Einsicht, und wenn's nach mir ginge müßte man den Begriff in der Versenkung verschwinden lassen. Ich werde hier den Versuch machen, zu erklären worum es überhaupt geht, und wie ich zu dieser vielleicht etwas provokativen Ansicht komme.

Der Dämpfungsfaktor ist ein Begriff, der sich im Zusammenspiel zwischen einem Verstärker und dem daran angeschlossenen Lautsprecher ergibt. Er wird gebildet als das Verhältnis aus der Impedanz der Last (Lautsprecher) und der Impedanz der Quelle (Verstärker). Er beschreibt damit eine Situation, und nicht etwa die Eigenschaften eines Gerätes. Das ist schon das erste Problem.

Oft wird versucht, einen Dämpfungsfaktor-Wert als Eigenschaft eines Verstärker auszugeben. Etwas, was man in die technischen Daten des Verstärkers hinein schreibt. Dafür muß man aber den angeschlossenen Lautsprecher idealisieren, und sein Verhalten in Form einer einzigen Zahl ausdrücken, nämlich seiner Nennimpedanz. Das ist eine derartig radikale Vereinfachung, daß man damit der Praxis nicht ansatzweise gerecht wird. Es dient nur dazu, den Dämpfungsfaktor ebenfalls als eine einzelne Zahl ausdrücken zu können, was natürlich ebenso wenig praxisgerecht ist. Es würde lediglich die Situation ausdrücken, die entsteht wenn man an den Verstärker einen Lastwiderstand anschließen würde, anstelle eines echten Lautsprechers. Das ist nur für den Labortisch relevant.

Will man die Eigenschaften des Verstärkers für sich angeben, z.B. für seine technischen Daten, dann sollte das auf eine Weise geschehen, die möglichst keine künstlichen Annahmen über den angeschlossenen Lautsprecher braucht. Das wäre die Angabe der Ausgangsimpedanz (= Quellimpedanz des Verstärkers). Weil die in aller Regel mit der Frequenz variiert, und oft auch reaktive Komponenten hat (also nicht so wirkt wie ein einfacher Widerstand), wäre es günstig, einen Impedanzschrieb über die Frequenz als Diagramm darzustellen, und zwar nach Betrag und Phase. Bei Lautsprechern kennt man solche Impedanz-Diagramme, aber das Gleiche wäre auch für Verstärker sinnvoll. Eine solche Angabe würde dann lediglich den Verstärker selbst charakterisieren, ohne Abhängigkeit vom Lautsprecher.

Hat man ein solches Impedanzdiagramm für den Verstärker und eines für den Lautsprecher, dann kann man für diese Kombination (bzw. Situation) auch den tatsächlichen Dämpfungsfaktor bestimmen, und zwar sogar in seinem Frequenzverlauf, und nicht bloß als einzelne Zahl. Das wäre erheblich aufschlußreicher und näher am echten Verhalten. Nur wäre das ein bißchen zu anspruchsvoll für Leute, die sich lieber an einzelnen Zahlen festhalten, weil die besser für den Schwanzlängenvergleich taugen.

Aber das ist erst der Anfang. Bis hierher ging es um den Dämpfungsfaktor an der Schnittstelle zwischen dem Verstärker und dem Lautsprecher. An dieser Stelle geht es darum, welchen Einfluß der Dämpfungsfaktor auf den Frequenzgang des gesamten Arrangements hat. Man sieht die Kombination von Lautsprecher und Verstärker als einen frequenzabhängigen Spannungsteiler, bestehend aus der Lastimpedanz und der Quellimpedanz. Ein Spannungsteiler ist etwas recht einfaches, und selbst die Frequenzabhängigkeit macht das nicht wesentlich komplizierter. Das Ergebnis ist eine Frequenzgang-Kurve, von der man natürlich meist möchte, daß sie möglichst gerade horizontal verläuft. Das klappt am besten wenn die Quellimpedanz möglicht klein gegenüber der Lastimpedanz ist. Das entspricht dann einem hohen Dämpfungsfaktor.

Aber mit dem Dämpfungsfaktor wird auch oft ein ganz anderes Konzept verbunden, nämlich die "Kontrolle" des Lautsprechers. Dabei geht's um Folgendes: Ein Lautsprecher-Chassis, also eine Anordnung aus Magnet, Schwingspule, Membran und Korb, ist ein schwingfähiges mechanisches System, in dem die schwingenden Teile eine Massenträgheit haben. Einmal in Bewegung, möchten sie sich weiter bewegen, auch ohne Antrieb. Wenn der Strom zum "Motor", bestehend aus Magnet und Schwingspule, abgestellt wird, dann bewirkt die Massenträgheit, daß die Bewegung weitergeht, und die Funktion des Motors sich umkehrt und er zum Generator wird. Das Teil liefert Strom. Man nennt das die Gegen-EMK (Elektromotorische Kraft). Dieser Strom fließt zurück zum Verstärker. Die Quellimpedanz des Verstärkers bildet für diesen Strom die "Last". Der vorhin erwähnte Spannungsteiler wirkt jetzt anders herum. Auch diesmal ist es günstig, wenn die Ausgangsimpedanz des Verstärkers möglichst klein ist, denn umso mehr wird die Gegen-EMK "kurzgeschlossen", was dazu führt daß die Bewegung des Motors möglichst schnell abgebremst wird. Das ist was man mit "Kontrolle" meint: Möglichst wenig eigenmächtige Bewegung der Membran aufgrund von Massenträgheit; die Membran soll so unmittelbar wie möglich den Vorgaben des Verstärkers folgen, also der Spannung, die er abgibt. Besonders deutlich wird das bei der Resonanzfrequenz des Chassis, wo die Tendenz zur eigenständigen Bewegung am größten ist.

Daher kommt ursprünglich der Begriff: Die Tendenz der Lautsprechermembran zur eigenmächtigen Bewegung soll so gut wie möglich gedämpft werden. Der Begriff des Dämpfungsfaktors sollte dem ein Maß geben.

So lange der Verstärker direkt an das Lautsprecher-Chassis angeschlossen ist, stimmen diese beiden Betrachtungsweisen sogar einigermaßen überein. So ist es aber in der Praxis nicht: Man hat es mit einem Lautsprecher zu tun, der aus mehreren Chassis und einer passiven Frequenzweiche besteht. Die Frequenzweiche sitzt zwischen Verstärker und Chassis. Das bedeutet, daß man für die Betrachtung des Dämpfungsfaktors entscheiden muß, auf welcher Seite der Weiche man guckt.

Will man wissen, wie gut die Gegen-EMK des Chassis gedämpft wird, dann muß man die Weiche rechnerisch zum Verstärker schlagen. Man betrachtet also die Quelle als die Kombination von Verstärker und Weiche, und die Last ist dann das einzelne Lautsprecher-Chassis.* Es liegt auf der Hand daß dann die Impedanzen ganz anders ausfallen als bei der Betrachtung oben, wo man die Weiche zum Lautsprecher gerechnet hat. Entsprechend andere Dämpfungsfaktoren ergeben sich. Konkret läuft es darauf hinaus, daß in aller Regel die Weiche eine größere Rolle spielt als der Verstärker. Die Ausgangsimpedanz des Verstärkers wird irrelevant wenn sie einmal deutlich unter der Impedanz der Weiche liegt, und dazu braucht's nicht viel.

Mit anderen Worten: Die Kontrolle des Lautsprechers kann nicht besser werden als es die Weiche erlaubt.

Nachdem die meisten Verstärker heutzutage Ausgangsimpedanzen haben, die unter der Weichenimpedanz liegen, bedeutet das, daß der Verstärker bei der Kontrolle der Gegen-EMK von Lautsprechern eine eher untergeordnete Rolle spielt, und der Dämpfungsfaktor, so wie er üblicherweise angegeben wird, wird entsprechend nebensächlich.

Diese Betrachtung geht davon aus, daß das Problem der Gegen-EMK das Bass-Chassis betrifft, und daß die Weiche für dieses Chassis eine Serien-Induktivität hat. Das dürfte der Normalfall sein. Andere Lautsprecher-Konstruktionen, so wie z.B. Elektrostaten, bieten andere Bedingungen, so daß ich nicht den Anspruch auf universelle Gültigkeit meiner Argumentation erhebe. Das ist aber egal, denn mir geht's um die üblichen Situationen. Spezielle Situationen brauchen sowieso eine getrennte Betrachtung.

Der Punkt, um den es mir geht, ist daß der Begriff des Dämpfungsfaktors keinen Praxisnutzen bringt, und gerade im Beisein einer Weiche eher Verwirrung stiftet. Also so gut wie immer. Geht es um die Kontrolle der Gegen-EMK, dann dominiert die Weiche, über deren Daten man meist zu wenig weiß. Geht es um die Linearität des Frequenzgangs, dann wäre man besser bedient mit den Impedanzschrieben von Lautsprecher und Verstärker, weil die üblich angegebene Zahl für den Dämpfungsfaktor zu wenig über die tatsächliche Situation sagt.

Im Grunde ist das ein Argument für Aktivboxen, denn da hat in der Regel jedes Chassis seinen eigenen Verstärker, und die Weiche entfällt. Für jede Paarung eines Chassis mit einem Verstärker in der Aktivbox gibt es dann jeweils einen eigenen Dämpfungsfaktor, aber das braucht nur den Hersteller zu interessieren. Als Anwender hat man mit derlei Details und ihrer korrekten Interpretation nichts zu tun.

Besonders absurd wird es meiner Ansicht nach dann, wenn in der audiophilen Szene besonders teure und aufwändige Weichen benutzt werden. Beispielsweise gibt es Leute, die darauf schwören, die Induktivität für das Tiefton-Chassis möglichst niederohmig zu machen, eben gerade um die "Kontrolle" zu optimieren. Mir erscheint das widersinnig spätestens dann, wenn dabei eine Bauteilrechnung zusammen kommt, für die man auch die für eine Aktivbox nötigen Verstärker bezahlen könnte. Was einem dabei zupaß kommt ist, daß die Bauteile für einen guten Verstärker immer billiger geworden sind. Für eine gute Drossel, die ein Audiophiler akzeptieren würde, hängt der Preis aber mit dem Materialverbrauch an Kupfer (und evtl. Eisen) zusammen, und das wird eher teurer. Damit wird die Passivweiche wirtschaftlich immer unvorteilhafter. Elektronisch war sie ohnehin schon immer die schlechtere Lösung.

Ich hoffe, daß daraus ein Trend zur Aktivbox wird, womit sich dann auch das Thema Dämpfungsfaktor erledigen würde. Es wäre langsam Zeit.

* Das ist, wie ich dem Hinweis eines Bloglesers verdanke, im Grunde sogar noch zu optimistisch dargestellt. Für die Dämpfung einer Eigenbewegung müßte idealerweise der Widerstand im kompletten Stromkreis, in dem die Gegen-EMK wirkt, möglichst niedrig sein. Da gehört auch der Widerstand der Schwingspule dazu, neben dem des Verstärkers und der Weiche. In der Praxis hat der Widerstand der Schwingspule den größten Anteil, gefolgt (meistens) von der Weiche, dann erst vom Verstärker und dem Kabel. Es ist also noch unwahrscheinlicher, daß sich dabei Verstärker und Kabel bemerkbar machen.