Donnerstag, 31. Dezember 2009

Viel hilft viel -- oder doch nicht?

Wenn es eine typische Grundhaltung eines Laien geben sollte, dann wäre das "Viel hilft viel" bestimmt einer der aussichtsreichsten Kandidaten. Es gehört ja geradezu zur Definition des Begriffs "Laie", daß ihm für eine differenziertere Sichtweise der Sachverstand fehlt. Man kann sich dann halt bloß auf allgemeingültige Lebensweisheiten verlassen, die instinktiv Sinn zu machen scheinen. Das wird in der Hifi- und Audiophilen-Szene weidlich genutzt, auffälliger vielleicht noch als auf vielen anderen Gebieten.

Bei der Tätigkeit von Ingenieuren geht es dagegen um etwas Anderes. Die Sachkenntnis eines Ingenieurs läuft in der Regel darauf hinaus daß er sich bewußt darüber ist, daß "viel" nicht bloß hilft, sondern auch kostet, und zwar nicht nur im finanziellen Sinn. Es geht darum das richtige Maß zu finden, den besten Kompromiß zwischen einander widersprechenden Faktoren. Immer dann wenn man sich dazu hinreißen läßt, z.B. bei der Entwicklung von Hifi-Geräten, einfach "zur Sicherheit" das teurere Bauteil, oder das größere Bauteil, oder die engere Toleranz zu wählen, hat man im Grunde den Ingenieurs-Pfad verlassen und den Laien-Pfad beschritten. Man gibt damit zu, nicht zu wissen wieviel man an dieser Stelle wirklich braucht, und ab welchem Punkt ein "Mehr" keinen relevanten "Mehrwert" mehr hat.

Das wäre in vielen Fällen noch tolerabel wenn nicht noch hinzu käme daß man dabei gerne die Augen davor verschließt welche Nachteile das "Mehr" mit sich bringt. Die Audioszene ist gespickt voll mit Beispielen, mit denen man zeigen kann wie auf diese Weise das "rechte Maß" völlig aus dem Blickfeld verschwindet, und das Ergebnis de facto schlechter geworden ist. Nebenbei kann man zeigen daß ein "viel hilft viel" in den allermeisten Fällen eben nicht vernünftig ist, und man gut daran tut den verschwiegenen Nachteil zu suchen wenn jemand so eine Lösung anpreist. Die Wahrscheinlichkeit ist ziemlich groß daß jemand, der eine bestimmte Designentscheidung bei seinem Gerät besonders herausstellt, darüber völlig übersieht (oder verschweigt) welcher Nachteil damit verbunden ist.

Es ist dabei auch oft das Ziel des Marketing, der Kundschaft den geistigen Blick auf die propagierten Vorteile zu fixieren, und dafür zu sorgen daß er nicht auf die Nachteile fallen kann. Das funktioniert erstaunlich oft, wie man immer wieder daran sehen kann wenn Leute ohne eigenes wirtschaftliches Interesse in Foren auftauchen und sich dort wie ein Sprachrohr einer Firma aufführen. Sie haben offenbar die Propaganda völlig verinnerlicht und sich die Scheuklappen aufsetzen lassen, die sie daran hindern zu erkennen welche Nachteile es geben kann. Bei Lautsprechern ist das besonders auffällig, wenn z.B. bestimmte Konstruktionsprinzipien als das Nonplusultra propagiert werden, seien es Koaxialsysteme, Elektrostaten, bestimmte Membranmaterialien, oder was auch sonst.

Mein Beispiel hier soll aber etwas anderes sein: Die Bandbreite. Man kann sich prächtig darüber streiten welche Bandbreite z.B. ein Verstärker haben soll, aber im Grunde wird die Diskussion bloß dann sinnvoll wenn man es im Kontext des ganzen Wiedergabesystems betrachtet, und dem Zweck den dieses erfüllen soll.

Die Bandbreite eines Systems ist der Frequenzbereich, den es praktisch ungeschwächt übertragen kann, also gewissermaßen der "Nutzbereich". Bei einer Hifi-Anlage ist das der Frequenzbereich den man auch hören kann, denn auf den ersten Blick bringt es nichts, Frequenzen zu übertragen die man ohnehin nicht hört.

Man könnte also im ersten Ansatz sagen: Das Gehör hat eine Bandbreite, und die ist letztlich maßgebend für die Bandbreite, die die Wiedergabeanlage haben muß.

Diese Betrachtungsweise ist nicht so selbstverständlich wie sie sich anhört. In den Frühzeiten der Elektronik und Audiotechnik fand man, daß es erstmal auch reicht wenn man diejenigen Frequenzen überträgt, die musikalisch relevant sind. Man dachte sich: Der Mensch kann zwar (wenigstens in jungen Jahren) Frequenzen im Bereich von etwa 20Hz bis 20kHz hören, aber in der Musik (das war damals noch zu fast 100% "konventionelle" und nicht elektronisch erzeugte Musik) kommt es kaum einmal vor daß weniger als 40 Hz oder mehr als 15 kHz gebraucht werden. Und wenn es nur um Sprache geht, wie z.B. beim Telefon oder in Durchsageanlagen, dann reicht auch noch wesentlich weniger.

Man hat also bis in die zweite Hälfte des vergangenen Jahrhunderts hinein die Technik am konkreten Zweck ausgerichtet, und nicht an den Grenzen des Gehörs. Die "technischen Daten" des UKW-Rundfunks stammen z.B. aus diesen Zeiten. Und wie man weiß kann man damit bei guten Empfangsbedingungen und mit einer guten Produktion ein Qualitätsniveau erreichen das mit der Langspielplatte konkurrieren kann, die ja im Grunde aus der gleichen Zeit stammt und noch heute bei Audiophilen in großem Ansehen steht.

Ein Verstärker braucht in einer Denke wie dieser keine wesentlich größere Bandbreite als es für die Signale von der Quelle nötig ist. Die Idee ist daß gerade so viel Bandbreite geboten werden sollte daß keine zusätzlichen Beeinträchtigungen entstehen. Je nach konkreter "Philosopie" hat man Verstärkern eine Bandbreite spendiert die nach oben hin irgendwo im Bereich von 20 bis 100 kHz zuende war. Verstärker mit noch mehr Bandbreite gab es, es waren aber Exoten.

Das hat zwar unter anderem damit zu tun daß mehr Bandbreite auch technisch anspruchsvoller ist, wichtiger aber war daß man abgesehen davon daß man es für unnötig hielt es auch für potenziell problematisch hielt.

Die Frage ist dabei was denn die eigentlich unhörbaren höheren Frequenzen bewirken. So lange sie gar nicht erst auftreten, weil die Quelle sie gar nicht erst liefert, sollte eigentlich alles in Ordnung sein, aber höhere Frequenzen können eventuell auf Umwegen ins System kommen. Schon bei 30kHz beginnt offiziell der Langwellen-Bereich im Rundfunk, und ganz normale Radiosender beginnen bei etwa 150 kHz. Das Zeitsignal der PTB wird auf 77,5 kHz gesendet. Solche Signale können durchaus irgendwie von einem Kabel aufgefangen werden und mit dem Audiosignal in einen Verstärker gelangen.

Wenn die Bandbreite des Verstärkers groß genug ist, wird er solche Signale ebenfalls verstärken. Das würde für sich genommen noch nichts ausmachen, denn man hört sie ja auch verstärkt noch immer nicht. Das würde aber voraussetzen daß es keine Nichtlinearitäten im System gibt, an denen durch Intermodulation oder Demodulation Mischprodukte entstehen, die in ihren Frequenzen in den hörbaren Bereich fallen können. Das muß nicht im Verstärker passieren, auch im Lautsprecher selbst kann so etwas vorkommen.

Wer die Bandbreite eines Verstärkers nicht zu großzügig auslegt vermeidet solche Probleme, denn dann werden die Radiosignale nicht mehr verstärkt, sondern im Idealfall sogar weggefiltert, und können damit auch im Lautsprecher keine Effekte mehr haben. Die Beschränkung der Bandbreite auf Werte irgendwo unterhalb von 100kHz galt daher den meisten Verstärkerbauern der "alten Zeit" als eine sehr nützliche Maßnahme.

Am besten ist es dabei wenn man die Bandbreite direkt am Verstärkereingang beschränkt, der Verstärker intern aber eine deutlich höhere Bandbreite hat. Auf diese Weise bewirkt man ein sehr kontrolliertes Verhalten, das nicht mehr von den Eigenschaften des Verstärkers abhängt, sondern bloß noch von ein paar Filterbauteilen an dessen Eingang. Und der eigentliche Verstärker hat es nicht mehr mit Signalen zu tun, für die er "nicht schnell genug" ist, und auf die er unter Umständen mit Intermodulation reagieren würde.

Noch eher als den Verstärker sollte man aber den Lautsprecher von Frequenzen verschonen mit denen er nicht umgehen kann. Bei hohen Frequenzen über der Hörgrenze führen sie im günstigsten Fall nur dazu daß die Schwingspule des Hochtöners vorgewärmt wird. In ungünstigeren Fällen führen Nichtlinearitäten im Hochtöner zu potenziell hörbaren Intermodulationen. Im Tieftonbereich gibt's auch Probleme. Tiefere Frequenzen als sie der Lautsprecher noch gut wiedergeben kann führen besonders bei höheren Lautstärken zu merklichen Effekten, wie z.B. Windgeräusche an Baßreflexöffnungen, große Membranhübe mit damit verbundenen nichtlinearen Verzerrungen, Dopplereffekte.

Man könnte versuchen, in der Weiche zusätzlich Filter einzubauen die solche für den Lautsprecher nicht hilfreichen Frequenzen unterdrücken, aber der zusätzliche Aufwand wird gescheut, und mit Sicherheit von der audiophilen Szene auch nicht goutiert. In den Verstärker kann man eine entsprechende Filterung ebenso kaum einbauen, denn man weiß ja nicht im Voraus wo beim angeschlossenen Lautsprecher die Grenzen liegen werden. Am besten dran sind die Aktivlautsprecher, wo man die Filterung im Verstärker optimal an die Eigenschaften des Lautsprechers anpassen kann.

Selbst wenn wir annehmen daß wir Radiosignale durch entsprechende Verkabelung und Schirmung ausgeschlossen haben, und daß der Verstärker daher auf eine Begrenzung der Bandbreite verzichten kann, müssen wir uns immer noch ansehen was von der Quelle kommt.

Wir haben gesehen daß in der "alten Zeit" bei rein analogen Quellen wie dem UKW-Radio oder der LP schon die Quelle keine Frequenzen von sich gegeben hat die oberhalb des Hörbereiches liegen. Genauer gesagt hat sie gelegentlich schon solche Frequenzen geliefert, aber nicht unbedingt absichtlich. Bei der LP kann das z.B. bei Knacksern sein oder wenn sich der empfindliche Tonabnehmer Radiosignale einfängt. Außerdem hat auch das unvermeidliche Rauschen Komponenten bei hohen Frequenzen. Damit müßte man im Grunde schon im Phono-Vorverstärker umgehen.

Bei neueren Quellen, vor allem digitalen, wächst jedoch der Anteil an Energie oberhalb des hörbaren Bereiches deutlich an. Zum Einen gibt es die Leute die höhere Abtastraten befürworten, und damit letztlich auch eine höhere nutzbare Bandbreite schon im Quellmaterial. Bei einer Abtastrate von 192kHz geht die nutzbare Audiobandbreite schon bis knapp unterhalb von 100kHz. Zum Anderen erzeugt ein D/A-Wandler immer auch höhere Frequenzen durch Aliasing (Spiegelfrequenzen), die durch ein nachgeschaltetes Filter wieder unterdrückt werden müssen. Nicht wenige Leute meinen, darauf verzichten zu können weil die nachgeschaltete "Kette" das sowieso irgendwie filtert, und wenn das erst im Ohr sein sollte. Einige SACD-Wandler sind z.B. dafür bekannt, daß sie ziemlich viel Rauschenergie im unhörbaren Bereich absondern und das dann dem Verstärker zumuten.

Das wäre natürlich kein besonderes Problem wenn der Verstärker am Eingang eine Bandbreitenbegrenzung hätte, wie ich es oben beschrieben habe. Das gilt aber als unaudiophil. So werden eins nach dem anderen die Sicherheitsmaßnahmen eliminiert, die einer negativen Auswirkung "unnützer" Frequenzen bisher im Weg gestanden sind.

Es kann dabei passieren daß sich auf diese Weise "Unterschiede" ergeben, die vom begeisterten Audiophilen prompt als Anzeichen dafür fehlinterpretiert werden, daß der Mensch (genauer gesagt: Er selbst --> Goldohrbeweis) eben doch oberhalb von 20kHz was hört, und daß viel Bandbreite demzufolge auch viel hilft.

Das ist dann die Krönung der Ironie: Ausgerechnet die negativen Auswirkungen dessen werden als Bestätigung einer Ansicht verstanden die schon von vorn herein falsch war.

Samstag, 19. Dezember 2009

Die Masse, das unbekannte Wesen

Immer wieder scheint es mir, als wäre die Masse das was an der ganzen Audioelektronik am wenigsten verstanden wird. Das betrifft nicht bloß die Benutzer, von denen man das wohl auch kaum anders erwarten kann, sondern durchaus auch die Hersteller, Händler und Journalisten. Meiner bescheidenen Ansicht nach sind Masseprobleme der Grund Nummer 1 warum eine Anlage schlechter spielt als sie könnte. Die üblichen Verdächtigen des High-End spielen dagegen eine nur sehr untergeordnete Rolle.

Das Problem dabei ist, daß die Symptomatik sogar für viele Fachleute ziemlich undurchsichtig sein kann. Viele der Probleme kommen auch überhaupt erst zutage wenn man mehrere Geräte zusammensteckt, und finden daher weder bei den Messungen des Herstellers, noch bei Zeitschriften-Tests irgendeine Beachtung. Ein- und dasselbe Gerät kann so auf dem Labortisch ein einwandfreies Bild abgeben, und in der Anlage dennoch Probleme machen. Wer weiß, vielleicht ist das ja auch eine der Ursachen dafür daß viele Leute davon reden, man müsse eine Anlage "abstimmen". Wenn eine Anlage ein Masseproblem hat, dann kann beim Austausch einzelner Komponenten sich das Fehlerbild fast beliebig ändern, auch beliebig subtil.

Da die Masse immer verbunden ist, sogar wenn ein Gerät ausgeschaltet ist, hängt im Grunde alles mit allem zusammen, und Dinge können einen Einfluß haben an die kaum jemand denken würde. Umso mehr, je mehr Geräte da zusammengesteckt werden.

Das Problem hat unmittelbar damit zu tun, daß in der Hifi-Technik praktisch durchgehend unsymmetrische Verbindungen verwendet werden. Und die verwendet man vor Allem aus historischen Gründen. Sie sind zwar auch ein bißchen billiger als die symmetrischen Verbindungen, aber das würde einen Umstieg nicht verhindern. Der Hauptgrund dafür warum man bei unsymmetrischen Verbindungen bleibt, ist die Kompatibilität zu bisherigen Geräten. So gut wie alle Geräte haben Cinch-Anschlüsse, und daher wird erwartet daß auch alle neuen Geräte damit ausgerüstet sind. Man ist de facto als Hersteller gezwungen, die problematische Technik beizubehalten.

Eine unsymmetrische Verbindung hat zwei Kontakte, und sie heißt deswegen unsymmetrisch weil diese beiden Kontakte sehr unterschiedliche Rollen spielen. Es gibt einen Kontakt für's Signal, und einen für die Masse. Wenn es mehrere Signale gibt, die zugleich übertragen werden, dann kann man den Masseanschluß für diese Signale auch gemeinsam machen. Das passiert unter Anderem beim Klinkenstecker, z.B. an Kopfhörern, oder beim Mini-Klinkenstecker der bei PC-Soundkarten so verbreitet ist. Auch die alten DIN-Stecker (auch Diodenstecker genannt) haben für alle Signale einen gemeinsamen Masseanschluß.

Die unsymmetrische Übertragung geht davon aus daß alle beteiligten Geräte auf dem gleichen Massepegel liegen, und der Sinn der Masseverbindung ist es, diese Grundbedingung herzustellen. Die Qualität der Signalübertragung hängt davon ab wie gut die Übereinstimmung der Massepegel im konkreten Fall ist, denn jeder Unterschied wirkt als Störung auf das Audiosignal.

Auf den ersten Blick scheint das kein Problem zu sein. Man verbindet die Massen der Geräte per Kabel, damit sind sie auch auf dem gleichen Pegel. Auf einem Schaltplan scheint es ebenso einfach zu sein, da hat man für die Masse ein Symbol, und alle diese Symbole sind als untereinander verbunden zu denken. Die Masse (daher auch der Name) wird als metallener Klumpen betrachtet, der überall einen einheitlichen Spannungspegel hat, und daher auch als Bezugspunkt für die Audiosignale in Frage kommt. Man tut so als wäre jeder Punkt im weitverzweigten Massenetz einer Anlage mit jedem anderen Punkt des Massenetzes austauschbar.

In der Praxis ist es aber nicht immer so. Es gibt diverse mögliche Ursachen dafür daß Ströme in diesem Massenetz kursieren, die nichts mit dem Audiosignal zu tun haben. Und da die Widerstände bzw. Impedanzen in diesem Massenetz nicht gleich Null sind, ergeben sich daraus auch Differenzen in den Massepegeln an verschiedenen Punkten (Ohm'sches Gesetz). Und damit Audiostörungen.

Diese Störungen können sehr unterschiedlich stark sein, je nach den konkreten Umständen. In einem Fall ist es vielleicht bloß meßtechnisch nachweisbar, in anderen Fällen brummt oder rauscht es kräftig. Das sind normalerweise keine Einstrahlungen, es ist ein gänzlich anderer Mechanismus der solche Störungen produziert. Man spricht von einer Kopplung durch eine gemeinsame Impedanz. Die gemeinsame Impedanz, das ist in diesem Fall die Impedanz der Masseverbindung, durch die sowohl der Signalstrom als auch der Störstrom fließt.

Das läßt schon erkennen, daß man diese Störungen z.B. dadurch bekämpfen kann, indem man die Impedanz der Masse so klein macht wie es geht. Dadurch löst man allerdings das Problem nicht prinzipiell, sondern man verringert es nur. Und als Gerätekäufer hat man auch nur begrenzte Möglichkeiten dafür. Man kann zwar Kabel mit sehr niederohmiger Masseverbindung einsetzen (das bedeutet in der Regel ein großzügig dimensioniertes Schirmgeflecht), aber an den Verhältnissen in den Geräten selbst, speziell den Impedanzen der Masseverbindungen darin, ändert man damit nichts. Wenn die Impedanzen im Gerät schon größer als im Kabel sind, dann bringt ein noch stärkeres Kabel nichts mehr.

Wer verstehen will was sich da abspielt mit den Störströmen, der kommt meist nicht recht auf einen grünen Zweig wenn er sich gedanklich mit den Spannungspegeln beschäftigt. Besser ist es man denkt in Strömen, und dem Weg den sie nehmen. Für viele Elektriker und Elektroniker ist das eine ungewohnte Betrachtungsweise. Vielleicht ist das der Grund warum in dieser Sache so viel Unverstand herrscht.

Die meisten Gegenmaßnahmen gegen die Kopplung über eine gemeinsame Impedanz versuchen zu erreichen, daß es keine gemeinsame Impedanz menr gibt. Das heißt daß die Störströme nicht mehr den gleichen Weg nehmen wie die Signalströme. Eine ganze Reihe von unterschiedlichen Maßnahmen und Tricks laufen letztlich auf diese Zielsetzung hinaus.

Zum Beispiel die sternförmige Masseführung. Wenn Störströme und Signalströme auf verschiedenen "Strahlen" des Sterns fließen, dann treffen sie sich bloß im Sternpunkt, haben aber keinen gemeinsamen Weg. Damit fällt auch die Kopplung praktisch aus. Problem ist bloß: Man kann zwar die Masseverdrahtung innerhalb eines Gerätes sternförmig organisieren, wenn mehrere solche Geräte aber zusammengesteckt werden, dann ist das Gesamtgebilde in vielen Fällen nicht mehr sternförmig, und der Trick versagt. Innerhalb eines Gerätes entscheidet der Entwickler über die Masseführung, und wenn keine Schrauben abfallen oder Tuner rangelassen werden, dann bleibt das auch so. über das Zusammenstecken entscheidet dagegen der Kunde, und der weiß in der Regel weder über die Masseproblematik Bescheid, noch kennt er die interne Signalführung der Geräte. Das Ergebnis ist daher meist unabsehbar.

Zudem nutzt der Stern auch bloß, wenn wirklich der Signalstrom und der Störstrom auf verschiedenen Strahlen fließen. Das kann man beim Zusammenstecken von Geräten aber nicht immer garantieren.

Eine andere Taktik ist, die Masseanschlüsse aller Cinch-Buchsen direkt mit dem Metallgehäuse des Gerätes zu verbinden, und das Gehäuse somit als einheitliche Massefläche zu behandeln. Das hat erhebliche Vorteile wenn es um die Abschirmung gegen eindringende Funksignale geht, aber unser Problem mit der gemeinsamen Impedanz wird dadurch nicht unbedingt gelöst. Immerhin trennt sich so typischerweise schon direkt an der Buchse der Störstrom vom Signalstrom, und eine solide Masseverbindung im Kabel (ein dicker Schirm) hilft dann tatsächlich. Im Gerät kann man so aber die Masse nicht mehr sternförmig verkabeln, man muß sich also überlegen wie man mit unterschiedlichen Massepegeln umgeht, und erreicht daß alle Störströme im Gehäuse fließen und nicht durch die Schaltung.

Die konsequenteste Lösung ist die symmetrische Verbindung, denn da spielt die Masse nicht mehr die Rolle einer Referenz für das Signal. Damit ist es auch nicht mehr wichtig daß im ganzen Massenetz der gleiche Pegel herrscht. Die Störströme dürfen in der Masse fließen, ohne daß es einen Einfluß auf die davon getrennte Signalverkabelung zu haben braucht. Dazu ist aber nötig daß man nicht den Fehler begeht und dem Störstrom in der Masse wieder einen Pfad durch die Geräteelektronik ebnet. Um das zu gewährleisten muß man in der Praxis sauber unterscheiden zwischen der Schirmungs- und Gehäuse-Masse, in der die Störströme fließen dürfen, und der Signalmasse, die sauber bleiben muß. Das kann man bei der symmetrischen Verbindung auch, denn man braucht die Signalmasse nur innerhalb eines Gerätes. Für die Verbindung zu einem anderen Gerät ist sie nicht nötig und sollte daher auch gar nicht auf einen externen Anschluß geführt werden. Leider findet man bei vielen Geräten die Signalmasse an den symmetrischen Anschlüssen, wo sie eigentlich nichts zu suchen hätte. Das bildet nur ein mögliches Einfallstor für Störströme, die dann in der Elektronik herumvagabundieren und oftmals dort im Gerät ein Stück gemeinsamen Weg mit einem Audiosignal finden, wodurch wir wiederum die bekannte Kopplung haben.

Bei symmetrischen Verbindungen gilt also die Regel: Masseverbindungen und Schirmung sind immer die Gehäuse-Masse, die Signalmasse taucht gar nicht auf. Pegelunterschiede in der Masse zwischen den Geräten sehen für das empfangende Gerät dann so aus wie ein Gleichtaktsignal, und das wird durch die Differenzbildung unterdrückt, die zum symmetrischen Funktionsprinzip gehört.

Aber so sinnvoll und richtig es auch wäre, symmetrische Verbindungen hat man bei der Hifi-Technik so gut wie gar nicht. Man muß mit der unsymmetrischen Technik auskommen, und da gibt es keine Taktik, die man generell anwenden kann um Probleme zu vermeiden. Alles was man tun kann hat auch wieder irgendwelche Nachteile die in bestimmten Konstellationen dann wieder Probleme machen können.

Dem Ideal einer universellen Taktik noch am nächsten kommt der Einsatz von Übertragern zur galvanischen Trennung. Ein Übertrager trennt den Störstromkreis auf und überträgt nur das Nutzsignal. So weit wenigstens das Idealbild; in der Praxis ist ein Übertrager kein ideales Bauteil, was sich auf der einen Seite als Verzerrungen des Audiosignals äußern kann, auf der anderen Seite führen parasitäre Kapazitäten dazu daß hochfrequente Störströme nicht komplett unterdrückt werden. Leider ist die Tendenz bei Übertragern daß die besseren Modelle auch deutlich teurer sind. Generell aber werden Übertrager unterschätzt, und sie bieten auch heute noch oft die beste, einfachste und wirkungsvollste Lösung eines Störungsproblems.

Wo die Übertrager hin müssen hängt davon ab wo die Störströme in der Masse fließen, und damit sind wir beim Punkt wo diese Störströme eigentlich her kommen.

Die heftigsten Störströme kommen dann zustande, wenn man die Anlage an ein Massenetz anschließt, das sich noch weit über die eigentliche Anlage hinaus erstreckt. Damit ein Störstrom durch die Anlage fließen kann muß es zwei solche Verbindungen geben, eine einzige bildet noch keinen Pfad. In vielen Anlagen, in denen dieses Problem auftaucht, sind diese zwei Verbindungen der Schutzleiter der Netzstromversorgung auf der einen Seite, und der Schirm der Antennen- oder Kabelanlage auf der anderen Seite. Beide sind irgendwo im Gebäude geerdet, aber oft nicht an der gleichen Stelle. Damit gehört zum weitverzweigten Massesystem, zu dem jetzt die Anlage dazugehört, so gut wie die ganze elektrische Hausinstallation, und Differenzen in den Massepegeln treiben Ströme an, die durch die Hifi-Anlage fließen.

Die Antriebskraft für solche Störströme ist oft der Induktionseffekt. Dabei entsteht ein Strom in einer geschlossenen Leiterschleife, wenn ein magnetisches Wechselfeld durch die Schleife hindurch geht. Umgekehrt erzeugt ein Wechselstrom in einer Schleife genau so ein Wechselfeld. Die elektrische Verkabelung in den Häusern erzeugt also solche Felder, und die werden durch benachbarte Leitungen auch wieder in Ströme umgewandelt. Es funtioniert wie ein Transformator, aber mit einem sehr schlechten Wirkungsgrad. Je mehr Stom wir verbrauchen desto stärker werden die Wechselfelder, und desto mehr Störstrom bekommen wir auch in der Masseverkabelung.

Gegen solche magnetische Wechselfelder kann man nur sehr schlecht abschirmen. Zumindest gilt das für die niedrigen Frequenzen wie man sie im Stromnetz findet. Es hilft wenn man die von der Leiterschleife umschlossene Fläche so klein wie möglich macht, dann kann auch entsprechend wenig Feld auf die Schleife wirken. Am besten ist das Verdrillen der Hin- und Rückleitung. Da aber die Massekabel aus unserem Beispiel schon in den Wänden liegen hat man darauf keinen Einfluß.

Wer ein Multimeter hat, das einen Meßbereich für Wechselstrom hat, der kann probehalber den Strom messen, der fließt wenn man die Masse der Antennenanlage bzw. Kabelanlage an einer Antennensteckdose verbindet mit dem Schutzleiter einer benachbarten Steckdose. Dieser Strom würde durch eine Hifi-Anlage fließen, wenn man sie an beide anschließt. Das können schnell einige zig oder 100 mA werden. Das ist der Strom, der zum bekannten Brummen führt, das allgemein als "Brummschleife" bekannt ist. Die Schleife führt in diesem Fall durch's ganze Haus, bis zu dem Punkt an dem sich die Erdung der Antennenanlage und die Erdung des Stromnetzes treffen.

Wenn dieser Strom nicht durch die Masseverbindungen der Anlage fließen soll, dann darf die Anlage nicht gleichzeitig mit der Antennenanlage und mit dem Schutzleiter verbunden sein. Manche Oberschlaue unterbrechen die Schutzleiterverbindung, aber das ist nicht umsonst verboten, denn es ist gefährlich, weil es eine Zeitbombe installiert, die bloß auf einen weiteren Fehler warten muß um zu einem Unfall zu werden. Die bessere Lösung ist die Verwendung eines sog. Mantelstromfilters in der Antennenleitung, was wieder ein Übertrager sein könnte, der eine galvanische Trennung bewirkt. Das geht aber nicht bei Satellitenanlagen, wo in der Antennenleitung eine Speisespannung geführt wird, die durch einen Mantelstromfilter unterbrochen würde.

Was auch funktionieren kann ist, wenn man eine Netzleiste benutzt die auch für die Antennenleitung einen "Filter" eingebaut hat. Der entscheidende Punkt ist hier nicht der Filter, sondern daß in der Leiste der Schutzleiter mit der Masse der Antennenbuchse verbunden ist. Der Störstrom kann dann durch diese Verbindung fließen, und nicht mehr durch die Anlage. Dazu muß die gesamte Anlage durch diese Leiste versorgt werden, oder wenigstens die Geräte, die einen Schutzleiteranschluß haben.

Wegen dieses Problems werden Hifi-Geräte meistens als schutzisolierte Geräte gebaut, die keinen Schutzleiteranschluß brauchen (und auch gar nicht haben dürfen). Für viele Fälle beschränkt sich damit die Verbindung zu einer größeren Massestruktur auf den Antennenanschluß, und wir haben gesehen daß eine Verbindung allein noch kein Problem darstellt.

Das wird aber in dem Moment hinfällig, in dem ein PC an die Anlage angeschlossen wird, denn PCs haben fast grundsätzlich Schutzleiteranschluß. Aus diesem Grund fängt bei Vielen das Brummen in dem Moment an in dem ein PC zur Anlage dazu kommt.

Aber auch ohne PC kann es Probleme geben, selbst wenn eigentlich bloß eine Masseverbindung nach "außen" existiert, und das kommt davon daß Störströme auch kapazitiv übertragen werden können, also ohne direkte Drahtverbindung. Das funktioniert umso besser je höher die Frequenzen werden, weshalb es bei 50 oder 100 Hertz, wie im Stromnetz, meist noch kein nennenswertes Problem gibt. Da aber auch bei Hifi immer mehr Schaltnetzteile verwendet werden (bei PC's und TV-Geräten sowieso), sind neuerdings viel höhere Frequenzen im Spiel, und die kommen viel leichter durch irgendwelche Kapazitäten, die entweder parasitär in einem Transformator existieren, oder gewollt in einem Netz-Entstörfilter.

Letztlich heißt das, daß unter Umständen genug Kapazität vorhanden ist, um auch ohne Schutzleiterverbindung einem merklichen Störstrom zuzulassen. Je mehr Geräte zusammengeschaltet sind, je eher kann es zu einem Strom kommen der stark genug ist um sich bemerkbar zu machen. Das bedeutet daß es keine komplette Problemlösung ergibt, wenn die Geräte schutzisoliert sind. Es hilft, aber es ist unter Umständen nicht die ganze Miete.

Die kapazitiv übertragenen Ströme können auch ohne Antennenverbindung noch zu Problemen führen, wenn sie stark genug sind. Kein Brummen oder Rauschen, aber meßbare und im Extremfall hörbare Störungen.

Die unsymmetrische Verbindung war bei weitem ausreichend als sie eingeführt wurde, in Zeiten von Mono-Dampfradios und Schellack-Platten. In der Zwischenzeit sind auf der einen Seite die technischen Daten immer besser geworden, und eine Anlage umfaßt immer mehr Geräte. Zudem gab es damals kaum geerdete Antennenanlagen, und schon gar keine Satellitenanlagen oder Kabelanlagen. Und der Stromverbrauch im Haushalt war viel geringer, entsprechend geringer auch die Felder. Schließlich gab's auch keine Schaltnetzteile im Haushalt. All das hat einzeln gesehen nur geringfügige Bedutung, aber es summiert sich. Es führt dazu daß es heute ziemlich schwierig sein kann dafür zu sorgen daß eine größere Anlage auch die technischen Daten ausspielen kann, die jedes einzelne Gerät für sich genommen haben sollte.

Es ist auffällig, daß High-End-Geräte, gerade auch die von kleineren Herstellern, überdurchschnittlich oft einen Schutzleiteranschluß haben. Das ist auch nicht weiter verwunderlich, denn ansonsten müßten sie schutzisoliert sein. Im Zusammenhang mit unsymmetrischen Cinch-Verbindungen führt das aber schnell zu Brummschleifen. Ich finde daher, daß Geräte mit unsymmetrischen Anschlüssen schutzisoliert sein sollten, andernfalls muß man damit rechnen in Übertrager investieren zu müssen. Genau genommen finde ich daß es langsam an der Zeit wäre, zu symmetrischen Verbindungen überzugehen, aber das wird kaum durchzusetzen sein.

Die Kosten wären gar nicht das Problem. Aber außer dem Problem mit der Rückwärtskompatibilität mit den letzten 60 Jahren müßte man dafür noch mit dem High-End-Vorurteil fertig werden daß symmetrische Verbindungen schlechter sein sollen, weil man dazu mehr Verstärkerstufen braucht. Dabei müßte man schon sehr schlampig arbeiten um eine Verstärkerstufe so schlecht zu machen daß sie sich hier bemerkbar machen würde.

Eher schon wird die Lösung aus der digitalen Ecke kommen. Eine Toslink-Verbindung ist automatisch störunanfällig und bewirkt eine galvanische Trennung. Wenn sie mechanisch zuverlässiger wäre gäbe es wenig zu kritisieren. Eine Ethernet-Verbindung beinhaltet immer auch Übertrager und damit eine galvanische Trennung. Wenn die Übertragung drahtlos wird dann sowieso. Das könnte irgendwann das Problem durch die Hintertür lösen.

Wenn es dann noch Audiomaterial gibt, das sich störungsfrei abzuspielen lohnt.

Montag, 7. Dezember 2009

Die Relativität von Falsch

Wie ich schon oft erfahren durfte steht man bei den Audiophilen schnell unter Generalverdacht wenn man durchblicken läßt daß man etwas weiß. Insbesondere wenn das den audiophilen Dogmen widerspricht. Der Vorwurf der Arroganz ist dann meist nicht weit. Ein mit schöner Regelmäßigkeit wiederkehrendes "Argument" kreist dabei um die Frage, ob ich es mir sozusagen moralisch leisten kann, hier von Wissen zu sprechen, wo doch selbst das wissenschaftliche Wissen vorläufig ist, und immer wieder fundamentalen Änderungen unterworfen. Der moralisch einwandfreie Wissenschaftler, der nicht von pelmazo's Größenwahn befallen ist, so heißt es, ist sich dessen bewußt und räumt die Möglichkeit ein daß man falsch liegen könnte, und die Zukunft gänzlich andere Ergebnisse bringen könnte. Ich solle also, so scheint man sagen zu wollen, gefälligst bescheiden sein und anerkennen daß die Gegenseite schlußendlich doch recht haben könnte.

In den meisten Fällen ist zwar klar daß das eine lahme Ausrede ist, die nur schwer verschleiern kann daß meinem Gegenüber ein überzeugendes positives Argument für seine Sache fehlt, und er darum versucht auf die Ebene moralischer Tabuisierung auszuweichen. Die Sache verrät aber auch eine offenbar ziemlich weit verbreitete falsche Vorstellung davon wie Wissenschaft funktioniert und wie es um die Falsch- oder Richtigkeit wissenschaftlicher Erkenntnisse aussieht.

Ich bin zwar kein Wissenschaftler, sondern Anwender wissenschaftlicher Erkenntnisse, ich denke aber schon daß ich dazu ein paar sinnvolle Dinge sagen kann. Noch besser kann's aber Isaac Asimov, der wenige Jahre vor seinem Tod im Skeptical Inquirer einen Artikel schrieb mit dem Titel "The Relativity of Wrong". Für Englischkenner sehr zu empfehlen, obwohl ich befürchte daß das wieder die lesen (und vor allem verstehen) werden, die's ohnehin nicht nötig hätten. Und die anderen werden wahrscheinlich wieder dozieren wie viel besser doch Asimov's Stil gegenüber meinem ist, und was für ein Kotzbrocken ich im Vergleich dazu bin.

Und es stimmt ja auch. Asimov berichtet von einer ziemlichen Zumutung (mein Begriff!), wo ein Student der englischen Literatur im Hauptfach es für nötig hält, ausgerechnet Asimov einen Vortrag über Wissenschaft zu halten. Wo ich wohl "Arschloch" gedacht und etwas nur geringfügig Entschärftes geschrieben hätte, begnügt sich Asimov mit einer ironischen Spitze. Nun gut, er schreibt auch in einem respektablen Blatt und ich nur in meinem Blog. Er schreibt (in meiner Übersetzung):
"Ich seufzte ein wenig, denn ich kannte sehr wenige Literaturstudenten im Hauptfach, die gerüstet sind um mir Wissenschaft beizubringen, aber ich bin mir sehr bewußt über den ausgedehnten Zustand meiner Unkenntnis, und ich bin bereit, von jedem so viel zu lernen wie ich kann, also las ich weiter."
Wo Asimov eher der Feinmechaniker der Sprache ist, bin ich eher der Schlosser, zumal ich nicht recht einsehe warum ich solch ähnliche Zumutungen in einer so feinen Ironie kommentieren sollte daß der betreffende vielleicht die Bedeutung gar nicht erkennt.

Was Asimov ganz in meinem Sinne klarstellt ist, daß es bei wissenschaftlichen Erkenntnissen und Theorien verschiedene "Grade" der Falschheit gibt. Er erklärt, warum die Theorie der flachen Erde und die Theorie der kugelförmigen Erde beide falsch sind, warum aber zum Einen die Erstere sehr viel falscher ist als die zweite, und zum Anderen daß trotzdem beide in ihrem jeweiligen Anwendungsbereich sinnvoll, nützlich und in gewissem Sinn auch richtig sind. Er entgegnet dem naßforschen Studenten:
"John, als die Leute glaubten die Erde wäre flach lagen sie falsch. Als sie glaubten die Erde wäre kugelförmig lagen sie falsch. Aber wenn Sie denken daß es genauso falsch ist zu denken die Erde sei kugelförmig wie es falsch ist zu denken sie sei flach, dann ist Ihre Ansicht falscher als diese beiden zusammengenommen."
Er erklärt daß wissenschaftliche Theorien in sehr unterschiedlichem Ausmaß falsch sein können, und daß eine bessere Theorie eine vorige nicht etwa ersetzt, sondern ergänzt. Eine falsche Theorie ist damit nicht etwa falsch im absoluten Sinn, sondern unvollständig und von begrenzter Anwendbarkeit. Sie ist eine Vereinfachung der tatsächlichen Situation, die innerhalb ihres Geltungsbereiches weiterhin anwendbar bleibt. Die neuere, bessere Theorie muß man daher nur dann einsetzen, wenn der Fehler der einfacheren, älteren Theorie zu groß wäre.

So ist die Vorstellung einer flachen Erde bis heute nützlich und wird praktisch eingesetzt. So lange keine größeren Entfernungen im Spiel sind ist der Fehler oft vernachlässigbar. Erst über weiter Entfernungen baut sich ein Fehler auf der dann nicht mehr zu vernachlässigen ist. Ob die Theorie der flachen Erde reicht oder ob man die bessere Theorie der kugelförmigen Erde braucht ist damit eine Frage, die mit dem Aktionsradius des Menschen zu tun hat, und mit seinen Genauigkeitsansprüchen. Und so ist es auch mit den noch genaueren Theorien über die Form der Erde, die seither entwickelt wurden. Die sind zwar immer besser, aber zugleich auch immer seltener wirklich nötig. Die älteren, eigentlich falschen, aber dafür einfacheren Theorien decken die große Mehrheit der Anwendungsfälle immer noch ab.

Im Grunde gelten folglich die verschiedenen Theorien alle zusammen, und man muß bloß bei jedem Anwendungsfall eine Abwägung treffen zwischen dem Fehler den man zu tolerieren bereit ist, und der Einfachheit der Theorie. Das Beste ist, die einfachste Theorie zu verwenden, deren Fehler noch tolerierbar ist. Der Fehler, den man z.B. beim Ausmessen eines Grundstücks macht, wenn man von einer flachen Erde ausgeht, ist selten so groß daß man deswegen auf die kompliziertere sphärische Geometrie ausweichen müßte, ganz zu schweigen von der Geometrie eines Ellipsoids.

Aus dem gleichen Grund verwendet wohl kaum jemand im täglichen Leben die Quantentheorie, oder die Relativitätstheorie, obwohl die Newton'sche Mechanik durch diese beiden neueren Theorien bekanntlich korrigiert wurde.

Unsere Audiophilen machen daher genau den gleichen Fehler wie der besagte Student. Eine bewährte alte Theorie wird nicht durch eine neuere Theorie einfach auf den Müllhaufen der Geschichte verbannt. Was richtig war wird nicht plötzlich durch den wissenschaftlichen Erkenntnisfortschritt falsch. Es wird ergänzt, und sein Anwendungsbereich wird besser abgegrenzt. Innerhalb dieses Anwendungsbereiches kann man ohne Probleme weiterhin mit der alten Theorie arbeiten, und wird das auch in Zukunft können.

Die Hoffnungen, eine noch zu findende neue Theorie des Hörens würde also irgendwann plötzlich alle diese Dinge bestätigen, die in den feuchten Träumen der Audiophilen vorkommen, sind vergeblich. Die jetzt schon bekannten Erkennntnisse stecken einen Rahmen für die zukünftigen Erkenntnisse, insbesondere was die Größe des Fehlers angeht den die momentanen Theorien noch enthalten.

Angesichts dessen ist mir nicht bange daß ich eines Tages etwas von dem zurück nehmen müßte was ich bisher an wissenschaftlichen Erkenntnissen vertreten habe. Was jetzt schon als Unsinn erkennbar ist wird auch in Zukunft Unsinn bleiben.

Wenn man sich dagegen vor Augen führt daß die Audiophilen nicht selten glauben, sie hörten mühelos Dinge, die der Wissenschaft auch nach über hundert Jahren Forschung im akustischen Bereich noch nicht aufgefallen sind, die aber bestimmt in der Zukunft noch irgendwo in der neunten Nachkommastelle entdeckt werden würden, dann ist meiner Meinung nach sonnenklar wer hier in Wirklichkeit die Arroganz und den Größenwahn hat.