Dienstag, 27. Dezember 2011

FAQ USB-Audio

Man fetzt sich mal wieder über dem Thema USB-Kabel im Hifi-Forum. Das ist eigentlich nichts Neues, denn man kann sich ja bekanntlich über alle Arten von Kabeln fetzen, und ein gestandener Audiophiler läßt sich nun einmal nicht dazu bringen, seine eigenen Hörerlebnisse in Frage zu stellen, auch wenn alle Vernunft gegen sie spricht. Mir wird die Unwissenheit bei diesem Thema hier immerhin zum Anlaß für meinen dritten FAQ-Artikel (nach FAQ Symmetrie und FAQ Digitaltechnik).

Wie ist das nun, ist USB das bessere oder das schlechtere Audiointerface? Zu dieser Frage kursieren die unterschiedlichsten Meinungen!

Das liegt daran, daß es auf diese Frage keine eindeutige Antwort gibt. Es ist hier noch leichter als anderswo, Äpfel mit Birnen zu verwechseln, denn es gibt schon innerhalb von USB mehrere Arten der Audioübertragung (genauer gesagt der Synchronisation), und entsprechende Unterschiede in der Art und Weise, wie ein Hersteller mit den sich daraus ergebenden "Eigenheiten" umzugehen sich entschließt.

Generell gilt aber, daß man mit praktisch jeder Anschlußtechnik einwandfreie Ergebnisse erzielen kann, wenn man es "richtig" macht. Und man kann mit jeder Anschlußtechnik Mist bauen, vorzugsweise wenn man etwas nicht recht verstanden hat.

Dazu kommt noch, daß USB gelegentlich Dinge zur Last gelegt werden, die mit USB an sich gar nichts zu tun haben. Mein Lieblings-Gebiet "Masse" ist so ein Beispiel.

Was sind das für Synchronisationsarten bei USB, und was ist der Unterschied?

Es geht dabei um die Frage, woher letztlich der Takt für das digitale Audiosignal kommt. Drei Alternativen sind bei USB möglich, und die heißen auf Englisch "Synchronous", "Asynchronous", und "Adaptive".

Bei der Betriebsart "Synchronous" wird der Audiotakt direkt am USB-"Herzschlag" von 1 kHz orientiert. Das ganze USB-Protokoll (egal ob Audio oder andere Daten übertragen werden) unterliegt ja einem Raster von 1 kHz, das der Busmaster (also normalerweise der PC) für alle angeschlossenen Geräte vorgibt. Dieses Raster kann man in einem angeschlossenen Audiogerät auch als Grundlage für den Wordclock verwenden. Dazu braucht es eine PLL-Taktsynthesizer, für den das 1 kHz-Signal die Referenz bildet. In diesem Szenario gibt also der PC die Frequenz vor, und das Audiogerät muß sich daran orientieren.

Bei der Betriebsart "Asynchronous" wird der Audiotakt im Audiogerät autonom erzeugt, entweder durch einen eigenen, freilaufenden Oszillator, oder indem ein externer Takt dort eingespeist wird (z.B. ein externer Wordclock). Der PC als USB-Master muß sich daran orientieren. Die Betriebsart heißt so, weil der USB-"Herzschlag" (bzw. USB-Bustakt) nichts mit dem Audiotakt zu tun hat. Die beiden Takte sind voneinander unabhängig und damit asynchron.

Die dritte Betriebsart "Adaptive" schließlich bindet den Audiotakt an die Ankunft der eigentlichen Audiodaten. Der Empfänger der Datenpakete mit den Audiodaten muß aus der Häufigkeit der Pakete auf die Taktfrequenz schließen. Er muß sich also anhand der ankommenden Audiodaten automatisch in der Frequenz anpassen, daher der Name. Dafür braucht's in der Praxis wieder einen PLL-Frequenzsynthesizer; diesmal wird als seine Referenz nicht der USB-Bustakt genommen, sondern die ankommenden Datenpakete.

Was wird denn in der Praxis genommen?

Das ist eben nicht einheitlich. Ein wesentliches Kriterium für den Hersteller eines USB-Audiogeräts ist die Frage nach der Treiberunterstützung. In einem Betriebssystem gibt es meist schon einen fertigen USB-Audiotreiber, aber der kann nicht mit allen beliebigen Varianten umgehen. Der Hersteller muß also entscheiden, ob er eine Variante benutzt, die vom Betriebssystem schon unterstützt wird, oder ob er selber einen Treiber mitliefert. Letzteres ist natürlich aufwendiger und teurer, denn man hat zusätzlichen Entwicklungsaufwand. Außerdem ist es unbequemer für den Kunden, da er einen separaten Treiber installieren muß, weil das Gerät nicht einfach so nach dem Einstecken läuft.

Es kommt noch dazu, daß unterschiedliche Betriebssysteme und Betriebssystem-Versionen sich in den Varianten unterscheiden, die sie unterstützen. Die obige Frage für den Hersteller stellt sich also für jede dieser Versionen getrennt, und ein Hersteller könnte sich veranlaßt fühlen, sich für den kleinsten gemeinsamen Nenner zu entscheiden, den alle Versionen unterstützen. Dabei kommt dann oft eine Entscheidung heraus, die nicht von der Audioqualität bestimmt ist, sondern von Aspekten der Kompatibilität und der Einfachheit der Benutzung.

Bei D/A-Wandlern ist das in der Vergangenheit oftmals auf den "Adaptive"-Modus hinaus gelaufen, und gerade dieser Modus ist am schwierigsten zu beherrschen, was die saubere Takterzeugung angeht.

Darf ich raten? Es läuft wieder auf den Jitter hinaus, stimmt's?

Bingo! Prinzipiell kann man mit allen drei Modi auf niedrigen Jitter kommen, aber mit einem unterschiedlichen Aufwand, und mit unterschiedlichen Kompromissen. Oder aber man scheut den Aufwand und findet sich mit im Einzelfall hohem Jitter ab.

Der für die Takterzeugung einfachste und beste Fall ist bei einem D/A-Wandler (und auch A/D-Wandler), daß der Takt direkt beim Wandler erzeugt wird, und sich die anderen Geräte danach richten. Dann hängt die Qualität des Taktes nicht von einer Taktrekonstruktion durch eine PLL ab, und die Faktoren, die einen Qualitätseinfluß haben, werden minimiert. Diese Art der Takterzeugung würde bei D/A-Wandlern den asynchronen Modus nahelegen.

In diesem Modus muß es aber zusätzlich zum Datenpfad, der vom PC zum D/A-Wandler geht, auch einen Taktpfad in die entgegengesetzte Richtung geben. Der vom Wandler erzeugte Takt muß ja an den PC gehen, damit der die Daten im richtigen Rhythmus schicken kann. Dafür braucht es zusätzliche sog. "Endpoints", was die Implementierung der USB-Funktion in den Geräten geringfügig verteuert. Es gibt also einen Anreiz, wenigstens für die allerbilligsten Implementierungen, hier durch Wahl eines anderen Modus zu sparen.

In den beiden anderen Modi, "synchronous" und "adaptive", kommt der Takt vom PC und muß im D/A-Wandler rekonstruiert werden. Dazu braucht es eine PLL, und deren Auslegung ist Kompromissen unterworfen. Für niedrigen Jitter wäre es wünschenswert, die Regelung "träge" zu machen, um den Jitter besser herauszufiltern. Das geht aber auf Kosten der Zeit, die es braucht, bis die PLL am Beginn der Übertragung eingerastet ist. Das wäre bei "synchronous" nicht ganz so schlimm, denn der Bustakt liegt ja schon vor Beginn der Audioübertragung an, folglich kann man hier meist "vorsorglich" synchronisieren.

Bei "adaptive" ist man aber dazu verdammt, auf die Audiopakete zu warten, bevor man mit der PLL-Regelung anfangen kann, und dann müßte man ja eigentlich schon fertig spielfähig sein. Das läuft zwangsläufig auf einen Zielkonflikt zwischen niedrigem Jitter und schnellem Start hinaus. Hier findet man oft Lösungen, die gute Jitterperformance opfern, um schnell spielfähig zu sein. Es kommt noch erschwerend hinzu, daß hier auch noch die Referenz selbst schlechter ist als beim synchronen Modus, denn der Bustakt kommt am USB-Gerät mit weniger Jitter an als die Audio-Pakete, folglich gibt's im Fall der adaptiven Übertragung auch noch mehr Jitter, den die PLL rausfiltern muß.

Wenn der adaptive Modus der schlechteste ist, wieso gibt's ihn dann überhaupt, bzw. wieso wird er überhaupt genommen?

Es ist für den PC ein bequemer Modus, der Aufwand entsteht schließlich bloß im Audiogerät. Und selbst wenn man im Audiogerät nur einen Minimalaufwand treibt, kommt immerhin für viele Anwendungen ganz brauchbarer Schall raus. Deswegen war das auch der Modus, mit dem die Betriebssysteme am frühesten zurecht kamen.

Ein Problem hat im Übrigen damit hauptsächlich ein D/A-Wandler. Andere Arten von Audiogerät müssen unter Umständen gar keinen Takt rekonstruieren, bzw. haben keine besonderen Jitteranforderungen. Für die reicht "adaptive" ganz locker.

Wieso ist der Jitter überhaupt ein Problem? Schriebst Du nicht schon früher, der sei sowieso nicht hörbar?

Er kann schon hörbar werden wenn er heftig genug wird. Ich habe auf Untersuchungen verwiesen, die herausfinden wollten wieviel Jitter unter welchen Umständen hörbar ist, bzw. ab wann er nicht mehr hörbar ist. Dabei kommen Werte heraus, die nicht besonders schwierig zu erreichen sind. Daraus habe ich eine Einschätzung gewonnen, ab welchem Punkt man davon ausgehen kann, auf der sicheren Seite zu sein. Wenn man aber z.B. im Fall USB-"adaptive" keine besonderen Maßnahmen ergreift, dann kommen da u.U. ziemlich große Jitterwerte zustande, die eben nicht auf der sicheren Seite sind.

Ob man das dann hört ist beileibe nicht sicher, aber eben auch nicht ausgeschlossen. Für anständige Hifi-Geräte sollte man - Hörbarkeit hin oder her - auch anständige Jitterwerte erwarten können.

Woher weiß ich überhaupt, in welchem Modus mein Gerät arbeitet?

Wenn's die Dokumentation des Herstellers nicht hergibt, dann wirst Du auf USB-Analyse-Tools zurückgreifen müssen. Je nach Betriebssystem gibt's da freie und kommerzielle Produkte, aber in aller Regel ist das nichts für den Laien, denn was da angezeigt wird versteht man bloß, wenn man sich mit den USB-Dokumenten und der USB-Technik im Detail vertraut gemacht hat. Ich bin aber selbst für gute Tipps dankbar, denn ich habe auch keinen erschöpfenden Überblick über alles was es da so gibt.

Und wenn ich jetzt tatsächlich mit dem "asynchronous"-Modus arbeite, heißt das dann die Qualität ist besser als bei anderen Schnittstellen, wie z.B. S/P-DIF?

Die Voraussetzungen für guten D/A-Wandler-Takt sind in der Tat besser, denn der kommt bei "asynchronous" aus dem USB-Audio-Gerät selbst, während er in aller Regel bei S/P-DIF aus dem ankommenden Signal rekonstruiert werden muß. Wie gut er dann schlußendlich ist, kann nur eine Messung klären.

Ein guter Takt ist aus dem S/P-DIF-Signal normalerweise leichter zu extrahieren als bei USB-"synchronous" oder USB-"adaptive", weil die Signalquelle üblicherweise schon weit weniger jittert. Wollte ich eine Hierarchie für D/A-Wandler aufmachen, nicht der tatsächlichen Taktqualität, sondern der Schwierigkeit für den Hersteller, eine gute Taktqualität zu erreichen, dann würde die von einfach nach schwierig so aussehen:
  • USB-"asynchronous"
  • S/P-DIF
  • USB-"synchronous"
  • USB-"adaptive"
Die tatsächliche Taktqualität hängt von den konstruktiven Lösungen im Gerät ab und muß daher nicht dieser Reihe folgen, vielmehr kann man mit allen Alternativen einen guten Takt erzeugen, wenn man es darauf anlegt.

Hängt das dann auch vom Kabel ab?

Das ist in der Praxis ziemlich unwahrscheinlich, wenn auch nicht völlig ausgeschlossen. Wenn es Einflüsse gibt, dann haben die normalerweise ziemlich profane Gründe, die z.B. mit der Masse zusammenhängen, nicht aber mit USB. Eine USB-Verbindung stellt immer auch eine Masseverbindung her, und darauf reisen oft Störströme. Der PC ist in aller Regel ja auch als elektrische Störquelle bekannt. Für ein USB-Audiogerät stellt sich das Problem, wie man solche Störungen, die unweigerlich auf der Masse-Leitung und der Stromversorgung (USB transportiert ja auch noch eine 5 V Versorgung) daher kommen, aus den empfindlichen Schaltungsteilen heraus hält.

Die empfindlichen Schaltungsteile sind dabei insbesondere die analogen Schaltungsteile nach dem eigentlichen D/A-Wandler, aber es gehört auch die Takterzeugung und -aufbereitung dazu. In beiden Fällen besteht eine elektrische Verbindung zur digitalen Masse auf dem USB-Kabel, und damit zum PC.

Ich habe es z.B. schon erlebt, daß man auf diese Weise im USB-Audiosignal die PC-Festplatte hat arbeiten hören, aber das hat mit USB im Grunde nichts zu tun, sondern mit der Tatsache, daß die Festplatte auf die Stromversorgung Einfluß hat, und sich das über das USB-Kabel in das angeschlossene Audiogerät fortpflanzen kann. Und es hat was damit zu tun ob und wie man solchen Problemen im Audiogerät konstruktiv entgegen getreten ist.

Ein USB-Kabel kann auf diese Situation einen Einfluß haben, weil die Masse-Verbindung unterschiedliche Impedanzen haben kann, und weil höherfrequente Störungen bei manchen Kabeln durch Ferrithülsen bekämpft werden (das sind diese Verdickungen im Kabel in der Nähe der Stecker).

Ein Grund für die Anschaffung von "High-End"-Kabeln ist das aber nicht. Mit Geld ist da nicht viel ausgerichtet, zumal die Wirkungsweise solcher Kabel völlig im Dunkeln liegt, und davon auszugehen ist, daß die behaupteten Wirkungen frei erfunden sind.

Besser ist man dran, wenn man sich die generelle Topologie der Masseverkabelung genauer anschaut, Masseschleifen aufspürt, und nach Möglichkeit unterbindet. S/P-DIF bietet in dieser Hinsicht einen Vorteil gegenüber USB, weil es leicht galvanisch zu trennen ist, besonders wenn man die optische Variante nimmt. Dieser Vorteil kann in der Praxis weitaus größere Bedeutung haben, als die Unterschiede zwischen den einzelnen Modi bei USB.

Das erinnert mich an Deinen Artikel über die Netzwerkkabel.

Zurecht! USB ist in dieser Hinsicht einem Netzwerk ähnlich. Im Gegensatz zu Ethernet ist bei USB aber keine galvanische Trennung drin, man kann also nicht auf einfache Weise wie mit einem ungeschirmten Patchkabel die Massen trennen. Bei USB ist immer eine Masseverbindung mit drin, da kommt man bloß mit hohem Aufwand drum herum.

Das kommt daher, daß USB nicht für größere Entfernungen ausgelegt ist, und die kleinen Entfernungen nicht als problematisch in Sachen unterschiedliche Massepotenziale angesehen wurden. Für die meisten Fälle stimmt das auch, aber bei Audio kommt es leicht zu ausgedehnten Massenetzen, besonders über Schutzleiter und/oder Antennenerdung, und das führt immer wieder zu Problemen. Eine galvanische Trennung zwischen der Computerwelt und der Audiowelt wäre da in vielen Fällen sehr nützlich. Mit Ethernet und optischem S/P-DIF geht das sehr einfach, mit USB oder HDMI aber nicht.

Mit der eigentlichen Datenübertragung hat das also nichts zu tun?

Nein. Die Bits kommen immer noch unverändert an. Wenn's mal so schlimm wird, daß das nicht mehr gesichert ist, dann resultieren deutlichere Störungen als eine subtile Klangänderung.

Wenn Daten falsch ankommen werden sie übrigens nicht nochmal geschickt. Da gibt's anscheinend bei vielen Leuten ein falsches Verständnis. USB unterscheidet zwischen "Bulk"-Daten und "Isochronous"-Daten. Erstere werden gesichert, und die Übertragung wird im Fehlerfall wiederholt. Letztere werden nicht gesichert und auch nicht wiederholt, denn es wird davon ausgegangen daß es für so etwas gar keine Zeit gibt. Man nimmt an, daß "Isochronous"-Daten sofort gebraucht werden, und daß ein nochmaliges Verschicken im Fehlerfall ohnehin zu spät käme. Audiogeräte arbeiten aus nachvollziehbaren Gründen mit "Isochronous"-Daten, während z.B. ein Speicher-Stick mit "Bulk"-Daten arbeitet.

Jetzt weiß ich zwar viele Details, ich weiß aber immer noch nicht was ich konkret bevorzugen soll. Was würdest Du denn nehmen?

Ich habe einen Vorteil, denn ich kann im Zweifel messen ob mir die gebotenen Eigenschaften reichen.

Hätte ich das nicht, dann würde ich in den meisten Fällen erst einmal auf eine klar eingegrenzte Masseverkabelung achten, und das kann schnell den Ausschlag zugunsten S/P-DIF oder genereller zugunsten einer galvanisch getrennten Schnittstelle geben. Wenn's eine USB-Lösung sein soll, dann würde ich in Abwesenheit genauerer Information auf den asynchronen Modus Wert legen, was möglicherweise mit einem eigenen Treiber des Herstellers einher geht. Die Qualität des Treibers wird dann ohnehin eine wichtige Rolle bei der Kaufentscheidung spielen. Wenn das Gerät die Möglichkeit bietet, einen externen Wordclock entgegen zu nehmen, was generell wünschenswert ist, dann ist der asynchrone Modus sowieso der einzig sinnvolle Modus.



Für Kommentare gilt das Übliche.

Samstag, 24. Dezember 2011

Brummen oder Brennen?

Es ist ja schon schlimm genug wenn das von "wohlmeinenden Tippgebern" in einem Forum kommt, aber wenn's ein Hersteller quasi offiziell im Handbuch seines Produktes empfiehlt, dann wird's kriminell.

Es geht um die Bekämpfung von Brummschleifen durch Aufhebung der Schutzleiterverbindung.

Wer in seiner Audioanlage Geräte mit Schutzleiterverbindung hat, den trifft mit einer relativ großen Wahrscheinlichkeit auch das Problem der Brummschleife. Ich habe schon mehrfach über dieses mit der Masse zusammenhängende Problem geschrieben und werde das hier nicht wiederholen. Leider kursieren als Abhilfe immer wieder Tipps, man solle es bei einem oder mehreren Geräten eben mit dem Auftrennen der Schutzleiterverbindung probieren. Dazu gehört das Abkleben der Schutzleiterkontakte am Stecker, oder Manipulationen in den Steckern oder in den Geräten. Und das hilft ja oftmals auch gegen das Brummen, denn dadurch wird die Schleife tatsächlich aufgetrennt.

Beseitigt hat man dabei aber auch die Schutzfunktion, für die der Schutzleiter da ist. Man hat eine Unannehmlichkeit durch eine Gefahr ersetzt. Eine Gefahr nicht bloß für sich selbst, was man vielleicht noch moralisch vertretbar finden könnte, sondern eine Gefahr für unbeteiligte Dritte. Deswegen ist so etwas auch verboten, und falls tatsächlich was passieren sollte sieht man auch bei etwaigen Schadenersatzforderungen und Haftungsfragen ziemlich schlecht aus.

Im Hifi-Forum findet sich bei solchen Tipps zum Glück schnell jemand, der den Tippgeber rüffelt. Insofern ist da das Risiko gering, daß jemand zu illegalen und gefährlichen Handlungen angeleitet wird, ohne daß er sich dessen bewußt würde.

Anders ist das wenn ein Hersteller das in einer Bedienungsanleitung empfiehlt. Dort findet man auf der sechsten Seite folgenden Hinweis:
"However, if capacitors or directly coupled output is used, then only one connection to the safety earth is required, otherwise ground loop may occur. This means that either DAC or (say) amplifier should use a 3-lead /3-pin earthed connection, but not both."
Der Autor scheint zu glauben, daß die Sicherheit auch dann gewährleistet ist, wenn nur ein Gerät mit dem Schutzleiter verbunden ist, weil die anderen Geräte, z.B. über die Masse einer Cinch-Verbindung, dann indirekt ebenfalls am Schutzleiter hängen.

Das ist aber ein schwerer Irrtum!

Ich fürchte der Irrtum ist relativ häufig, weswegen eine Erklärung hier wohl angebracht ist.

Der Schutzleiter ist dazu da, zu verhindern daß der ahnungslose Benutzer eines fehlerhaften Gerätes mit Netzspannung in Berührung kommen kann, und dadurch zu Schaden kommt. Es ist wichtig, sich klar zu machen welche Fehlerszenarien dadurch abgedeckt werden sollen, denn dadurch erkennt man wie der Schutzleiter wirken soll, und warum der Hinweis des Herstellers falsch und gefährlich ist.

Ein Audiogerät hat üblicherweise ein metallisches Gehäuse, und das kann Strom leiten. Wenn durch einen Defekt im Gerät ein Draht, der Netzspannung führt, mit dem Gehäuse in Kontakt kommt, dann liegt die Netzspannung frei berührbar am Geräteäußeren und stellt eine Gefahr dar. Es gibt zwei verschiedene Arten wie man dieser Gefahr begegnet:
  • Ein schutzisoliertes Gerät enthält intern verstärkte Maßnahmen, um die Isolation der Netzspannung vom Gehäuse zu gewährleisten. Eine Schuzleiterverbindung ist dann nicht nötig und auch gar nicht erlaubt. Dieser Fall ist der übliche Fall bei Hifi-Anlagen. Die Geräte haben meist einen flachen 2-poligen "Eurostecker".
  • Das Gehäuse des Gerätes ist mit dem Schutzleiter verbunden, so daß bei Kontakt der Netzspannung mit dem Gehäuse ein Kurzschluß entsteht, und durch den entstehenden Stromfluß eine Sicherung auslöst, wodurch die Netzspannung unterbrochen wird. Die Schutzleiterverbindung ist bei so einem Gerät Pflicht, und der Stecker ist 3-polig (die beiden seitlichen Kontakte beim Schuko-Stecker zählen als eine Verbindung).
Daraus sieht man, daß die Schutzleiterverbindung den Strom aushalten können muß, der zum Auslösen der Sicherung nötig ist. Deswegen ist vorgeschrieben, daß die Schutzleiterverbindung mit einem Draht gemacht sein muß, der mindestens so dick ist wie die anderen Drähte im Netzkabel. In Deutschland sind die meisten Steckdosen mit 16 A abgesichert, das heißt der Schutzleiter muß 16 A vertragen können.

Das ist aber nicht der Fall wenn die Schutzleiterverbindung über ein Cinch-Kabel geht. Wenn man Glück hat ist da genug Kupfer drin daß die Masseverbindung so einen Strom aushält, aber es gibt viele Kabel bei denen es bei weitem nicht reicht. Was dann im Fehlerfall passieren kann ist schnell beschrieben: Das Cinch-Kabel wird heiß und fängt im Extremfall an zu brennen. Die Sicherung löst nicht aus, stattdessen brennt das Kabel durch, und es liegt jetzt tatsächlich Netzspannung am Gehäuse an. Die Schutzleiterverbindung hat sich selbst deaktiviert, anstatt die Gefahr zu beseitigen, und ist sogar selbst zur Gefahr geworden.

Und es gibt noch einen weiteren Grund warum der Tipp des Herstellers gefährlich ist: Wenn manche Geräte auf diese Weise indirekt geerdet sind, dann ist es einfach, sie am Netz zu lassen während die Schutzleiterverbindung unterbrochen wird. Man braucht ja bloß die NF-Leitung abzuziehen, schon ist der Schutz weg, ohne daß gleichzeitig auch die Netzverbindung aufgehoben wäre. Man konstruiert die Netzstecker ja nicht umsonst so, daß die Schutzleiterverbindung immer automatisch hergestellt wird, wenn man einsteckt. Sie wird sogar durch voreilende Kontakte beim Einstecken zuerst hergestellt, und beim Ausstecken zuletzt getrennt. Wenn die Verbindung über separate Leitungen und Stecker geht, dann ist es mit diesem Automatismus vorbei. Damit wird es in der Praxis viel zu einfach, daß man den Schutz verliert, ohne daß es auffällt.

Bei den ganzen elektrischen Schutzmaßnahmen ist das dahinter stehende Prinzip, daß man vom Desaster immer mindestens zwei voneinander unabhängige Schritte entfernt sein will. Wenn ein Fehler reicht um die Katastrophe auszulösen, dann ist es eine Frage der Zeit bis sie eintritt. Der Schutzleiter ist ein Beispiel für diese zweite Barriere, die dann auf den Plan tritt wenn ein Fehler passiert ist. Das heißt aber auch daß man das Fehlen der zweiten Barriere nicht bemerkt, so lange alles in Ordnung ist. Fehlt sie aber, dann hindert nichts mehr, daß sich ein Fehler in Sekundenbruchteilen von einer harmlosen Kleinigkeit zu einem echten Problem größeren Ausmaßes entwickelt.

Deswegen sind solche faulen Tipps so problematisch: Sie suggerieren, daß alles in Ordnung ist, und wenn sie auch noch das Brummen beseitigen, dann scheint der Zustand sogar verbessert worden zu sein. In Wirklichkeit hat man einen Sicherheitsmechanismus unterlaufen, dessen Fehlen zum Verhängnis führen kann.

Für mich ist so etwas ein Killer-Kriterium für einen Hersteller, da können seine sonstigen Leistungen sein wie sie wollen.



Für Diskussionen gibt's wie üblich diesen Thread.

Sonntag, 11. Dezember 2011

Gottesmarketing

Gerade als in meinem Thread im Hifi-Forum über die Rolle der Presse im Lautheitskrieg diskutiert wird, rauscht ein anderes Thema durch den Blätterwald, an dem meiner Meinung nach die Mechanismen der Medienlandschaft noch besser aufgezeigt werden können.

Es brodelt die Gerüchteküche, daß das CERN in Kürze den Nachweis des schon lange gesuchten Higgs-Bosons verkünden könnte. Oder zumindest einen deutlichen Hinweis auf dessen Existenz. Für die Physik ist das eine außerordentlich wichtige Nachricht. Das für mein heutiges Thema Interessanteste dabei ist aber, daß sich in der allgemeinen Medienlandschaft inzwischen praktisch niemand mehr verkneifen kann, beim Higgs-Boson vom sogenannten "Gottesteilchen" zu reden. Egal ob Spiegel, Süddeutsche oder Bild, ob Deutschlandfunk oder Heise, keiner widersteht der Versuchung.

Was aber hat dieses Teilchen mit Gott zu tun?

Der Ursprung dieser Bezeichnung ist schnell erzählt: Der Physiker und Nobelpreisträger Leon Lederman veröffentlichte 1993 mit einem populärwissenschaftlichen Coautor zusammen ein Buch über das Higgs-Boson und seine Rolle im physikalischen Weltmodell. Angeblich wollte Lederman das Teilchen ursprünglich "that goddamn particle" nennen, aber da war sein Lektor dagegen. Stattdessen wurde es dann zum "god particle", was in der Retrospektive eine wirtschaftlich gesehen clevere Wahl war, denn wie man sieht hängt der Begriff bis heute in den Hirnen der Journalisten und ihrer Leser fest.

Das Teilchen hat also genau das mit Gott zu tun, daß Gott auf dem Umschlag eines populärwissenschaftlichen Sachbuches eine umsatzsteigernde Wirkung hat, besonders wenn der Autor ein Physiker mit Nobelpreis ist.

Mehr ist da nicht.

Der Begriff "Gottesteilchen" ist damit nichts Anderes als eine "Urban Legend", ein sich aus sich selbst heraus weiter verbreitendes Gerücht, ein "Mem", das die Hirne in unserer Medienwelt befällt und sie dazu bringt, es zu vervielfältigen. Die vom Begriff suggerierte Verbindung zwischen Physik und Metaphysik existiert dabei aber gar nicht, der Begriff ist leer, eine Mogelpackung ohne Inhalt. Es ist ein Trick des Marketings, um im umkämpften Sachbuchmarkt auf die vorderen Plätze zu kommen. Wer da in den entsprechenden Ranglisten nicht in die ersten 10 Plätze vorstößt, der taucht bei vielen Leuten gar nicht erst auf dem Radar auf. Einen Begriff zu erfinden, der etwas suggeriert das das Buch hinterher dann gar nicht einlöst, gehört da noch zu den harmloseren Finten.

Aber warum machen die ganzen Journalisten dabei mit? Sicher nicht um Lederman und seinem Verlag zu mehr Umsatz zu verhelfen! Worin besteht die Faszination und die Wirkung dieses Begriffs, der doch eigentlich gar nichts aussagt (und das was er suggeriert ist gelogen), und bloß als Verkaufshilfsmittel erfunden wurde?

Nun ist es sicher so, daß der Begriff "Higgs-Boson" in der Überschrift eines Zeitungsartikels weniger Leser anziehen wird, als das Wort "Gottes-Teilchen". Aber da gäbe es noch andere Möglichkeiten, die zum gleichen Ergebnis führen würden. Wie wär's zum Beispiel mit: "Teufels-Teilchen", "Todes-Teilchen", "Phantom-Teilchen", "Sex-Teilchen" oder "Märtyrer-Teilchen"? Wenn es nur darum geht Aufmerksamkeit zu erregen, ohne Rücksicht auf den damit transportierten Inhalt, dann ist es doch völlig egal, mit welchem reißerischen Hohlwort man das Teilchen verbindet! Dann hätte auch der Begriff "Gottverdammtes Teilchen" funktioniert, den der Lektor damals abgelehnt hatte.

Aber ich denke unter all diesen Alternativen ist es nicht zufällig der Begriff "Gottes-Teilchen" geworden. Es ist derjenige Begriff, der am ehesten "geht". Warum?

Es gibt unbestreitbar ein großes unterschwelliges Bedürfnis, die Naturwissenschaften, und speziell auch die Physik, mit dem Metaphysischen in Verbindung und in Einklang zu bringen. Gerade die Physik hat sich auf der einen Seite immer weiter von der Vorstellungswelt eines "normalen" Menschen entfernt, andererseits tritt sie im Gebiet der "Welterklärung" gegen die Religionen an, und kann für sich geradezu spektakuläre Erfolge verbuchen, die immer auch als Niederlage der Religion aufgefaßt werden können. Wenn der Nachweis des Higgs-Bosons nun gelungen sein sollte, dann wäre das ein weiterer spektakulärer Erfolg der Physik.

Das zu würdigen fällt einem als physikalisch nicht entsprechend vorgebildetem Mensch zusehends schwerer, angesichts des sich von der normalen Erfahrungswelt immer weiter entfernenden Themas. Vielleicht ist es daher nicht ganz überflüssig wenn ich das kurz einzuordnen versuche. Beim Higgs-Boson geht es nicht um Gott, und ich habe auch wenig Verständnis für die Metapher, das Teilchen würde das Universum zusammen halten. Das Teilchen hält eine wissenschaftliche Theorie, ein Erklärungsmodell zusammen. Es ist gewissermaßen der Schlußstein in diesem Modell und damit seine Bestätigung.

Vergleichen kann man das mit dem Periodensystem der Elemente, das im 19. Jahrhundert als Theorie aufgestellt wurde. Diese Theorie hat das Verständnis, wie Materie aufgebaut ist, entscheidend voran gebracht. Das hat viele Anwendugen, besonders auch in der Chemie, erst möglich gemacht, und hat auch das Verständnis vom Aufbau der Atome befördert. Aus der Theorie folgten aber auch Vorhersagen über die Existenz von Elementen, die bis dahin noch nicht bekannt waren, für die es aber im Periodensystem einen Platz gab.

So etwas ist für die wissenschaftliche Arbeit extrem wichtig, denn es bietet eine Möglichkeit, die Theorie zu testen. Wenn man aus der Theorie die Existenz von etwas bisher Unbekanntem folgern kann, dann kann man experimentell nach diesem Unbekannten suchen, denn aufgrund der Theorie kann man genauer sagen was für Eigenschaften das Gesuchte haben müßte. Wenn es daraufhin gefunden wird, dann ist das eine überzeugende Bestätigung für die Theorie. Wenn man es nicht findet, muß man eine plausible Erklärung finden warum man das Gesuchte nicht finden konnte, ansonsten sieht die Theorie alt aus.

Beim Periodensystem hat das ausgezeichnet geklappt. Schon Mendelejew, einer der beiden Entdecker des Periodensystems, postulierte auf dessen Basis die Existenz dreier bis dahin unbekannter Elemente, weil im Periodensystem an diesen Stellen Lücken auftraten. Alle drei Elemente (Gallium, Scandium und Germanium) wurden daraufhin gefunden.

Das Higgs-Boson ist das einzige Teilchen aus der als "Standardmodell der Elementarteilchenphysik" bekannten Theorie, für welches man bisher noch keinen Nachweis hatte. Higgs und ein paar andere Physiker haben schon vor Jahrzehnten vorausgesagt, daß es ein solches Teilchen geben müßte wenn das Standardmodell stimmt. Es ist die gleiche Situation wie damals bei den Lücken im Periodensystem: Wenn man das findet was in die Lücken reingehört, dann ist das eine schlagende Bestätigung für die Theorie.

Das Wichtige ist also nicht das Teilchen, sondern die Theorie. Ohne die Theorie hätte man gar keinen Grund nach dem Teilchen zu suchen, und keinen Anhaltspunkt wie und wonach man suchen müßte. Und man hätte auch keine Rechtfertigung für das viele Geld, das man dafür ausgeben muß. Die Wichtigkeit dieser Frage kann man daran erkennen, wieviel Geld man in den Bau des Apparates hineingesteckt hat, mit dem man so ein Teilchen suchen kann. Es wirkt zugegebenermaßen etwas paradox, daß man immer größere Anlagen bauen muß, um immer kleinere Teilchen aufzuspüren, aber das ist wohl der Gang der Physik.

Wenn also das Higgs-Boson nun zu einem erneuten Triumph der Physik werden sollte, dann ist das so weit von Gott entfernt wie es nur sein könnte. Gott hat weder etwas mit der Entstehung der zugrunde liegenden Theorie zu tun, aufgrund derer die Existenz des Teilchens vorhergesagt wurde, noch mit der Suche nach einem experimentellen Nachweis. Higgs selbst glaubt nicht an Gott, so wenig wie wahrscheinlich die Mehrheit seiner Fachkollegen. Das Teilchen erklärt einen Aspekt der physikalischen Realität, für den man nun keine religiöse Erklärung mehr braucht; es hat damit Gott um ein ganz klein wenig überflüssiger gemacht.

Eigentlich sollte sich damit die Notwendigkeit reduziert haben, auf Metaphysik zurückzugreifen, aber erstaunlicherweise führt es dazu, daß mal wieder die metaphysischen Assoziationen ins Kraut schießen, gerade so als wäre die nackte Wissenschaft unerträglich, und müßte in eine Art religiöser Watte gepackt werden.

Ich meine, den beteiligten Wissenschaftlern kann das nicht recht sein. Ich verstehe auch nicht wirklich, warum sich ein Lederman von seinem Verlag so manipulieren läßt. Seine Botschaft wird dadurch jedenfalls verfälscht, und er gibt sich als Kronzeuge für etwas her, das gar nicht Seines ist. Ich empfinde hier die Religion als ein Kuckucksei im naturwissenschaftlichen Gelege, das von den Wissenschaftlern mit ausgebrütet wird. Um ihres eigenen Marketingerfolges willen betreiben sie das Geschäft derer, die ganz andere Ziele haben: Gottesmarketing. Und wie es beim Kuckuck so ist, könnte es sein daß am Ende die eigenen Küken aus dem Nest geschmissen werden.


Kommentare wie üblich bitte hier.

Freitag, 2. Dezember 2011

Der Fluch der besseren Technik

Wenn heute jemand behauptet, Analog klänge besser als Digital, dann muß ich ihm in gewisser Weise sogar recht geben. Eine CD beispielsweise klingt nicht selten heutzutage beschissener als das gleiche Material auf der LP. Und auch im Radio hat die Digitaltechnik anscheinend eher zu einer Verschlechterung als einer Verbesserung der Klangqualität geführt. Haben die alten Analog-Verfechter am Ende doch recht behalten? Was ist faul an der Digitaltechnik?

Nun, technisch gesehen ist nix daran faul. Technisch gesehen ist die Digitaltechnik eindeutig besser. Die meisten angeblichen Vorteile der Analogtechnik basieren auf teilweise grobem Unverstand der Digitaltechnik. Die Digitaltechnik ist das Opfer ihres eigenen Erfolges, und ihrer Möglichkeiten, geworden. Auch diese Revolution hat mal wieder ihre Kinder gefressen.

Das klingt erst einmal paradox, aber wenn man sich die Entwicklung der letzten 30 Jahre anschaut, erkennt man den roten Faden und die Triebkräfte. Ein sehr wichtiger Faktor war dabei der Lautheitskrieg.

Als die CD auf der Bildfläche erschien, gab es zwar schon einen Lautheitswettbewerb bei Analogmedien, wie z.B. der LP, aber die damaligen technischen Möglichkeiten waren noch recht bescheiden. Zum Lautmachen braucht man technische Hilfsmittel, allen voran die sog. Dynamikkompressoren, die den Unterschied zwischen laut und leise verkleinern. Dadurch kann man die durchschnittliche Lautheit anheben, ohne daß die gelegentlichen Pegelspitzen die technischen Grenzen des Mediums sprengen. Solche Dynamikprozessoren gab es zwar schon als Analoggeräte, aber mit vergleichsweise einfachen Möglichkeiten.

Die Grenzen des Mediums sind dabei bei Analogmedien weniger scharf definiert als bei der Digitaltechnik. Das Analogband fängt z.B. an der Pegelgrenze zunehmend an zu verzerren, aber ein hartes Limit gibt's nicht. Letztlich wirkt das Analogband selbst als eine Art Dynamikkompressor, und es ist auch schon früh zu genau diesem Zweck eingesetzt worden. Bei der LP ist das anders, da gibt's aber ebenfalls keine scharfe Grenze. Es steigt lediglich bei steigendem Pegel die Wahrscheinlichkeit, daß die Nadel aus der Rille fliegt. Man würde also riskieren, daß eine steigende Zahl von Käufern sich beschweren und das Produkt umtauschen will. Bei UKW-Rundfunk gibt's eine von der damaligen Post als der für die Sender verantwortlichen Behörde überwachte Modulationsgrenze. Heutzutage ist die Bundesnetzagentur dafür zuständig, die Modulationsgrenze ist nach wie vor die gleiche. Diese Grenze wird durch einen hart einsetzenden Limiter erzwungen, eine technische Grenze gibt es dagegen in dieser Form nicht. Das Limit ist hier also ein rechtliches, und kein technisches Limit wie bei den anderen Medien.

Bei der Digitaltechnik ist die Situation einfacher, denn die Codierung der Abtastwerte als Zahl bedingt eine Grenze, die durch den maximalen und minimalen Zahlenwert definiert ist. Diese Grenze ist hart und absolut. Da gibt's keinen allmählichen Übergang, entweder die Zahl paßt in den vorgesehenen Bereich, oder eben nicht. Wenn nicht, dann liegt Übersteuerung vor, und dann wird die Zahl auf den Maximalwert begrenzt, was mit dem Begriff Clipping beschrieben wird.

Technisch gesehen ist sowohl das analoge als auch das digitale Übersteuern unerwünscht, denn die Klangqualität leidet. Bei digitalem Clipping leidet sie wegen dem scharfen Einsatz und der damit verbundenen spektralen Auswirkungen weitaus mehr. Deswegen war schon den Digitaltechnik-Pionieren vor 30 Jahren klar daß Clipping unbedingt zu vermeiden ist, und man deshalb mit großzügigem Headroom arbeiten muß.

Diese technisch wohlbegründeten Ansichten passen aber schlecht zum Lautheitskrieg, wo die Triebfeder ja gerade die ist, innerhalb der technischen Möglichkeiten eine möglichst hohe Lautheit hinzukriegen.

Die Folge war also, daß jeder technische Fortschritt im Bereich der Dynamikprozessoren dahingehend genutzt wurde, um die Lautheit immer weiter zu steigern. Und gerade die Digitaltechnik hat im Bereich der Dynamikprozessoren einiges an zusätzlichen Möglichkeiten eröffnet, die im Analogzeitalter außer Reichweite waren.

Die Multibandkompressoren sind so eine Entwicklung, die zuerst Eingang in die Rundfunkanstalten fand. Das lange Zeit dominante Produkt ist der berühmt-berüchtigte Optimod der Firma Orban. Der Name deutet schon an, daß es darum ging, die erlaubten Modulationsgrenzen möglichst optimal auszunutzen. Die Überlegung dahinter ist, daß ein so bearbeitetes Signal beim "Durchkurbeln" der Sender am Radio lauter und druckvoller klingt, und daß ein Hörer so leichter bei diesem Sender hängen bleibt, als bei anderen, leiser wirkenden Sendern. Zudem steigt die Reichweite eines solchen Senders etwas an, also die Entfernung, in der er noch brauchbar zu empfangen ist. Beides sind insbesondere für kommerzielle Radiosender wichtige Argumente, denn sie wirken sich direkt auf die Werbeeinnahmen aus, aus denen der Sender sich finanziert. Es wird daher wenig überraschen, daß die kommerziellen Sender die Vorreiter beim Einsatz solcher Geräte waren. Letztlich haben sie dadurch aber auch die restlichen Sender in Zugzwang gesetzt.

Eine solche Signalbearbeitung ist nicht qualitätsneutral. Eine gemäßigte Dynamikbearbeitung kann die empfundene Signalqualität verbessern, aber es liegt im Naturell eines aus Konkurrenz gespeisten Wettbewerbs, daß die Sache nicht gemäßigt bleibt, sondern auf die Spitze getrieben wird. So lange die Hörerschaft nicht in Scharen flieht wird es immer einen Sender geben, der den Optimod noch etwas radikaler einstellt, und den daraus resultierenden kaputten Klang in Kauf nimmt. Die Wirkung ist dabei vor allem auf den vordergründigen Effekt ausgelegt, das Signal springt einen regelrecht an und wirkt daher sehr druckvoll, wird aber auch sehr schnell nervig und ermüdend, und wirkt bei allem Druck leblos, atemlos und verstopft.

Die Möglichkeiten eines Optimod sind natürlich auch bei der Musikproduktion nicht unbemerkt geblieben, und bei der Werbebranche erst recht nicht. Auch wenn man da nicht unbedingt die gleichen Geräte wie im Rundfunk benutzt, so wurden doch die gleichen technischen Möglichkeiten herangezogen, um im Rahmen dessen was das Medium CD hergibt die Lautheit zu maximieren. So lange die CD noch ein Medium für eine qualitätsbewußte Minderheit war, also in den 80ern, war das nicht so prominent, aber in den 90ern, als die CD zum Massenmedium wurde und die LP in den Minderheitsstatus drängte, war der Lautheitskrieg auch da in vollem Gang.

Als Motivation fehlt zwar da die Vorstellung vom Hörer, der die Sender "durchkurbelt" und am lautesten Sender hängen bleibt. Es gab aber immer auch schon Kompilationen von Titeln mehrerer Interpreten aus den Charts auf einer CD, und fast nie wurde dafür noch eine eigene Pegelanpassung gemacht, damit alle Titel gleich laut erscheinen. Das wäre zu viel Arbeit gewesen. Stattdessen hat man einfach die betreffenden Titel ohne weitere Bearbeitung zusammengestellt (was mit der Digitaltechnik besonders einfach wurde), und wenn sie unterschiedlich laut produziert wurden, dann war das auf dem Kompilat eben so zu merken. Es liegt auf der Hand, daß mindestens einmal bei denjenigen Musiksparten, zu deren Vermarktung solche Kompilationen ("Sampler") üblich sind, der Lautheitskrieg tobte. Kein Musikproduzent wollte auf einem Sampler gegen die "Konkurrenz" verlieren, weil das direkt die Verkaufszahlen beeinflußt hätte. So jedenfalls die verbreitete Überzeugung. Die Konsequenz ist eine seit Anfang der 90er stetig steigende Lautheit der CD-Produktionen, die inzwischen ein absurdes Ausmaß erreicht hat, das auch sehr auffällige Klangprobleme in Kauf nimmt.

Da die LP inzwischen nicht mehr das Massenmedium ist, ist dort der Druck zum Lautmachen weitgehend weggefallen. Ironischerweise hat das dazu geführt, daß die empfundene Klangqualität trotz der schlechteren technischen Ausgangslage in vielen Fällen heute besser ist als bei der entsprechenden CD.

Das war auch mal eine Zeitlang für alternative digitale Medien wie DVD-A und SACD der Fall. Die Hoffnung war, daß man für den qualitätsbewußten Teil des Marktes damit ein anderes Medium etablieren kann, für das auch ein besseres Mastering zu höherer empfundener Qualität führt. Dem Marketing folgend, hat ein großer Teil der Kundschaft die besseren technischen Daten dieser Medien für den besseren Klang verantwortlich gemacht, also z.B. die höhere Abtastfrequenz, aber die wirklichen klanglichen Vorteile gehen auf ein anderes Mastering zurück, das auf eine kompromißlose Maximierung der Lautstärke verzichtet, und nicht auf die besseren technischen Daten gegenüber der CD.

Diese Rechnung ging aber nicht auf, und diese neueren Formate konnten sich nicht auf dem Markt etablieren. Meiner Meinung nach gibt es dafür mehrere Gründe:
  • Die neueren Formate hatten einen Kopierschutz, und die Kundschaft hatte die wohl nicht unberechtigte Befürchtung, daß damit auch der Preis hoch gehalten werden sollte. Zudem hatte man begonnen, die Vorteile eines frei kopierbaren Formates wertzuschätzen, z.B. indem man sich eine Kopie für's Auto anfertigt, oder den Computer zur Jukebox macht. Solche Bequemlichkeiten wären mit einem Kopierschutz gleich mit entfallen. Zudem hatte man den Ruf eines Kopierschutzes mit ein paar mißglückten Versuchen bei der CD nachhaltig ruiniert.
  • Da man sowieso eine CD herstellen muß, verdoppelt sich der Aufwand, denn nun hat man den Produktionsaufwand für die CD und das neue Format. Zudem ist bei der SACD die Möglichkeit einer CD-kompatiblen Schicht vorhanden. Wenn man aber bei der CD-Schicht einfach das Material von der kriegerisch lauten Normal-CD nimmt, dann sieht die SACD-Schicht im Vergleich dazu schlecht aus. Man müßte also auch die SACD-Schicht entsprechend laut machen, oder die CD-Schicht anders produzieren als die Normal-CD, was den Aufwand auf das Dreifache steigern würde.
  • Parallel dazu steigt der Kostendruck bei Musikproduktionen immer weiter an, so daß das Budget für den zusätzlich entstehenden Aufwand immer knapper wird. Das führt dazu, daß man qualitative Kompromisse macht, die den Vorteil der DVD oder SACD schmälert, und ihre Attraktivität weiter verringert.
Ob dem aktuellen erneuten Versuch mit der Audio-Blu-ray gelingen kann, aus diesem Dreieck zu entkommen, bleibt abzuwarten. Ich bin nicht besonders optimistisch. Auch da wird erneut der Fehler gemacht, daß man versucht dem Kunden die größere Abtastrate und/oder Wortlänge als wesentlichen Vorteil zu verkaufen. Das ist aber nicht das entscheidende Problem, denn die tatsächliche Klangqualität der CD liegt aufgrund des Lautheitskrieges ja auch erheblich unter den technischen Möglichkeiten. Es käme darauf an, zu zeigen wie man das bei einem anderen Format vermeiden will.

Im Zusammenhang mit dem Lautheitskrieg muß aber auch noch die Rolle der Werbebranche erwähnt werden. In Radiosendern, die sich ganz oder zum Teil aus Werbeeinnahmen finanzieren, hat es seit jeher Diskussionen über die Lautheit der Werbespots gegeben. Die Werbekunden wollen üblicherweise mit ihrem Spot möglichst viel Aufmerksamkeit erregen, und das versuchen sie - wer hätte es gedacht - über die Lautheit zu erreichen. Der Spot soll lauter als das umgebende Programm sein, und am besten auch lauter als andere Spots davor oder danach. Wenn also schon der Lautheitskrieg bei den Sendern selbst eingesetzt hatte, so tobte er noch schärfer bei den Werbespots. Dort werden Kompression und Übersteuerung noch radikaler eingesetzt, ohne Rücksicht auf den höchst nervenden Effekt.

Das Verhältnis zwischen den Werbekunden und den Sendern ist dabei ein ganz eigenes Problem. Der Werbekunde zahlt für den Spot. Er hat daher kein Interesse daran daß ein Tontechniker im Sender den zu lauten Spot einfach herunterregelt. Und der Sender hat kein Interesse an einer juristischen Auseinandersetzung darüber ob der Spot nun zu leise gesendet wurde oder nicht, und er hat schon gar kein Interesse daran den Werbekunden zu verlieren. Also werden die Werbespots mit einer genau definierten, für alle Spots gleichen Reglerstellung abgespielt. Gegen die lautmacherischen Tricks der Werbekunden hat man folglich keine praktische Handhabe. Wenn man mit seinem eigenen Programm nicht abfallen will und hohe Pegelsprünge in Kauf nehmen will, die Hörerbeschwerden hervorrufen würde, dann muß man in diesem Spiel mitmachen. Da ja außerdem auch die Musiktitel von der CD dem gleichen Phänomen unterworfen sind, bleibt einem fast nichts Anderes übrig, als die Lautstärkeunterschiede durch eine entsprechende Einstellung des Optimod am Ende der Signalkette zu nivellieren. Das bedeutet noch mehr Kompression, und einen entsprechenden Verlust an Klangqualität für das ganze Programm, und nicht bloß die Werbung.

Das Ganze ist eine Spirale, und sie führt abwärts. Die Digitaltechnik liefert für diesen Krieg immer ausgefeiltere Waffen, die aus der technischen Sicht zwar auch für die Verbesserung der Klangqualität eingesetzt werden könnten, de facto aber zum genauen Gegenteil benutzt werden. Von Qualität wird geredet, der Lautheitskrieg wird gemacht.

Inzwischen ist den meisten Leuten klar, daß hier großflächig verbrannte Erde hinterlassen wird, was dem vielleicht etwas drastisch empfundenen Begriff des Krieges weitere Rechtfertigung gibt. Die Qualitätsprobleme bei Radio, Fernsehen und Musikproduktion haben ein Ausmaß erreicht, das auch unkritischen Verbrauchern anfängt, auf die Nerven zu gehen, von der qualitätsbewußten Minderheit ganz zu schweigen. Mein eigener CD-Konsum hat schon seit Längerem drastisch abgenommen, und das hat rein gar nichts mit illegalem Kopieren zu tun. Auch bei Radiosendern gibt's nur noch wenige die ich länger als eine halbe Stunde ertragen kann, und es sind nicht zufällig die, wo keine Werbung läuft. Man könnte es mit dem Alter abtun, aber ich bin mir sicher daß da mehr dahinter steckt, daß da wirklich die (Digital-)Revolution ihre Kinder frißt.

Aber vielleicht hatte Hölderlin ja recht als er dichtete: "Wo aber Gefahr ist, wächst das Rettende auch!". Für den Rundfunk und das Fernsehen könnte das Rettende in Form der EBU-Empfehlung R128 kommen. Was da so technisch daher kommt, könnte der Hebel sein, mit dem man diese Abwärts-Spirale aufbrechen kann.

Wie soll das gehen? Nun, R128 baut auf einem relativ neuen technischen Verfahren auf, mit dem die Lautheit eines Audiosignals bestimmt werden kann. Die Lautheit ist etwas Anderes als der Pegel, das sollte aus dem schon Gesagten klar geworden sein. Die Lautheit ist an der menschlichen Empfindung orientiert, nicht an der elektrischen Signalstärke. Es finden darin Erkenntnisse Verwendung, die aus psychoakustischen Forschungen resultieren. Das entsprechende Lautheits-Meßverfahren ist als ITU-R BS.1770 genormt, und die EBU-Empfehlung besagt, daß man dieses Verfahren verwenden solle, um die gesendeten Beiträge auf eine einheitliche Lautheit zu bringen.

Das könnte zwar auch ein menschlicher Toningenieur machen, wenn man ihn denn ließe. Der Vorteil des neuen Verfahrens ist aber, daß die Gefahr juristischer Auseinandersetzungen mit den Werbekunden vermieden werden kann. Menschlicher Eingriff kann immer als willkürlich angegriffen werden, aber ein wohldefiniertes Verfahren hat einen objektiven und unparteiischen Charakter. Zudem hat man im Zuge der Umstellung auf Selbstfahrer-Studios die separaten Tontechniker im Radio überflüssig gemacht. Der Moderator regelt selbst, und könnte die dauernde Anpassung ohnehin nicht leisten.

Wenn also eine Rundfunkanstalt sich auf die Empfehlung R128 festlegt, dann kann die Werbebranche wenig dagegen einwenden, denn diese Entscheidung ist ja für alle gleich. Wenn der eigene Werbespot nun um 1 dB lauter produziert ist als der der Konkurrenz, dann führt R128 dazu daß er entsprechend leiser ausgestrahlt wird. Der Lautstärkevorteil ist dahin, aber der dadurch entstehende kaputte Klang bleibt. Was zuvor ein Vorteil war, wird so zum Nachteil. Die dadurch veränderten technischen Randbedingungen verursachen für die Werbebranche eine stark veränderte Interessenlage, und man hofft daß dies der Klangqualität zugute kommt.

Ob das auch auf die Musikproduktion einen positiven Einfluß haben wird ist weniger klar. Die CD-Produktion und das damit zusammenhängende Download-Geschäft ist von dieser Empfehlung erst einmal nicht betroffen. Trotzdem hofft man, daß man dadurch letztlich auf eine weniger krasse Einstellung der Optimod-Prozessoren zurück gehen kann, und so auch die Qualität des ganzen Programms wieder besser wird.

Ob das alles so eintreffen wird, bleibt zu sehen. Die Rundfunkanstalten scheinen aber wenigstens in Europa stark motiviert zu sein, sich diese Möglichkeit nicht durch die Lappen gehen zu lassen. Die ARD hat zum Beispiel angekündigt, ab dem neuen Jahr im Fernsehen für die Produktion und die Werbung die R128-Empfehlung anzuwenden. Einige Staaten haben sogar zu gesetzgeberischen Mitteln gegriffen, oder wollen zu ihnen greifen, um entsprechende Regelungen für Radio und/oder TV zwingend zu machen. Allenthalben merkt man Erleichterung, daß nun eine objektive Handhabe besteht, die man zur Grundlage solcher verbindlichen Regeln machen kann.

Spannend ist es jetzt, zu sehen welche Tricks den Werbeproduzenten nun einfallen, um sich unter den neuen Umständen einen Vorteil zu verschaffen, und ob das dann weniger nervt als bisher. Und ich frage mich auch, wie's mit der Musikproduktion weiter geht. Dort ist der Antrieb für den Lautheitskrieg nicht beseitigt, und ob die veränderte Lage beim Funk darauf einen signifikanten Einfluß hat kann bezweifelt werden.

Immerhin: Es ist neue Digitaltechnik, die das Problem beheben soll, was mir die Hoffnung gibt daß man mittelfristig den Eindruck vermeiden kann, die Digitaltechnik sei das Problem, und die Analogtechnik besser.


Eure Meinung ist wie immer hier gefragt.

Sonntag, 23. Oktober 2011

Fuchshafte Erkenntnisse

Eigentlich wollte ich ja was über die neuliche Häufung von Dilettanten schreiben, die sich im Hifi-Forum als Ingenieure oder langjährige Entwickler vorstellen, und dabei erkennbar völlig unfähig sind. Aber das wird mit der Zeit langweilig. Bezeichnend ist allenfalls, daß sich deren Thematik am meisten um die simpelsten Komponenten der Hifi-Technik drehen, nämlich den Kabeln, denn da kann man wenig falsch machen. Ein einigermaßen funktionierendes Kabel kann auch der größte Dilettant noch zusammenpfriemeln, auch wenn im Falle von Netzkabeln dabei immer wieder die relevanten Sicherheitsvorschriften übergangen werden.

Wobei, es gibt genaugenommen eine Klasse von Leuten, die noch größere Dilettanten sind, nämlich diejenigen, die Nippes verkaufen der überhaupt keine Funktion hat. Irgendwelche Objekte aus Stein, Holz, Metall oder Filz, die nichts bewirken, und daher auch nichts falsch machen können.

Wenn man dabei bedenkt, wie weit solche Leute wohl kämen wenn es darum ginge, ein Gerät von einer nennenswerten Komplexität eigenständig zu entwickeln, dann ist man froh daß sie bei Kabeln bleiben. Die wären oft schon mit dem Nachbau eines fertig entwickelten Bauplans überfordert. Nennenswerte Komplexität fängt bei einem Verstärker gerade mal an, und wirklich interessant wird's erst bei so Dingen wie einem AV-Receiver, einem Netzwerk-Streaming-Player, oder einem Aktivlautsprecher mit Aktivweiche.

Interessanter finde ich es aber, wenn Leute dem Voodoo Vorschub leisten, die es eigentlich besser wissen müßten. Leute, die schon gezeigt haben daß man sie nicht als Dilettant abtun kann. Leute, die sich nicht deswegen mit Kabeln beschäftigen weil sie für schwierigere Dinge zu blöd wären. Wo man aus diesem Grund den Verdacht bekommt, daß sie entweder einen seltsamen blinden Fleck in ihrem technischen Blickfeld haben, oder aber einen blinden Fleck in ihrer Moral, verbunden mit dem Willen, von der hohen Gewinnspanne bei Kabeln zu profitieren.

Drum beschäftige ich mich heute mal mit den "Erkenntnissen" von Walter Fuchs, die er schon seit etlichen Jahren auf der Webseite seiner Firma stehen hat, ohne daß er sich mit Kritik daran in irgend einer erkennbaren Form auseinader setzen würde. Und diese Kritik gibt's schon lange, wie man z.B. hier sehen kann.

Fuchs hat schon etliche Male gezeigt daß er funktionierende und verkaufsfähige Audiogeräte eigenständig entwickeln kann (z.B. SAC IGEL). Dilettantismusverdacht besteht also definitiv nicht. Warum veröffentlicht er dann ursprünglich in der Hörerlebnis Ausgabe 23, und seither auf seiner Webseite, so ein kritikwürdiges Machwerk? Er könnte und müßte es besser wissen! Es paßte zwar zur Klientel des Hörerlebnis, aber warum konserviert man die Peinlichkeit unkommentiert und unkorrigiert über viele Jahre auf seiner eigenen Webseite? Weil man sich bei einer audiophil eingestellten Kundschaft als Dienstleister anbiedern will, und dafür gern auch mal die eigene Seriosität auf's Spiel setzt?

Die Peinlichkeit besteht dabei nicht darin, daß falsche Aussagen gemacht würden, sondern darin, daß immer dann, wenn es darum ginge, einer angerissenen Frage auf den Grund zu gehen, und ein konkretes Beispiel mal bis zum Ergebnis durchzuziehen, Fuchs vorher mit einer Suggestivformulierung genau an dem Punkt aufhört, an dem man Farbe bekennen müßte, und nach dem sich dann auch herausstellen würde wie falsch die Richtung ist, in die die Suggestivformulierung deutet.

Gehen wir das mal im Einzelnen durch, und zwar am Beispiel des Abschnitts "Lautsprecherkabel".

Fuchs beginnt seine Argumentation mit dem Anspruch an Lautsprecherkabel, sie sollen nämlich "möglichst verlustfrei und ohne eigene Klangfärbung das Signal vom Endverstärker zur Lautsprecherbox transportieren". Das sollte einigermaßen selbstverständlich sein, und ich bin mit ihm darüber einig. Sollte man dann nicht erwarten können daß er genau diese Punkte untersucht? Daß er also untersucht, a) wieviel Verlust, und b) wieviel Klangverfärbung in einem realistisch gewählten, konkreten Beispiel auftreten wird.

Tut er aber nicht. Er fängt mit dem ganz Grundsätzlichen an, wogegen nichts spräche wenn das dann als Grundlage für die weitere Argumentation gebraucht würde. Es bleibt aber stecken.

Daß ein Kabel mit den vier Parametern Widerstand, Ableitung, Kapazität und Induktivität beschrieben ist, so lange man noch keine Welleneffekte berücksichtigen muß, ist einfache Leitungstheorie. Wenn es aber darum gehen würde, sie anzuwenden, kneift Fuchs. Man könne nichts Generelles sagen wenn es um die Frage geht welches Lautsprecherkabel es brauche, meint er. Wozu hat er dann die Leitungstheorie eingeführt? Und wovon konkret hängt die Frage dann ab? Die Pauschalaussage "Von Verstärker und Lautsprecher" ist ein Allgemeinplatz, der keinen Millimeter weiterhilft. Und es werden bereits Empfehlungen aus der dünnen Luft gezogen ("möglichst wenig Widerstand"), von denen nicht zu sehen ist wie sie aus den eben vorgestellten Grundlagen folgen. Nicht daß ich sagen wollte sie wären falsch, aber sie sind eben nicht begründet worden, und schon gar nicht auf die dargestellten Grundlagen gegründet worden.

Der Allgemeinplatz wird stattdessen zum Anlaß genommen, den Begriff des Dämpfungsfaktors einzuführen, was gleich zum nächsten Allgemeinplatz führt: Das Kabel sollte möglichst kurz sein. Das als Argument für Aktivboxen zu werten ist allerdings für einen Verstärkerentwickler wie Fuchs ziemlich lahm. Kurze Lautsprecherkabel kriegt man auch mit Monoblocks und Passivboxen. Der entscheidende Vorteil von Aktivboxen besteht darin, daß man jedem Chassis seinen eigenen Verstärker geben kann, und die Passivweiche wegfällt. Im Wegfall der Passivweiche liegt erheblich mehr Potenzial als im kürzeren Kabel, wenn es um die von Fuchs angesprochene "Kontrolle" geht. Die Argumentation pro Aktivbox hat daher mit der Kabelfrage ziemlich wenig zu tun; der Wegfall eines LS-Kabels ist ein Vorteil, aber ein eher nebensächlicher.

Statt konkreter wird's hier immer windiger. So wird über mögliche Unterschiede des Kabelverhaltens zwischen dem Großsignalverhalten und dem Kleinsignalverhalten spekuliert, ohne daß auch nur ein Funken eines Hinweises darauf gegeben würde warum da ein Unterschied überhaupt auftreten soll. Die Induktivität und die Kapazität liefern prinzipbedingt dafür keinen Anhaltspunkt, weil sie nicht pegelabhängig sind, und einen anderen erwähnt Fuchs nicht. Ich habe auch nirgends einen Hinweis gesehen daß Fuchs inzwischen die von ihm angemahnten Untersuchungen durchgeführt hätte, und an der Zeit hat es seither bestimmt nicht gefehlt.

Der Hinweis auf die Gleichzeitigkeit verschiedener Frequenzen und verschiedener Pegel beim Abspielen von Musik ist schließlich vollends peinlich. Fuchs weiß sehr wohl daß ein Verstärker keine Frequenzen verstärkt, sondern einen Kurvenzug im Zeitbereich, egal wieviele Frequenzen in welcher Stärke darin enthalten sind. Die "Komplexität" des Signals für einen Verstärker hat mit dessen Frequenzgehalt ziemlich wenig zu tun. Ein Rauschsignal enthält alle Frequenzen gleichzeitig, und ist für einen Verstärker auch nicht schwieriger zu verstärken als ein Sinussignal. Ein Verstärker hat seine Grenzen in einer oberen und einer unteren Grenzfrequenz, und in der Last, die er höchstens antreiben kann.

Außerdem: Wenn er meint, ein Verstärker habe ein spezifisches Problem mit bestimmten Frequenzen oder Frequenzgemischen, also z.B. mit einer niedrigen Impedanz des Lautsprechers bei bestimmten Frequenzen, dann ist es kein Problem ein dafür passendes Testsignal zu erzeugen und den Effekt zu messen. Statt zu theoretisieren hätte er da mal ein konkretes Beispiel machen können, mit realistischen Werten und Geräten und Messungen. Hat er aber nicht. Er bleibt beim "Handwaving".

Sein konkretes Beispiel nach all der Theorie ist demnach auch ein im Ansatz steckengebliebener Versuch. Ein eigentlich begrüßenswerter Ansatz, das anhand praxisgerechter Zahlen durchzurechnen, ist das definitiv, aber dafür müßte man es auch durchziehen. Zudem wäre es nett, wenn er mit seinen Grundannahmen halbwegs konsistent wäre. In seiner vorigen Diskussion kommt der Lautsprecher einmal mit 8 Ohm Impedanz daher, später dann mit einem Impedanzminimum von 1,5 Ohm, und in der Konkretisierung danach redet er von einem angeblich "harmlosen" Beispiel mit einer Nennimpedanz von 4 Ohm, das nichtsdestotrotz (unausgesprochen) ein Impedanzminimum von um die 2,5 Ohm hat und damit eigentlich nicht mehr als legitime 4 Ohm Box durchgehen kann. Warum? Wofür das angezettelte Chaos?

Die gezeigte Stromkurve ist dann auch nicht überraschend. Der maximale Strom kommt eben bei der Frequenz vor an dem das Impedanzminimum des Lautsprechers zu finden ist. Und es sind Stromwerte, mit denen ein üblicher Verstärker problemlos umgehen können sollte. Klar, bei einigen Frequenzen ist es fünfmal mehr als bei anderen, aber warum sollte das ein Problem sein so lange der Verstärker den Strom liefern kann? Was hat das mit dem Kabel zu tun? Ein Kabel, das auf 5 Meter gerade mal 5 Milliohm Widerstand hat, sollte mit solchen Strömen erst recht kein Problem haben. Das ist Pillepalle.

Was er mit der Verstärkung darstellen will wird vollends obskur. Um den Verstärkungswert des Verstärkers kann es sich nicht handeln, das Kabel hat überhaupt keine Verstärkung, und das was er an der vertikalen Achse des Diagramms stehen hat ist eine Abschwächung, und keine Verstärkung. Es kann sich auch nicht um die Kabeldämpfung handeln. Und an dieser obskuren Stelle hört's auf und geht abrupt in eine Diskussion von Kontaktwiderständen an Klemmen über, die auch wieder keine konkreten Daten bietet. Fuchs hat eine krumme Kurve geliefert, damit scheint er schon zufrieden zu sein, und wenn es bloß letztlich die Impedanzkurve seines Lautsprecher-Simulationsmodells ist.

Wieviel Verlust durch das Kabel verursacht wird, zeigt Fuchs nicht. Und welche Klangänderung es bewirkt, zeigt er ebensowenig. Im Grunde verfehlt er damit sein eigenes, im ersten Satz genanntes Ziel zu 100%. Er zeigt gar nichts, denn kein Argument wird zuende geführt. Es hört immer an einer Stelle auf, an der Fuchs den Eindruck einer Bedeutung oder Bedeutsamkeit erweckt hat, ohne der Sache auf den Grund gegangen zu sein.

Das ist genau das Verhalten, das auch die Dilettanten im Hifi-Forum gerne zeigen: Man klatscht eine halbfertige, halbgare Argumentation hin, die einen gewissen Suggestivcharakter hat, und überläßt es dem Gegenüber, oder fordert ihn offen dazu auf, sich das mal durch den Kopf gehen zu lassen. Gerade so als ob der Beweis darin irgendwie verborgen wäre und durch Nachdenken offenbar würde. Wird er aber nicht. Es wird stattdessen offenbar, daß das Argument oder der angebliche Beweis immer an den entscheidenden Stellen aufhört.


Kommentare bitte an der üblichen Stelle.

Sonntag, 4. September 2011

Meßversager

Ah, diese Meßfuzzis von den Hifi-Zeitschriften! Kann es sein daß in deren Labors die letzte Garde der Ingenieure endet, mit denen man anderswo nichts anfangen kann?

Diese Vermutung drängt sich geradezu auf wenn man Artikel liest wie diesen hier von Michael Voigt von der Hifi Test TV Video 5/2011. Wer so einen Schwachsinn fabriziert, und das mit seinem Namen unterzeichnet, der muß mit dem Ingenieursdasein abgeschlossen haben, denn er zeigt damit, daß von dem, was er als Ingenieur mal gelernt haben sollte, nicht mehr viel übrig sein kann. Wenn der Job bei der Zeitschrift mal flöten gehen sollte, wer würde so jemanden dann noch einstellen, wenn er offenkundig noch nicht mal die einfachsten Grundlagen im Griff hat? Sicher nicht auf einen Posten bei dem gemessen werden muß!

Es geht mal wieder um Feinsicherungen. Darüber habe ich hier schon voriges Jahr geschrieben, und wie man sieht geht's um die gleiche Firma Hifi-Tuning. Damals wurde ebenfalls "gemessen", allerdings von einem kommerziellen Meßlabor mit audiophilem Bazillus und auffälligem Mangel an Verantwortungsbewußtsein. Diesmal also eine Zeitschrift. Das Ergebnis ist der gleiche Unfug.

Wie man sieht, fängt der Bericht mit der wundersamen Bekehrung des Redakteurs/Meßtechnikers an, wo die Sicherung das Herz des angeblich zuerst skeptischen Elektronikers im Sturm erobert ob ihrer Klangwunder. Das scheint ein audiophiles Lieblingsmotiv zu sein: Gefühlsarmer Meßknecht wagt es, über seinen Schatten zu springen und öffnet sein Skeptikerherz für die Wunder des Tunings. Es kommt wie es in Groschenromanen immer kommt: Die Mauerblume findet ihr Glück, erblüht, und entdeckt neue Dimensionen des Daseins.

Ein solches Erweckungserlebnis bräuchte eigentlich keine weitere Bestätigung, aber dennoch arbeitet das alte skeptische Leben im Geiste des Erweckten weiter, und nagt an der neuen Überzeugung mit kleinlichen Einwänden wie: „Ein 2 cm langes Stück Draht in der Sicherung – welchen Einfluss auf den Klang soll das haben?“

Ein echtes Problem, denn nun muß man eine Erklärung erfinden, die durch real aussehende Messungen, die bei genauerem Hinsehen unsinnig sind, den Eindruck erweckt als wäre hier die Meßtechnik und die Emotion im Einklang, wenn man nur richtig mißt. Und man muß sich darauf verlassen daß niemand genau hinsieht.

Tun wir also mal das Undenkbare und sehen genau hin was der Mann da eigentlich macht, Spielverderber wie wir sind.

Als erstes erfährt man von einer Messung des Dämpfungsfaktors. Der soll sich beim Denon PMA 1510 von vorher 350 durch Einbau der Wundersicherung auf 500 erhöht haben. Und das soll für "gefühlte 100% Klangsteigerung" verantwortlich sein.

Was natürlich kompletter Unfug ist. Es gibt kein vorstellbares Szenario in dem der Dämpfungsfaktor-Unterschied zwischen 350 und 500 klanglich relevant sein könnte. Beide Werte sind weit jenseits dessen was man bereits als problemlos ansehen kann. Selbst wenn die Werte nur ein Zehntel dessen wären was hier angegeben ist würde man immer noch keinen Unterschied hören. Voigt scheint dagegen dem Glauben zu erliegen, ein Unterschied zwischen 350 und 500 entspräche einem Unterschied von 100%! Da kann man fühlen wie man will, das ist einfach grotesk, egal welchen Schwurbelfaktor man da hineinrechnet.

Dazu kommt, daß ein solcher Unterschied beim Dämpfungsfaktor nicht zu erklären ist, wenn man dazu bloß die Netzsicherung auswechselt. Es wird zwar der unterschiedliche Widerstand der Sicherung als Grund angeführt, und dem Laien mag das auch plausibel erscheinen, es ist aber völlig abwegig. Der relativ hohe Dämpfungsfaktor des Verstärkers zeigt daß er - wie die meisten Verstärker - recht stark gegengekoppelt ist. Anders wäre ein solcher Dämpfungsfaktor realistischerweise nicht zu erreichen. Eben diese Gegenkopplung macht aber den Widerstand der Sicherung irrelevant, weil er ihre Einflüsse ausregelt, so wie sie eine Reihe anderer Störeffekte, die weitaus stärker sind, ebenfalls ausregelt.

Mit anderen Worten: Voigt muß bei der Messung des Dämpfungsfaktors geschlampt haben. Die Sicherung kann nicht dafür verantwortlich sein. Und seine Erklärung vernachlässigt den hier entscheidenden Einfluß der Gegenkopplung, was - falls er nicht absichtlich unterschlagen wurde - den völligen Unverstand des Autors über die Funktionsweise des Verstärkers bedeuten würde.

Das ist aber noch nicht alles. Er will "eine aufwendige neue Messanordnung erdacht" haben, mit der er die Sicherung vermessen hat, und einen Meßschrieb erzeugt hat, der im Artikel abgedruckt ist. Es stellt sich heraus, daß er letztlich die über die Sicherung abfallende Spannung in Abhängigkeit vom durch sie fließenden Strom gemessen hat. Das ist eine der einfachsten Meßaufgaben der Elektronik, die man sich denken kann. Dazu reicht schon ein Multimeter und ein Labornetzgerät mit Konstantstrom-Funktion. Wenn das für ihn schon "aufwendig" ist, dann ist er bei jeder ernsthaften Audio-Messung definitiv überfordert.

Was er dabei aber anscheinend übersieht, ist der Zeitfaktor. Der Schmelzdraht einer Sicherung ist in seinem Widerstand stark von der Temperatur abhängig, und weil der Strom bei der Messung den Draht aufheizt, was ein bißchen dauert, fällt die Kurve, die er gemessen hat, sehr unterschiedlich aus je nachdem wie schnell die Messungen erfolgen. Wenn man das Meß-Timing passend hinbiegt, dann könnte man unter Umständen sogar beide Kurven im Diagramm von der gleichen Sicherung bekommen.

Es versteht sich von selbst, daß durch diesen Umstand die gezeigten Kurven nur interpretiert werden können, wenn man mindestens mal weiß wie der Zeitverlauf der Messung war. Davon ist im Artikel aber nichts gesagt. Aus diesem Grund wird diese Art der Messung für Sicherungen auch gar nicht gemacht, denn sie hat keinen praktischen Aussagewert.

Schließlich übernimmt er gleich noch kritiklos diverse Behauptungen des Herstellers, die - wenn sie stimmen würden - Anlaß zu Besorgnis geben würden. Angeblich soll der Schmelzdraht aus einer Silber/Gold-Legierung bestehen, was edel klingt, aber für einen Sicherungsdraht kontraproduktiv wäre, weil da eine vernünftige Durchschmelzcharakteristik kaum hinzukriegen wäre. Daß der Draht auch noch von Schrumpfschlauch umgeben sein soll ist vollends Unfug, denn im Falle des Durchschmelzens würde das die Gefahr bieten, daß verkohlter Schrumpfschlauch den Stromfluß weiter aufrecht erhält, und den Zweck der Sicherung ad absurdum führt. Ich bin sicher daß man so etwas nicht zugelassen kriegen würde. Das scheint aber Voigt nicht zu kümmern.

Ich habe daher mal wieder meine eigene Theorie:

Ich glaube nicht an die ganzen Edelmetalle. Ich vermute, der Schmelzdraht und die restlichen Materialien der Sicherung sind die gleichen wie bei einer Standard-Sicherung für ein paar Cent. Der einzige Unterschied besteht aus der Lackierung und Bedruckung des Röhrchens. Das erspart die getrennte Zulassung mit dem zusammenhängenden Papierkrieg, und man riskiert keinen Ernstfall in dem man für irgendwelche Schäden haftet. Die ganzen Edelmetall-Kryo-wasweißich-Behauptungen sind im Bewußtsein gemacht daß das ohnehin keiner nachprüfen wird.

Und ich glaube nicht daran daß Voigt überhaupt etwas gemessen hat. Ich glaube er hat den Artikel "trocken" geschrieben, vermutlich nach einer Vorlage von Hifi-Tuning. Wozu selber messen, wenn die Messungen sowieso unsinnig sind? Da kann man das Ergebnis auch gleich am Computer malen. Hätte er tatsächlich gemessen, dann hätte er mindestens eine durchgebrannte Wundersicherung gehabt. Die hätte er natürlich auseinander nehmen können. Schon um den Schrumpfschlauch darin zu suchen. Hätte sich als Foto im Artikel gut gemacht!

Aber wer will das schon wissen...


Kommentare wie üblich in "meinem" Thread im Hifi-Forum.

Sonntag, 7. August 2011

Netzwerkkabel und die leidige Masse

Über die Masse und den sich darum rankenden Unverstand habe ich hier im Blog ja schon vor längerer Zeit geschrieben. Wir leben inzwischen in den Zeiten von Streaming und Computernetzwerken, und die Audio-, Video-, Telefon- und Computerinstallation in einem Haushalt hat die starke Tendenz zu einem untereinander verbundenen Ganzen zusammen zu wachsen. Da ist es natürlich nicht überraschend daß auch das schnöde Netzwerkkabel inzwischen in den Stand einer "Komponente" erhoben wurde, das diffizile Auswirkungen auf den Klang haben soll, obwohl es sich um rein digitale Kommunikation handelt. Was dabei üblicherweise völlig unterschlagen wird ist die sich daraus ergebende Masse-Situation. Falls aber eventuelle Klangunterschiede nicht frei eingebildet sind, was bei weitem die wahrscheinlichste Erklärung ist, dürfte die Masse der nächstwahrscheinliche Grund dafür sein.

Ein Computer-Netzwerk hat ein paar spezifische Aspekte in Bezug auf die Masse, die ich hier in einigem Detail ins Auge fassen will. Das wird unweigerlich technisch werden, und wer sich dafür interessiert tut gut daran, sich zuerst mit meinem alten Masse-Artikel vertraut zu machen. Meine "Message" ist in einem Satz die, daß - entgegen der üblichen Vorstellung - in einem gemischten Audio- und Netzwerksystem die ungeschirmten Netzwerkkabel meist besser sind, weil sie keine Masseverbindung zwischen den Geräten herstellen.

Wie es so meine Art ist, werde ich zur Erklärung ein wenig ausholen.

Die unsymmetrischen Audioverbindungen einer Audioanlage sind seit Alters her für kurze Wege vorgesehen gewesen. Das ist überhaupt der Grund warum man damit ausgekommen ist, und nicht die störfestere symmetrische Verbindung verwendet hat. Ich habe schon erklärt warum das heutzutage immer problematischer wird, auch bei Heim-HiFi.

Computernetzwerke sind demgegenüber von vorn herein darauf ausgelegt worden, größere Distanzen und Kabellängen zu erlauben. Es sollten damit ganze Gebäude und Bürotrakte verkabelt werden, nicht nur ein paar Geräte in einem Zimmer. Die maximale Kabellänge für ein CAT 5e Netzwerkkabel, wie es für 100 MBit/s und 1000 MBit/s Ethernet benutzt wird, ist z.B. mit 100 Meter angesetzt. Dabei geht man von maximal 90 m Installationskabel in der Wand oder im Kabelkanal aus, und an beiden Enden dann noch einmal je 5 m flexibles Patchkabel zwischen der Wanddose und dem Gerät.

Bei solchen Distanzen muß man mit signifikanten Unterschieden im Massepegel auf beiden Seiten rechnen, wogegen sich auch kaum etwas unternehmen läßt. Die einzige Chance besteht darin, die Übertragung vom Massepegel unabhängig zu machen, deswegen ist bei praktisch allen Netzwerktypen die galvanische Trennung mit Übertragern und die symmetrische Übertragung mit verdrillten Drahtpaaren Pflicht. Um die Kosten trotzdem niedrig zu halten, hat man die Übertragung so ausgelegt daß die Übertrager sehr klein und billig sein können. Teils werden sie heute bereits in die RJ45-Buchse des Gerätes integriert und sind als eigenständiges Bauteil gar nicht mehr sichtbar. Vorhanden sind sie aber immer, denn es ist nicht erlaubt sie einzusparen.

Im Kabel selbst sind 4 getrennt verdrillte Drahtpaare enthalten, die auf 8 Kontakte am Stecker gelegt sind. Fast Ethernet mit 100 MBit/s benutzt davon nur zwei Paare (die anderen Paare könnte man theoretisch für andere Zwecke benutzen), bei GBit Ethernet werden dagegen alle vier Paare benutzt. So weit ist das alles noch recht einfach, aber bei der Schirmung geht es mit der Komplexität schon los.

Im einfachsten Fall gibt es gar keine Schirmung. Die vier Drahtpaare liegen einfach nebeneinander in einer gemeinsamen schützenden Plastikumhüllung. Das heißt in der englischen Abkürzung UTP (Unshielded Twisted Pair). Ein solches Kabel stellt keine Masseverbindung zwischen den Geräten her, denn es verbindet nur die Signalleitungen, und die sind per Übertrager in jedem Gerät galvanisch getrennt. Oft ist das Kürzel UTP auf dem Kabel aufgedruckt, aber an fertig konfigurierten Patchkabeln erkennt man UTP auch daran, daß die Stecker keine Blechumhüllung haben, sondern bloß aus (meist transparentem) Plastik bestehen.

Bis hoch zu CAT 5e funktioniert das ohne Schirmung auch einwandfrei. Als Endbenutzer hat man in aller Regel von einem geschirmten Patchkabel keinen Vorteil, so lange man nicht über 1 GBit/s hinaus will. Die Schirmung kostet bloß zusätzliches Geld. Ein CAT 5e Kabel ist für eine Signalfrequenz von bis zu 100 MHz spezifiziert, und die Netzwerksysteme bis hin zu Gigabit Ethernet sind so ausgelegt daß sie innerhalb dieses Frequenzbereiches bleiben. Die Störfestigkeit wird in ausreichendem Maß durch die Verdrillung und Symmetrie der Drahtpaare erreicht, und in einer Heiminstallation wird man sich schwer tun, ein solches Ausmaß an Störungen zu produzieren daß sich davon die Übertragung beeindrucken läßt.

In professionellen Installationen ist das nicht ganz so eindeutig. Dort kommt es öfter vor daß Netzwerkkabel zu Dutzenden gebündelt im gleichen Kabelkanal nebeneinander liegen, und das auf zig Meter Distanz. In solchen Situationen kann das Übersprechen zwischen benachbarten Leitungen ein Ausmaß annehmen daß man Kommunikationsstörungen bemerkt. Dagegen kann Schirmung helfen, oder auch einfach ein größerer Abstand der Leitungen.

Das Problem mit den Störungen durch Übersprechen wird immer größer, je mehr Kabel parallel zueinander verlegt sind, je dichter gepackt sie sind, je länger sie parallel laufen, und je höher die beteiligten Frequenzen werden. Der Schritt von Gigabit Ethernet zu 10 GBit Ethernet war daher ziemlich kritisch. Hier reichen die 100 MHz von CAT 5e nicht mehr, man braucht mindestens 250MHz, und auch das erlaubt nicht die volle Distanz von 100 m. Für 100 m bei ausreichender Signalstärke und Störimmunität muß man tiefer in die Trickkiste greifen. Zwar kann man das immer noch völlig ohne Schirm hinkriegen, aber man muß dann für größere Distanz zwischen den Drahtpaaren sorgen, was das Kabel dicker macht. Die Konstruktion von CAT 6a Kabel enthält ein Plastikkreuz, das die vier Drahtpaare voneinander entfernt hält. Das betrifft in erster Linie die Installationskabel, und der Nachteil ist daß in einem gegebenen Kabelkanal deutlich weniger Kabel dieser Sorte Platz haben. Für größere Installationen kann damit das geschirmte und damit eigentlich teurere CAT 7 Kabel günstiger sein, denn es braucht weniger Platz bei sogar besserer Störsicherheit.

Für den Heimanwender sollte das aus gleich mehreren Gründen irrelevant sein:
  • Der Fall von vielen parallel im selben Kanal laufenden Kabeln dürfte sehr unwahrscheinlich sein.
  • Die maximale Kabellänge von 100 m wird auch kaum einer brauchen, selbst wenn Kabel in der Wand verlegt sind.
  • Für 10 GBit/s gibt's in Heimnetzwerken wohl auf absehbare Zeit keinen Bedarf; 1 GBit/s sind da schon reichlich.
Das heißt daß der Heim-Netzwerker für geschirmte Netzwerkkabel schlicht keinen Bedarf hat. Mindestens einmal Patchkabel brauchen nicht geschirmt zu sein. Bei Installationskabeln in der Wand wird man ein wenig weiter in die Zukunft planen wollen, und auch für 10 GBit/s gerüstet sein wollen, folglich gibt's da für CAT 7 noch eher gute Gründe.

Bei der Schirmung findet man Folienschirme und Geflechtschirme, und es macht auch noch einen Unterschied ob das Kabel nur im Ganzen geschirmt ist, oder zusätzlich jedes Drahtpaar einzeln. Mit S/FTP bezeichnet man ein Kabel, das im Ganzen geflechtgeschirmt ist, und jedes Drahtpaar zusätzlich foliengeschirmt ist (CAT 7 verlangt das). Dagegen hat F/UTP bloß einen Folienschirm im Ganzen, und die Drahtpaare haben keinen eigenen Schirm.

Der Schirm im Kabel muß, damit er wirksam ist, in den Buchsen und Steckern vorschriftsmäßig angeschlossen sein. Das ist, wenn man es selber machen will, z.B. in der Hausinstallation, gar nicht so einfach, besonders bei Folienschirmen. Zumal man die ungeschirmten aufgedröselten Strecken ganz kurz halten muß, um weiterhin konform zu CAT 7 zu sein - wenn nicht könnte man CAT 7 auch ganz bleiben lassen. Das bewirkt letztlich, daß der Metallkragen in der Buchse und am Stecker mit dem Schirm im Kabel verbunden ist, und wenn man ein derart geschirmtes Kabel nimmt um zwei Geräte zu verbinden, dann verbindet man ihre metallischen Gehäuse (und damit die Massen) über den Kabelschirm miteinander. Abschirmungsmäßig ist das auch genau das was man haben will, aber die Masseverbindung kann den gleichen Ärger machen wie ich das schon früher beschrieben habe.

Meine Empfehlung ist daher die Folgende:
  • Wer fest installierte Kabel in der Wand oder im Kabelkanal verlegen will, der soll dafür gute, geschirmte Ware nehmen (z.B. CAT 7), und den Schirm auf den Dosen und den Patchfeldern ordentlich auflegen.
  • Für Verbindungen am Patchfeld, oder zwischen einem Switch und einem festinstallierten Kabel, oder zwischen Switchen, sollte man geschirmte Patchkabel nehmen.
  • Für Verbindungen zwischen einem Endgerät (Computer, Drucker, Streaming-Box, ...) und dem nächsten Switch, oder der nächsten Wanddose, sollte man ungeschirmte Patchkabel nehmen.
Wer sich daran hält wird keine merklichen zusätzlichen Netzwerkstörungen bekommen, und er wird den Nutzen aus der galvanischen Trennung haben, die ihm Ärger durch Masseschleifen in der Audioanlage ersparen kann. Die Netzwerk-Masse wird dann von der Audio-Masse getrennt sein, und das ist ein sehr wünschenswerter Zustand.

Für Nutzer von drahtlosen Netzwerken ist das natürlich kalter Kaffee, die sind schon galvanisch getrennt, und müssen sich bloß über die Kanalbelegung mit der Nachbarschaft einigen.


Wenn Ihr das völlig falsch findet könnt Ihr Euch hier beschweren. Mich würde interessieren welche Erfahrungen mit Netzwerk und Masse Ihr so gemacht habt.

Freitag, 8. Juli 2011

Animismus und Komplexität

Ihr lest bestimmt immer mal wieder einen dieser Artikel in denen jemand Hörerlebnisse berichtet. Zeitschrift oder Forum, egal. Wo dann davon die Rede ist, daß Verstärker X oder CD-Spieler Y oder Kabel Z den besseren Überblick behielt, das Klanggeschehen gelassener rüberbrachte und komplexe Klangstrukturen besser aufgedröselt hat. Anfangs habe ich das einfach für blumige, metaphernreiche Sprache gehalten. Eine Weile lang liest sich das ja auch ganz nett und nicht so trocken. Ich dachte man könnte davon ausgehen daß sich die Leute bei aller blumigen Sprache durchaus bewußt sind daß sie es da mit einem leblosen Ding zu tun haben, das vielleicht kompliziert ist und in seinen inneren Funktionen unverstanden und mysteriös, das aber sicher keine Fähigkeiten hat die sonst Menschen vorbehalten bleiben, weil sie eine Gehirnleistung erfordern.

Inzwischen glaube ich eher, daß eine ganze Reihe von Leuten solche Texte viel wörtlicher verstehen als ich gedacht hätte. Sie reagieren einfach so daß sich diese Annahme aufdrängt.

Offenbar ist der Animismus unter den Leuten nach wie vor weit verbreitet, aller Bildungsanstrengung zum Trotz. Immer wenn ein Ding, das man nicht durchschaut, etwas zu tun scheint ohne daß man das selbst bewirkt hätte, dann vermutet man eine Art Geist oder eine Seele darin. Das Ding bekommt einen eigenen Willen, und eine eigene Intelligenz zugesprochen. Bei komplexen Dingen wie einem Computer oder einem Flugzeug ist das vielleicht noch eher verständlich, aber für manche Leute gilt das sogar für Steine.

Ich gebe zu daß ein Reflex in diese Richtung wohl eine allgemein menschliche Eigenschaft ist. Wenn ich mir beim Hämmern auf den Finger geklopft habe kann es schon passieren daß ich auf den Hammer wütend bin. Wenn der Schmerz nachgelassen hat und mein Verstand wieder funktioniert, dann ist mir natürlich klar daß der Hammer nichts dafür kann, daß er kein Eigenleben hat und mir keins auswischen wollte, daß er einfach ein totes Ding ist das ich entweder zu meinem Nutzen oder zu meinem Schaden gebrauchen kann. Daß ich es bin der mir auf den Finger geklopft hat und nicht der Hammer.

Ein Kabel ist kein deutlich komplexeres Ding als ein Hammer, außer daß sein Zweck und seine Funktion mit der Elektrizität zusammenhängt, für deren Wahrnehmung der Mensch keinen Sinn hat, und die daher etwas mysteriös erscheint. Für manche Leute reicht das schon. Ein elektronisches Gerät ist aber wesentlich komplexer, und die Komplexität der Geräte wächst auch rasant mit dem technischen Fortschritt. Das macht sie undurchsichtig, und weil man nicht weiß was darin vor sich geht, scheinen viele Leute de facto zu glauben daß die Dinger ein "Eigenleben" haben.

Was dabei auch eine Rolle zu spielen scheint ist dieses: Viele Leute scheinen mit ihrem eigenen Unbewußten auf Kriegsfuß zu stehen. Was sie in Wirklichkeit selbst bewirkt haben, muß auf etwas Anderes oder auf jemand Anderes übertragen werden, weil man nicht akzeptiert daß eine Seite von einem selbst dahinter steckt, die man nicht unter Kontrolle hat. Wenn ein Verstärker anscheinend eine komplexe Klangstruktur aufgedröselt hat, dann ist es selbstverständlich der Hörer selbst, der das getan hat. Ohne daß er sich dessen bewußt ist, und vielleicht auch ohne daß er es bewußt wollte. Der Verstärker jedenfalls hat es nicht getan, der ist bloß ein totes Ding.

Der Verstärker braucht dazu überhaupt nichts beigetragen zu haben. Er braucht noch nicht einmal anders geklungen zu haben, es reicht wenn der Hörer durch irgend etwas dazu animiert wurde, ein bißchen genauer hinzuhören, und dadurch mehr mitzukriegen. Dieses "etwas" kann der Anblick der Frontplatte des Verstärkers sein, oder einfach die Stimmung des Hörers im gegebenen Augenblick. Auch hier, wie beim Hammer, ist der aktive Part beim Menschen selbst, und nicht beim Ding. Das Ding muß allenfalls als Projektionsfläche herhalten.

Auch wenn es Leute gibt die keine Probleme damit haben selbst einfachsten Objekten ein Eigenleben zu unterstellen, so scheint es doch umso leichter zu werden je komplexer und undurchsichtiger das Ding ist. Das hat auch damit zu tun wie viel man von den Zusammenhängen versteht. Ein Verstärker ist auch nicht komplexer als eine Kettensäge. Wenn man mal die grundlegenden Zusammenhänge begriffen hat, ist das kein mysteriöses Ding mehr. Es mag zwar hier wie da unendlich viele kleine Details geben an denen man herumoptimieren kann und unterschiedliche "Designphilosophien" verwirklichen kann, aber es ist eigentlich immer dasselbe Funktionsprinzip am Werk. Eigenleben ist da keines drin.

Laut Arthur C. Clarke's drittem Gesetz ist eine hinreichend fortschrittliche Technologie nicht von Magie zu unterscheiden. Das ist in Ordnung, bloß mache ich mir Sorgen wenn Leute schon bei recht einfacher Technologie geradezu scharf darauf zu sein scheinen, Magie darin zu entdecken. In Kabeln sogar! In Regalen! Warum? Bloß um den Beitrag des eigenen Unbewußten zur Wahrnehmung zu verleugnen?

Manche Leute verteidigen das mit dem Argument, daß diese Magie letztlich viel spannender und interessanter wäre als die trockene Technik. Ich bin da mal wieder anderer Meinung. Was kann ich denn mit Magie anderes anfangen als verständnislos und glotzäugig davor zu sitzen? Um etwas Konstruktives anzufangen mit den Dingen muß ich wenigstens ansatzweise verstehen was sie machen und wie sie funktionieren, und dann ist die Magie weg. Der Spaß geht dann aber los, denn jetzt kann ich aktiv werden, während ich bei Magie bloß staunen kann.

Es ist kein Zufall daß die Anhänger dieser Art von Magie in ganz profanen Audiogeräten so oft auf Komplexität herumreiten. Das Argument mit den komplexen Klangstrukturen kommt ja sehr regelmäßig immer dann wenn man versucht deutlich zu machen daß die Technik im Grunde gar nicht so undurchschaubar ist, und daß man mit der Kenntnis einiger Grundlagen schon weit kommen kann. Weil Musik so komplex sein kann, so der Tenor der Argumentation, muß es die Technik auch sein, bzw. die Betrachtung der Technik. Jede Reduktion auf einfache Prinzipien wird so aufgefaßt als würde man dadurch auch die damit wiederzugebende Musik auf diese Einfachheit reduzieren.

Ein Verstärker zum Beispiel verstärkt ein veränderliches elektrisches Signal. Über die Zeitachse aufgetragen ergibt das einen Kurvenzug wie man ihn von Oszilloskopschirmen oder von der Bildschirmdarstellung einer Audiosoftware kennt. Egal wie einfach oder komplex die Klangstrukturen sein mögen, der Verstärker sieht bloß einen Kurvenzug, und verstärkt ihn. Inhalts- und strukturloses Rauschen ist für ihn genauso komplex wie ein Orchesterstück mitsamt großem Chor. Auch ein einfaches Sinussignal ist schon ein ständig sich änderndes elektrisches Signal, und damit durchaus geeignet als Testsignal für Verstärker. Die Vorstellung, daß er auf komplexe Signale ganz anders reagieren könnte als auf einfache, verkennt völlig auf welcher Ebene ein Verstärker arbeitet.

Letztlich wird dadurch klar wohin das Komplexitätsargument zielt: Damit soll nichts erklärt werden, sondern eine Erklärung quasi verhindert werden. Es geht um die Verteidigung eines animistischen Weltbildes, in dem die Magie und das "belebte" Ding ihren Platz behalten sollen. Die sind durch eine analytische und die Komplexität reduzierende technische Betrachtungsweise in Gefahr.


Hab ich recht oder seid Ihr anderer Meinung? Diskussionsbeiträge bitte hier.

Sonntag, 12. Juni 2011

Missionare und Aufklärer

Es ist Pfingsten und ich schreibe über Missionare. Paßt doch gut, oder? Im Christentum feiert man an diesem Tag den "heiligen Geist", der sich in Form von "Feuerzungen" auf die Gläubigen herab ergießt. Das wird vielfach mit der Mission in Zusammenhang gebracht, ja als Ausgangspunkt der christlichen Mission angesehen. Die hat es dann in der Folge auch gelegentlich mal selbst mit Feuerzungen probiert, aber nicht unbedingt zum Vorteil der Betroffenen.

In hitzigen Diskussionen mit Audiophilen ist der Vorwurf schnell bei der Hand, man sei ein Missionar, wenn man darauf besteht seine ablehnende Meinung zu audiophilen Hirngespinsten offen zu vertreten, drum habe ich mir gedacht ich nehme diese Schublade mal etwas genauer in Augenschein. Und wenn wir schon dabei sind geht's auch gleich noch um die Nachbarschublade mit den Aufklärern, die aus der Sicht der Audiophilen keinen wesentlich besseren Ruf haben.

Das kann man bequem in einem Satz miteinander kombinieren: "Die Aufklärer mit ihrem missionarischen Eifer ...", was gleich einen historischen Faux-Pas darstellt. Das wird aber nur Leuten auffallen, die ein wenig geschichtliches Wissen vorweisen können.

Das Zeitalter der Aufklärung im 17. und 18. Jahrhundert hatte ja die Berufung auf die Vernunft als urteilende Instanz zum Inhalt. Das war im genauen Gegensatz zur Auffassung der christlichen Missionare, die schon lange davor den Glauben als die zentrale Instanz propagierten. Missionare und Aufklärer waren damit Gegner, und haben das in dieser Zeit auch ausführlich ausgefochten.

Der Philosoph Kant definierte bekanntlich einmal die Aufklärung so:
"Aufklärung ist der Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Muthes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Muth dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung."
Es ist nicht ganz überflüssig, darauf hinzuweisen daß es nach dieser Definition nicht darum geht, einen Anderen aufzuklären, sondern sich selber! Wer keinen Verstand hat, dem kann man auch keinen einbleuen, und wer seinen Verstand nicht benutzen will, dem kann man die Benutzung nicht aufzwingen. Man braucht dazu "Entschließung und Muth", denn beim Gebrauch des Verstandes können Einsichten heraus kommen, die unwillkommen sind.

Das ist schon von der Idee her etwas ganz anderes als das Herabregnen von Geist auf eine Gruppe von Leuten, die dann wie angezündet herumrennen und den Geist an die Anderen verteilen.

Aufklärung möchte erreichen daß der Betreffende denkt, Mission möchte erreichen daß er glaubt. Der Unterschied könnte kaum größer sein.

Der "missionarische Aufklärer" ist daher eigentlich ein Widerspruch in sich, aber taugt als billige Verunglimpfung nichtsdestotrotz. Dahinter steckt die Vorstellung und Unterstellung, daß das was der Aufklärer vertritt letztlich auch nur eine andere Form von Glauben sei, daß er also letztlich ein Missionar einer anderen Religion ist (der "Vernunftreligion"), und es somit zwischen Aufklärer und Missionar eigentlich gar keinen wesentlichen Unterschied gibt. Und je umtriebiger und entschlossener er zu Werke geht, desto eher kann man ihm noch den Eifer zum Vorwurf machen, der als Zeichen von Fanatismus hingestellt wird.

Kant fährt fort:
"Faulheit und Feigheit sind die Ursachen, warum ein so großer Theil der Menschen, nachdem sie die Natur längst von fremder Leitung frei gesprochen, dennoch gerne Zeitlebens unmündig bleiben; und warum es Anderen so leicht wird, sich zu deren Vormündern aufzuwerfen. Es ist so bequem, unmündig zu sein. Habe ich ein Buch, das für mich Verstand hat, einen Seelsorger, der für mich Gewissen hat, einen Arzt der für mich die Diät beurtheilt, u. s. w. so brauche ich mich ja nicht selbst zu bemühen. Ich habe nicht nöthig zu denken, wenn ich nur bezahlen kann; andere werden das verdrießliche Geschäft schon für mich übernehmen."
Ich hätte für unsere Audiophilen hinzufügen können:  "Ich habe nicht nötig zu denken, wenn ich nur hören kann...", aber das würde vernachlässigen daß sie ja in Wirklichkeit gar nicht besser hören als der Rest der Welt, sondern bloß glauben daß sie besser hören. Wofür sie dann ja auch bereitwillig bezahlen.

Was für Kant die Aufklärung voranschreiten läßt ist der öffentliche Gebrauch der Vernunft, der damit auch zu den Freiheitsrechten gehört. Der öffentliche Gebrauch ist für ihn der Gebrauch als Gelehrter, wobei er den Gelehrten nicht formell auffaßt, als jemanden der einen Titel trägt, sondern als jemanden der sich in den Dingen von denen er schreibt gebildet oder informiert hat. Wie er es formuliert hätte wenn er das Internet und Foren gekannt hätte weiß ich nicht, aber es wird klar daß er damit nicht die Freiheit gemeint hat daß jeder unterschiedslos sagen darf was er mag.

Kant wußte daß das lange dauern würde, bis es sich durchsetzt, war aber optimistisch daß es sich durchsetzen würde. Ich bin das auch, aber wenn man Zeuge wird wie sich Leute nicht nur weigern, zu denken, sondern alles daran setzen um ein paar simple Erkenntnisse der Vernunft von ihrem Bewußtsein fernzuhalten, dann kann man schon mal daran verzweifeln.

Wenn die meisten Leute zu faul und zu feige zum Gebrauch ihres Verstandes sind, und lieber glauben, dann hat der Missionar gegenüber dem Aufklärer einen Vorteil. Er muß allerdings dafür sorgen daß seine Lehre gerne geglaubt wird. Wenn sie dem Narzissmus der Leute schmeichelt, so daß sich die Gläubigen für was besseres halten können, dann geht's leichter. Bei den Audiophilen ist das ziemlich einfach zu sehen: Ein gewisser Elitarismus kommt bei den meisten ziemlich schnell zum Vorschein, und auf den Nichtgebrauch des Verstandes ist man sogar stolz, hat man doch sein unbestechliches Gehör, zudem hält man sich für Genuß- und Gemütsmenschen, und der Verstand wäre dem bloß im Weg.

Der Missionar ist nicht viel schwieriger zu durchschauen als der Missionierte. Zu den psychologischen Triebfedern gehören:
  • Selbstversicherung.
    Wenn alle dasselbe glauben braucht man keine Zweifel zu haben. Jedem Glauben ist daher ein abweichender Glaube ein Dorn im Auge. Dann braucht man einen Grund und eine Rechtfertigung für den eigenen Glauben, denn er ist nicht mehr selbstverständlich. Das ist umso lästiger als man eben für etwas das man einfach glaubt normalerweise keine gute Rechtfertigung hat. Bei Religionen ist das offensichtlich: Welche Rechtfertigung gibt es für den Glauben an die Jungfrauengeburt? An die leibliche Himmelfahrt? An die göttliche Inspiration ausgerechnet des eigenen heiligen Buches? Solche Sachen haben keine Rechtfertigung, die glaubt man weil man damit aufgewachsen ist, und nicht weil man das nach reiflicher Überlegung als die beste Erklärung erkannt hat. Jeder abweichende Glaube ist damit eine Herausforderung und ein Infragestellung der eigenen Position. Deshalb muß er verschwinden, wenn nicht physisch dann wenigstens aus dem geistigen Blickfeld.
  • Identitätsstiftung
    Wer missioniert muß eine Entscheidung für sein Glaubenssystem (und gegen andere) getroffen haben, und betrachtet sich daraufhin als zugehörig zu einer Gruppe. Das stiftet Identität.
  • Narzissmus
    Wenn man es schafft andere von seinen Glaubenssätzen zu überzeugen dann steigt dadurch das Selbstwertgefühl. Man kommt sich bestätigt und wertgeschätzt vor.
  • Machtstreben
    Das tritt besonders dann in Vorschein wenn Missionare in größeren Gruppen auftreten. Da merkt man die Lust daran, Anderen seine Ansichten aufzuzwingen, was gerade in den Religionen bis heute sichtbar ist, und teils auch ganz offen in den religiösen Schriften gefordert wird. Entsprechend fanden (und finden) viele der Beteiligten nichts dabei die Ungläubigen zur Konversion zu zwingen, und bei Nichtbefolgen abzuschlachten.
  • Eigennutz
    Gerade bei den Religionen wird sichtbar daß sich Anhänger oft schon deswegen missionarisch betätigen weil sie sich dadurch einen Vorteil zu erringen hoffen, nämlich im Jenseits. Das Paradies gibt's nicht umsonst, man muß dafür anschaffen gehen. Wenn's extrem kommt schmeißen die Leute ihr diesseitiges Leben weg und katapultieren sich über ein Märtyrerdasein gleich auf dem kurzen Weg ins Paradies, was merkwürdigerweise ebenfalls missionarisch wirksam sein kann.
Nun will ich nicht bestreiten daß es auch dem Narzissmus eines Aufklärers schmeicheln kann wenn er Erfolg hat und Andere beim Gebrauch ihres Verstandes auf die gleichen Einsichten kommen wie er. Der Missionar und der Aufklärer können von den gleichen unterschwelligen Motiven getrieben sein. Die werden aber leichter durchschaut von Leuten die denken. Leute die glauben neigen eher dazu sich ihre Helden sauberzuglauben. Wenn ein Aufklärer erfolgreich ist, dann hat er sich damit gleichzeitig erschwert, verehrt zu werden. Seine "Zielgruppe" kann selber denken und braucht die Verehrung nicht mehr. Der größte Erfolg eines Aufklärers ist, sich überflüssig gemacht zu haben.

Es ist natürlich nicht automatisch so das man die Missionare bei den Audiophilen finden würde, und die Aufklärer bei den Holzohren. Es gibt beiderlei Sorten auf beiden Seiten, aber auf der audiophilen Seite wird erheblich mehr geglaubt. Die Analogien zur Religion, und der ihr gegenüber stehenden Aufklärung, sind beileibe nicht zu weit her geholt.


Wie denkt Ihr drüber? Kommentare hier.