Neulich habe ich eine alte Freundin aus meiner Kindheit wiedergetroffen. Dieses Treffen habe ich gezielt arrangiert, und es hat ganz unmittelbar mit einigen Gedanken zu digitaler (Un)kultur zu tun. Sie ist ein wenig kräftig gebaut, war schon in meiner Kindheit nicht mehr up to date und verhält sich gemessen an heutigen Maßstäben nicht nachhaltig. Die hübsche EL 34 ist eine 1949 entwickelte Elektronenröhre, die bis heute produziert wird und zusammen mit anderen Endpentodenschwestern deshalb überlebt hat, weil sie in vielen Gitarren- und Bassverstärkern als klangmiterzeugendes Element in der Leistungsverstärkung eingesetzt wird1Immer wenn es nach AC/DC klingt, war´s ein typischer Röhrenverstärker.. Daneben haben Röhren bei den Menschen ihr Dasein gefristet, die auch zu Hause lieber Musik mit einem Röhrenverstärker hören. Als Kind hatte ich eine riesige Röhrensammlung, denn in meiner Kindergarten- und Grundschulzeit fand der Wechsel von Röhren- zu Transistorgeräten statt. Es gab viel zu restaurieren und auszuschlachten und die so gesammelten Schätze ließen sich unterschiedlich sortieren und aufstellen. Es machte Spaß, sich mit dieser damals im Verschwinden begriffenen Technik zu befassen. Die Ausbeute meiner Röhrenstreifzüge ergab regelmäßig ein üppiges, aber in der Vielfalt begrenztes Ergebnis, denn in den meisten Apparaten kamen nur wenige Röhrentypen vor. Dicke Leistungsröhren, das war schon etwas Besonderes. Sie fielen nur dann ab, wenn in den Gitarren- und Bassverstärkern von älteren Freunden routinemäßig ein Röhrensatz ausgetauscht wurde. Eine EL 34 war also etwas außergewöhnliches, denn mit den umgebauten Endstufen der ausgeschlachteten Radios bin ich nie über die wesentlich kleinere EL 84 hinausgekommen, die aber für die Beschallung eines Kinderzimmers prima ausgereicht hat.
Nun habe ich mir wieder eine EL34 zugelegt (vielmehr ein Pärchen), in einem ganz einfachen Verstärker.
Und was hat das jetzt mit digitaler (Un)kultur zu tun? Das ist ganz einfach. Ich habe intensiv darüber nachgedacht, was mich eigentlich trotz vorhandener Begeisterung für digitales Zeug retrospektiv am pandemiebedingten Digitalisierungsschub gestört hat. Und das ist die Tatsache, dass die Algorithmen sich massiv in einem Bereich ausgebreitet haben, den wir fast überhaupt nicht thematisieren, nämlich der Audioverarbeitung. Während wir bei digitalen Bildern zunehmend ein Sensorium dafür ausbilden, was stark bearbeitet (“gefiltert”) ist und wie damit umgegangen werden kann (z.B. bezüglich der Selbstinszenierung mit Fotos auf Social Media), fehlt dies beim Ton vollkommen. Und das ist der Punkt: Guter Ton ist in den massiv um sich greifenden Videokonferenzen außergewöhnlich selten. Ein Problem ist dabei die Hardwareseite. Der wohl größte Aufwand wird betrieben, um gut auszusehen. Ringlichter, Softboxen, hochauflösende Kameras und hergerichtete Hintergründe, die manche Profistreamer:innen blass werden lassen, sind auch in der Wissenschaft eingezogen. Dagegen spricht nichts. Allerdings steht diesem Aufwand konträr entgegen, dass die Stimme oft über das krächzende Notebookmikro übertragen wird. Noch fataler wird die Sache, wenn Zeitgenoss:innen mit einer Freisprecheinrichtung aus dem Auto heraus teilnehmen oder zwar ein Headset benutzen, damit aber vor allem Windgeräusche oder Haarerascheln übertragen. Und hier kommen die Algorithmen ins Spiel. Wer darauf achtet (der Witz ist, dass es vielen gar nicht mehr auffallen dürfte) hört, dass gängige Videokonferenzprogramme massiv in die Tonübertragung eingreifen. Denn die Hersteller haben sich natürlich angepasst: Die krummen Frequenzgänge der Gurkenmikrofone werden durch Filter aufgehübscht. So klingt es nicht mehr ganz so trötig nach Telefon. Störgeräusche werden durch den massiven Einsatz von weiteren Filtern, die versuchen, Sprache von Hintergrundgeräuschen in einer Echtzeitanalyse zu trennen, ausgeblendet. Das alles funktioniert leidlich nach dem McDonalds-Prinzip: Zunächst denkt mensch, das ist aber prima. Dann wird es schnell fade, danach anstrengend, ablenkend und am Ende kopfschmerzerzeugend, wenn man zu lange in Gesprächen sitzt, bei denen der natürlichen Stimme beim Ein- und Ausschwingen jeweils einige Millisekunden abgehackt werden und das Hirn noch dazu darüber nachdenkt, welches Umweltgeräusch da gerade gefiltert wird. Toningenieur:innen kennen das alles als Hörermüdung und wissen, dass man dann Pause machen muss.
Im Zuge der Zwangsdigitalisierung ist all das zu einer (Un)kultur des guten Tones geworden. Dabei lässt sich das Hardwareproblem recht einfach lösen: Gute Mikrofone kosten nicht mehr viel Geld. Damit ist aber nur ein Teil des Problems adressiert. Die Audioalgorithmen haben nämlich auch dazu geführt, dass die Grenze des guten Tones zunehmend verschoben wird: Mal kurz am Rastplatz “reinschalten”, an einem Seminar gleich vom fahrenden Auto aus teilzunehmen, ein Referat aus einem lärmenden Stationszimmer des Nebenjobs zu halten, all das wird durch diese Algorithmen überhaupt erst möglich. Die Aufzählung mag übertrieben klingen – aber die Störgeräuschunterdrückung ist meist die Standardeinstellung. Man muss sie ausschalten, um die eigene Stimme zumindest nicht in abgehackter Form zu übertragen (viele andere Klangbearbeitungen lassen sich gar nicht mehr beeinflussen).
All das hat mich nun zu noch mehr Nachhören angespornt, und siehe da: Folgt man diesen Spuren, dann bemerkt man auch wieder bei vielen Stereoanlagen, tragbaren Bluetooth-Lautsprechern (diese sind ohnehin die neue Geißel der Menschheit) und anderen digitalen Audiodingen die starke algorithmische Schönmalerei: Bässe, wo physikalisch keine sein können, Stimmen, die irgendwie präsent, aber doch übertrieben klingen, und so weiter.2Das ist natürlich alles lange bekannt, geht aber im Alltag verloren. Seit einer Generation dürfte zudem die Mehrzahl der Kinder und Jugendlichen ein Gehör ausgebildet haben, das sich an massive Eingriffe durch digitale Signalverarbeitung gewöhnt hat. Sie haben die extreme Dynamikkompression mit den damit einhergehenden Hüllkurvenveränderungen im Zuge des Loudness Wars als Regelfall kennengelernt und empfinden auch die Korrektur und Glättung von Singstimmen in Tonhöhe und Stimmfärbung durch Programme wie Antares, Melodyne oder Wavelab nicht als außergewöhnlich.
Und hier kommt meine alte Kinderfreundin von oben ins Spiel: Gute Musik (Apple bietet seit letztem Jahr alles Lossless an) ohne algorithmische Verbiegung ist eine krasse Differenzerfahrung zur McDonaldisierung des guten Tones.3Bevor sich jetzt die Kommentare häufen: Eine Röhre macht noch keinen Sommer. Wenn zwischen Audioquelle und einem guten Breitbandlautsprecher aber kein algorithmischer Unfug steckt, ist dies für viele Menschen ein ungewöhnliches Hörerlebnis. Warum sie anders klingen als Transistorverstärker, kann man komprimiert hier nachlesen. Vielleicht sollten wir alle weniger videokonferenzieren und wenn, uns dazu Zeit nehmen, eine passende Umgebung schaffen und die Filter ausknipsen.4Das ist gar nicht so einfach. Für Zoom: Einstellungen | Audio , dann unter dem Punkt Musik und professionelles Audio die meetinginterne Option zum Einschalten des Originaltons sowie den Hifi-Musikmodus aktivieren. Dieser Aufwand lohnt aber nur, wenn ein hochwertiges Mikro mit passendem Mikrofonverstärker (heißt jetzt neudeutsch “Audiointerface”) benutzt wird. Bei Gurkenmikrofonen zeigt sich beim Ausschalten der Tonkosmetik hingegen der schlechte Ton besonders deutlich.
Ich werde jedenfalls die Videokonferenziererei auf das absolute Minimum beschränken, keine hybriden Bequemlichkeitsfantasien bedienen und auf das gute Gespräch mit gutem Ton setzen. Am allerbesten ist dieser, wenn er live ohne mediale Zwischenstufen durch Luftschall übertragen wird. Das nennt sich jetzt neudeutsch Kopräsenz.
Und für alle, die jetzt fürchten, dass es hier mit Hifi-Esoterik weitergeht: Keine Sorge, das war nur ein kleiner Zwischenruf zu einem etwas abseitigen Aspekt von Doing Digitality im Horizont von gutem Ton.