Manfred Kroboth

Klanginstallationen

digital puppetry /
automatisiertes Theater

Performances /
Aktionen

Der Comic

kroko - gemeinsame Arbeiten
mit Jutta Konjer

 

 

 

Texte

 

 

 

 

 

 

 

 

 

 

 

"His masters voice"

"ensoundment"

Interview aus:
"Klangräume als interdisziplinäre
Grenzüberschreitung" von
Jacob Tobias Sello

 

 

 

 

 

 

His Master's Voice

Es fällt schwer, sich heute vorzustellen, welche Verwunderung es ausgelöst hat, als zum ersten Mal Menschen eine menschliche Stimme, die von einem Apparat erzeugt wurde, hörten. Das Bild von dem Hund, der in den Trichter eines Plattenspielers horcht, weil er da "his master's voice" herauskommen hört, vermittelt von diesem Erstaunen einen wunderbaren Eindruck. Es ist ein früher Menschheitstraum, künstliches Leben zu erschaffen. Und dazu gehört nicht nur ein sich bewegender Körper - er muss auch kommunizieren, also sprechen können.
Schon lange bevor die ersten Apparate, die Sprache bzw. Musik oder Geräusche aufzeichnen konnten, erfunden waren, gab es erfolgreiche Versuche Sprache künstlich zu erzeugen. Gerbert von Aurillac (1003) wird ein aus Bronze gefertigter "Sprechender Kopf" zugeschrieben, von dem berichtet wurde, dass er "ja" und "nein" sagen konnte. Sicher ist, dass 1779 der dänische Wissenschaftler Christian Kratzenstein eine Maschine baute, die fünf lange Vokale (a, e, i, o und u) produzieren konnte. Wolfgang von Kempelen entwickelte kurz darauf eine Sprechmaschine, die er 1791 in seiner Veröffentlichung "Mechanismus der menschlichen Sprache nebst der Beschreibung seiner sprechenden Maschine" darstellte. Die ersten computerbasierten Sprachsynthesesysteme wurden in den späten 1950ern entwickelt, das erste komplette Text-To-Speech-System 1968 fertig gestellt. Der Physiker John Larry Kelly, Jr entwickelte 1961 bei den Bell Labs eine Sprachsynthese mit einem IBM 704, und ließ ihn das Lied "Daisy Bell" singen. Der Regisseur Stanley Kubrick war davon so beeindruckt, dass er es in den Film "2001: A Space Odyssey" integrierte.
Grundsätzlich lassen sich zwei Ansätze zur Erzeugung von Sprachsignalen unterscheiden. Zum einen kann das Signal durch die so genannte Physiologische (artikulatorische) Modellierung, vollständig im Rechner erzeugt werden. Zum anderen kann durch die so genannte Signalmodellierung auf Sprachaufnahmen (Samples) zurückgegriffen werden. . Mit einem System, das auf der Verwendung von Diphonen basiert, ist es theoretisch möglich die Stimme eines Menschen (sofern genügend Aufnahmen der Stimme existieren) zu samplen, eine Datenbank daraus zu erzeugen und so die Stimme mit einem Computer zu generieren. Theoretisch ist diese Möglichkeit, weil es ein Unmaß an Arbeit bedeuten würde, auf diese Weise einen gesprochenen Text zu produzieren der nicht nur nach seinem Vorbild klingt, sondern sich auch "menschlich" anhört. Im Bereich Film gibt es eine lange Tradition des Trickfilms. Seit einigen Jahren ist es möglich Filme zu erzeugen, die relativ real aussehen, aber vollständig computergeneriert sind. Bei allen Produktionen wird jedoch der Text noch immer von realen Schauspielern gesprochen. Hier stellt sich die Frage, warum man Bilder oder Sprache künstlich erzeugen soll, wenn es einfacher (und Kostengünstiger) ist, sie auf traditionelle Weise zu erzeugen. Von einem künstlerischen Standpunkt aus betrachtet, macht dies nur Sinn, wenn die Bilder oder die Sprache mit konventionellen Mitteln nicht zu erzeugen sind. In Bezug auf Sprache heißt das, dass synthetische Sprache künstlerisch nur Sinn macht, wenn sie akustisch etwas erzeugt, was eine menschliche Stimme nicht kann. Zur weitern Anregung des Lesers empfehle ich, folgenden Text zu lesen:

rznmklwsdfnytrpwzfsjkbdrwxtgzmfvpwrzlghtnwscgkfmtnsmzifthwirrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr
rrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr

 

Vita
Kontakt
Impressum
Datenschutz

english