Visuelle Metaphern und Simultaneität in komplexen EreignissenDFG fördert zwei Projekte zu Gebärdensprachen
28. April 2023, von Viola Griehl
Foto: UHH, Stefanie Wetzel (3)
Gebärdensprachen zeigen einige Besonderheiten gegenüber Lautsprachen auf, die oftmals in der visuell-gestischen Modalität und der damit verbundenen Ikonizität begründet sind. Zwei Forschungsprojekte an der Universität Hamburg, die sich mit diesen Besonderheiten beschäftigen, werden nun von der Deutschen Forschungsgemeinschaft (DFG) gefördert.
Welche Schnittstellen es zwischen Gesten, Wörtern, Gebärden oder auch Emojis gibt, soll innerhalb des interdisziplinären DFG-Schwerpunktprogramms „Visuelle Kommunikation. Theoretische, empirische und angewandte Perspektiven (ViCom)“ untersucht werden. Ziel ist es, spezifische Eigenschaften visueller Kommunikation und deren linguistische Relevanz zu erforschen. Außerdem trägt es dazu bei, methodische, technologische, therapeutische und didaktische Innovationen im Bereich der multimodalen Kommunikation voranzutreiben. Gleich zwei Projekte an der Fakultät für Geisteswissenschaften der Universität Hamburg sind daran beteiligt und haben jetzt die Arbeit aufgenommen. Sie werden von der Deutschen Forschungsgemeinschaft (DFG) mit insgesamt rund 605.000 Euro gefördert.
Welche Bestandteile komplexer Ereignisse können gleichzeitig dargestellt werden?
In ihrem Projekt „Exploring the limits of simultaneity: Encoding caused change-of-state events with classifier constructions in German Sign Language (DGS)“ beschäftigt sich Dr. Cornelia Loos (Institut für Deutsche Gebärdensprache und Kommunikation Gehörloser, IDGS) mit der Frage, welche Bestandteile von komplexen Ereignissen in Gebärdensprachen gleichzeitig dargestellt werden können. Denn visuell-gestische Sprachen erlauben sehr viel stärker simultane Strukturen als auditiv-akustische Sprachen – z. B. die parallele Verwendung mehrerer Artikulatoren wie Hände, Gesicht und Oberkörper. Doch es gibt Hinweise darauf, dass solche simultanen Strukturen sowohl linguistische als auch motorische Grenzen haben. Im Projekt soll untersucht werden, welche Faktoren dabei eine Rolle spielen.
Die Verarbeitung von Metaphern an der Schnittstelle von Gestik und Gebärden
Fragen zu gebärdensprachlichen Metaphern erforschen Prof. Dr. Annika Herrmann (IDGS) und Prof. Dr. Natalia Filatkina (Institut für Germanistik) in ihrem Projekt „Iconic metaphors and the gesture-sign interface in German Sign Language – corpus data meet experiments (IMaGeS)“ gemeinsam mit der Projektmitarbeiterin und Doktorandin Sarah Schwarzenberg (IDGS). Die Forscherinnen interessiert besonders die Verarbeitung von Metaphern an der Gestik-Gebärden-Schnittstelle. Metaphern in Gebärdensprachen basieren auf zwei Abbildungsmechanismen. Einer davon folgt ikonischen – also bildhaften – Prinzipien. So wird die Gebärde für „etwas begreifen“ durch eine schließende Bewegung der Hand zur Faust vor der Stirn dargestellt. Hier zeigt sich aber auch der metaphorische Abbildungsmechanismus. Wie in Lautsprachen werden Elemente des Ursprungsbereichs „greifen“ auf den Zielbereich übertragen: etwas verstehen bedeutet, etwas zu (be)greifen. Doch was passiert, wenn eine Geste und eine Gebärde dieselbe Form, aber unterschiedliche Bedeutungen haben? Wie sieht die Verarbeitung im Gehirn aus, wenn einer Gebärde neben einer wörtlichen Bedeutung auch eine metaphorische Bedeutung zugeschrieben wird?
Um diese Fragen interdisziplinär zu untersuchen, nutzt das Team im Projekt verschiedene methodische Ansätze wie zum Beispiel Korpusdaten in Verbindung mit experimentellen Studien, bei denen mittels EEG die Gehirnströme während der Wahrnehmung und Verarbeitung gemessen werden.