Projektbeschreibung
Umsetzung
Unser Ziel ist es, eine mobile Anwendung zu entwickeln, welche die automatische Übersetzung von Deutscher Gebärdensprache in Deutsch (Schrift und Audio) und umgekehrt in Echtzeit ermöglicht.
Dafür sollen zunächst mit NutzerInnen der Deutschen Gebärdensprache die wünschenswerten Einsatzgebiete einer solchen Anwendung ermittelt werden, um basierend hierauf einen Basiswortschatz aufzubauen. Dieser wiederum wird dann als Grundlage für die Entwicklung eines auf maschinellem Lernen basierenden Bildanalyseverfahrens dienen, welches unter Verwendung der 5G Technologie Echtzeitübersetzungen von Videostreams beispielsweise in Sprachausgabe in einem Telefon ermöglichen soll. Außerdem sollen Lösungsmöglichkeiten erforscht und getestet werden, wie umgekehrt Laut- und Schriftsprache mittels eines Avatars in Echtzeit in Deutsche Gebärdensprache übersetzt werden kann.
Arbeitspakete
- In enger Zusammenarbeit mit der DGS Community die relevanten Einsatzgebiete für die erste Anwendung mit ermitteln
- Entwicklung der passenden UX für den Prototypen der Anwendung durch das Erfassen der Nutzersituation und des Kommunikationsablaufs in enger Zusammenarbeit mit Sparchwissenschaftlern und Gebärdenden
- Umsetzung des Prototypen für das passende Einsatzgebiet als iOS und Android App
- Testing und Optimieren des Prototypen mit Mitgliedern der DGS Community in den gewählten Kommunikations-Szenarien
- Gebärdenerkennung aus Bildanalyse der Videostreams des mobilen Endgeräts durch Machine Learning
- Live-Übersetzen der gebärdeten Inhalte von DGS nach Deutsch und umgekehrt durch Machine Learning
- Entwicklung eines 3D-Avatars, der die gesprochenen Inhalte in DGS ausgibt
- Dokumentation der Forschungsergebnisse und Dissemination