Sprachcomputer erkennen Gemütszustand - Multimodale Interfaces prägen eine neue Gerätegeneration
ID: 43960
Nach Erfahrungen von Dr. Elmar Nöth vom Lehrstuhl für Mustererkennung der Universität Erlangen-Nürnberg http://www5.informatik.uni-erlangen.de/de habe sich die Sprachdialogtechnik über die pure Spracherkennung hinaus weiter entwickelt und punkte sogar mit Emotionserkennung, die auch viele Unternehmen für den automatisierten Kundenkontakt für sich entdeckt hätten. Dabei gebe es mehrere Stufen: „Von Benutzereingaben per Tastatur über die Erkennung von Ziffern und Einzelwörtern zu der dritten Stufe, dem natürlichsprachlichen Dialog ohne feste Menüstruktur, wobei das Dialogsystem ganze Sätze versteht bis dahin, dass das Dialogsystem den emotionalen Benutzerzustand erkennt und darauf reagieren kann, um den Dialog natürlicher zu gestalten“, so Nöth. Emotionserkennung mache den Dialog mit der Maschine menschlicher, so sein Resümee. Weit fortgeschritten ist beispielsweise der multilinguale Kundenservice von T-Mobile. Er erkennt das Alter, das Geschlecht, die Sprache und die aktuelle Stimmung. Ziel dieses Projektes ist es, den Kunden mittels adaptiver Sprachdialoge individuell anzusprechen und ihn mit kundenspezifischen Angeboten zu begeistern. T-Mobile wurde für diese Lösung mit dem Voice Award der Brancheninitiative Voice Business http://www.voicedays.de ausgezeichnet.
Natürlich-sprachliche Interfaces würden immer intelligenter, nutzerfreundlicher und bald um eine grafisches Ebene ergänzt, meint Lupo Pape. Er sieht die Sprachtechnologie nicht nur in Sachen telefonischer Kundenkontakt weiter im Aufwind. Das Stichwort heißt Multimodalität bei der Steuerung von Geräten: „Das heißt, das Voice Interface wird ergänzt durch ein grafisches Interface. Das Internet und die Sprachschnittstelle wachsen zusammen zu einem multimodalen Dialog. Und das dann auf mobilen Endgeräten, der nächsten Generation der Superhandys. Da werden wir ganz andere Arten der Mensch-Maschine-Interaktion haben. Das heißt also, man nutzt die Stärken des grafischen Interfaces mit den Stärken der Sprache. Wenn ich im Auto unterwegs bin, spreche ich. Wenn ich in der U-Bahn meine Ruhe haben will, dann nutze ich das grafische Interface. Am besten, man nutzt beide Modalitäten gleichzeitig“, so Pape im Deutschlandfunk. Unternehmensinformation / Kurzprofil:
PresseKontakt / Agentur:
medienbüro.sohn
V.i.S.d.P: Gunnar Sohn
Ettighoffer Strasse 26a
53123 Bonn
Germany
Telefon: 49 - 228 - 6 20 44 74
Telefax: 49 - 228 - 6 20 44 75
medienbuero(at)sohn.de
Datum: 29.02.2008 - 15:37 Uhr
Sprache: Deutsch
News-ID 43960
Anzahl Zeichen: 0
Kontakt-Informationen:
Ansprechpartner: Gunnar Sohn
Kategorie:
Information & TK
Meldungsart: bitte
Versandart: Veröffentlichung
Freigabedatum: 29.02.2008
Diese Pressemitteilung wurde bisher 1201 mal aufgerufen.
Die Pressemitteilung mit dem Titel:
"Sprachcomputer erkennen Gemütszustand - Multimodale Interfaces prägen eine neue Gerätegeneration "
steht unter der journalistisch-redaktionellen Verantwortung von
medienbüro.sohn (Nachricht senden)
Beachten Sie bitte die weiteren Informationen zum Haftungsauschluß (gemäß TMG - TeleMedianGesetz) und dem Datenschutz (gemäß der DSGVO).