Künstliche Intelligenz
Ich habe in einer Psychologie Zeitschrift über einen Computer gelesen, der sprachgesteuert funktioniert und durch Analyse der Stimmen auf die Emotionen seines Input-Senders mit entsprechendem Output reagiert.Ich finde das ziemlich abgefahren, erinnert an Hale aus 2001 und es wird viel geforscht, habe zumindest viel in bei der google-Suche gefunden.
--------------------------------------------------------------
news.ch:
Meldung vom Donnerstag, 19. Februar 2009 / 16:41 h
'Computersysteme zur automatischen Spracherkennung können bislang aber nur den expliziten Sinninhalt verstehen und somit nicht die gesamte Information verwerten, die das gesprochene Wort transportiert.
Doch Wissenschaftler am Lehrstuhl für Systemtheorie und Signalverarbeitung (LSS) der Universität Stuttgart arbeiten daran, Sprachcomputern auch das Erkennen von Gemütsbewegungen beizubringen.
Die normale Spracherkennung ist Vorbild bei Algorithmen und Methoden. «Die mathematischen Ansätze sind sehr ähnlich», meint LSS-Leiter Bin Yang.
Junges Forschungsgebiet
Während schon seit Jahrzehnten an der Spracherkennung linguistischer Inhalte geforscht wird, arbeitet der LSS auf einem relativ jungen Gebiet. Computer sollen lernen, auch nicht direkt in Worte gefasste Inhalte der Sprache zu erkennen, sogenannte «paralinguistische Eigenschaften».
Dazu zählen neben Emotionen wie Angst oder Wut auch Stress, medizinische Auffälligkeiten in der Stimmgebung oder auch Alter und Geschlecht eines Sprechers sowie der Dialekt als Zeichen der regionalen Herkunft.
Die Stuttgarter setzen zur Emotionserkennung auf Algorithmen, die jenen aus der Spracherkennung ähneln. Genutzt werden lernende Verfahren unter Verzicht auf festgelegte Regeln, so Yang. Das Erkennungssystem wird mithilfe einer geeigneten Beispieldatenbank trainiert.
Sprachanalyse als Herausforderung
Eine Herausforderung ist, dass in der Spracherkennung bewährte Merkmale zur Analyse von Sprachdaten für die Emotionserkennung nach Erkenntnissen der LSS-Forscher nur bedingt geeignet sind. Denn für die Spracherkennung sind phonetische Informationen wichtig, wie beispielsweise die charakteristischen Resonanzfrequenzen von Vokalen.
«Wir müssen hingegen praktisch hinter den Vokaltrakt schauen», meint Yang. Denn der emotionale Zustand des Sprechers spiegle sich eher in der Anregung der Stimmlippen wieder. Paralinguistische Informationen verstecken sich somit an anderen Stellen des Sprachsignals als solche, die für die Spracherkennung relevant sind. Dementsprechend intensive Forschungsarbeiten sind daher noch nötig, ehe eine automatische Emotionserkennung wirklich praxistauglich wird.'
--------------------------------------------------------------
Eine weitere, höchst interessante Arbeit zum Thema findet ihr hier:
Google Tags:
Kognitive Psychologie & der Informationsverarbeitungsansatz
der 2. Link, ein pdf
Und? Wie gehts weiter? Wie lauten eure Zukunftsprognosen?