„Google, wird meine Ehe halten?“

Unsere Äußerungen in digitalen und virtuellen Welten verraten mehr über uns als uns lieb ist: Künstliche Intelligenz kann aus der Art, wie wir sprechen, Emotionen und Charakterzüge entschlüsseln. Das kann helfen. Und schaden.

Steht da, ich sei schlecht organisiert? Ich liege beim Charaktermerkmal „Selbstorganisation“ auf einer Skala von 9 bei 4 – zumindest deutlich unter dem Durchschnitt. Es ist mein schlechtester Wert in der Kategorie „Charakterzüge“. Die künstliche Intelligenz eines Unternehmens namens Precire hat meine Persönlichkeit berechnet allein aus meiner Sprache. 15 Minuten harmloses Erzählen am Telefon, so wie ich es mit jedem oberflächlichen Bekannten tun würde, positive und negative Erlebnisse, ein typisches Wochenende, der letzte Urlaub. Ich habe nicht über meine Persönlichkeit gesprochen, nicht über meine Emotionen, nichts besonders Intimes verraten. Zugehört hat nur eine Maschine.

Und jetzt behauptet diese, nachdem sie meine Sprachdaten mit denen von 5000 Probanden verglichen hat, die zudem umfangreichen psychologischen Tests unterzogen wurden, ich sei extrem neugierig (8 von 9), glücklicherweise auch sehr verträglich (ebenfalls 8), Kontakt- (7) und Risikofreudig (6), habe ein hohes Autonomiebedürfnis (7), lege weniger Wert auf Status und Dominanz (beides 5), sei emotional nur so mittelmäßig ausgeglichen (4) und nicht besonders gut organisiert.

Unterm Strich zugegebenermaßen sehr treffend. Erst später wird mir klar werden, dass auch die Unorganisiertheit womöglich nicht ganz daneben liegt.

Was die Sprache verrät

Aus der Sprache und der Stimme eines Menschen kann man erstaunlich viel über dessen Psyche erfahren, und das ist nicht einmal neu. Bereits 2015 zeichnete Shrikanth Narayanan von der University of Southern California (USC) in Los Angeles gemeinsam mit Kollegen hunderte Therapiegespräche aus der Eheberatung über zwei Jahre hinweg auf. Zudem bekamen die Forscher Informationen über den Ehestatus der beteiligten Personen über die folgenden fünf Jahre. Sie fütterten ihren Algorithmus mit den Stimmdaten, der diese unter anderem nach Faktoren wie Lautstärke und Tonhöhe sowie zittrige oder brechende Stimmen analysierte.

Diese Informationen genügten: das System sagte mit 80-prozentiger Genauigkeit voraus, ob ein Paar nach Ende des Beobachtungszeitraums noch zusammen war oder nicht – besser übrigens als die beteiligten Therapeuten, die die Forscher ebenfalls um ihre Einschätzung baten. „Ich bin sehr optimistisch, was die Zukunft dieser Technologie angeht“, sagt Narayanan im Interview: Schon heute kämen die Systeme nahe an Menschen heran, wenn es darum gehe, Emotionen zu erkennen: „Unsere Stimme transportiert sehr viele Informationen über unseren psychischen Status und unsere Identität.“

RiffReporter fördern

Tauchen Sie ein! Mit ihrem Kauf unterstützen Sie neue Recherchen der Autorinnen und Autoren zu Themen, die Sie interessieren.

Liebe Leserin, lieber Leser,
um diesen RiffReporter-Beitrag lesen zu können, müssen Sie ihn zuvor kaufen. Damit Ihnen der Kauf-Dialog angezeigt wird, dürfen Sie sich aber nicht in einem Reader-Modus befinden, wie ihn beispielsweise der Firefox-Browser oder Safari bieten. Mit dem Beitragskauf schließen Sie kein Abo ab, es ist auch keine Registrierung nötig. Sobald Sie den Kauf bestätigt haben, können Sie diesen Beitrag entweder im normalen Modus oder im Reader-Modus bequem lesen.

Flatrate ab 8 € RiffReporter unterstützen
VR-Reporterin