Format

Perspective

Categories

Mental Health Technology Medicine & Psychiatry


Related Blog post

Würden Sie Mit Einem Maschinen-Therapeuten Sprechen?

Übersetzt von Martin Gürster, editiert von Marvin Däumichen

Vor kurzem habe ich in einem Blogbeitrag über die optimistische Ansicht berichtet, dass „digital phenotyping“ mit Smartphone-Technologie die psychiatrische Diagnose und möglicherweise sogar die Behandlung verbessern würde. Darauf aufbauend habe ich allgemeine Entwicklungen in Richtung Einbeziehung von Big Data in der Psychiatrie diskutiert. Ein weiterer wichtiger Aspekt bei der Digitalisierung der Psychiatrie ist die Entwicklung von maschinellen Therapeuten in der psychiatrischen Versorgung, die mit künstlicher Intelligenz arbeiten. Adam Miner und seine Kollegen von der Stanford University geben in ihrem Artikel „Talking to machines about personal mental health problems“ einen kurzen Überblick über den aktuellen Stand.1

Maschinelle Therapeuten, die mit Patienten kommunizieren, sind in den USA und in China bereits im Einsatz. Diese “Conversational Agents” werden „Gabby“ oder „Ellie“ genannt. Sie führen psychiatrische Interviews durch und könnten eines Tages sogar in der Lage sein, eine formale Psychotherapie durchzuführen. Miner und seine Kollegen sind optimistisch, was den potenziellen Nutzen von Conversational Agents angeht. „Der Optimismus wächst, dass Conversational Agents in der Psychiatrie eingesetzt werden können, um einige Aspekte der klinischen Beurteilung und Behandlung zu automatisieren.“1 Sie schreiben: „Einige Daten deuten darauf hin, dass die Leute auf sie reagieren, als wären sie Menschen.“1 Das könnte hilfreich sein, „besonders um den Zugang für unterversorgte Bevölkerungsgruppen zu verbessern.“1 Und interessanterweise legt eine Studie nahe, dass Menschen, die wissen, dass sie mit einem Computer sprechen, eher bereit sind, sich zu öffnen.

Miner et al. stellen weiter fest: “Die Brücke von menschlichen Antworten zu maschinellen Antworten wurde bereits auf Wegen überschritten, die den Benutzern nicht immer ersichtlich gemacht wird. So führen chinesische Bürger vertrauliche Gespräche mit einem textbasierten Conversational Agent namens Xiaoice.”1 Die Autoren räumen jedoch ein, dass Conversational Agents noch nicht in klinischen Studien evaluiert wurden und dass sie möglicherweise nicht nur ineffektiv sind, sondern auch Schaden anrichten könnten. Weitere zukünftige Probleme mit dieser Technologie könnten Fragen der Vertraulichkeit sein. Muss ein maschineller Therapeut so verschwiegen sein wie ein menschlicher?

Darüber hinaus scheint der Großteil der aktuellen Technologie auf Textkommunikation zu basieren, d.h. sie beruht auf Semantik. Die Kommunikation in der Psychiatrie ist dagegen sehr kontextabhängig. Empathie kann nicht in Worten kodiert werden.

Obwohl wir einst glaubten, dass die Psychiatrie das menschlichste medizinische Fachgebiet sei, scheinen Wissenschaftler nun zu glauben, dass dies das erste Fachgebiet ist, das durch Computer ersetzt werden wird. Würden Sie mit einem maschinellen Therapeuten über Ihre Gefühle, Ihre Konflikte, und Ihre Wünsche sprechen?

Disclaimer: Dieser Blogpost wurde von Volontären übersetzt und editiert. Die Mitwirkenden repräsentieren nicht die MIND Foundation. Wenn Ihnen Fehler oder Unklarheiten auffallen, lassen Sie es uns bitte wissen – wir sind für jede Verbesserung dankbar (mailto:[email protected]). Wenn Sie unser Projekt zur Mehrsprachigkeit unterstützen wollen, kontaktieren Sie uns bitte um der MIND Blog Translation Group beizutreten!

Referenzen

  1. Miner AS, Milstein A, Hancock JT. Talking to Machines About Personal Mental Health Problems. JAMA. 2017;318(13):1217-8. doi:10.1001/jama.2017.14151


Back