machine therapist filtered  machine therapist filtered

Würden Sie mit einem Maschinen-Therapeuten sprechen?

Übersetztz von Martin Gürster, editiert von Marvin Däumichen

Dieser Beitrag ist auch verfügbar auf: English English

Prof. Dr. med. Gerhard Gründer

Professor für Psychiatrie

Gerhard Gründer ist Professor für Psychiatrie und Vorsitzender der Abteilung für Molekulares Neuroimaging am Zentralinstitut für Seelische Gesundheit, Mannheim

View full profile ››
Unsere Arbeit beruht auf Spenden von Menschen wie Sie.
Wenn Sie unsere vision teilen und psychedelische Forschung und Bildung unterstützen möchten, sind wir dankbar für jeden Betrag, den Sie geben können.
   Spenden

Newsletter der MIND Foundation

Melden Sie sich für unseren Newsletter an und wir halten Sie über alles, was mit der MIND Foundation zu tun hat, auf dem Laufenden.

      6659109755
    • Perspective
    • 3 minutes
    • Dezember 11, 2020
    • Psychische Gesundheit
    • Technologie
    Teilen:

    Vor kurzem habe ich in einem Blogbeitrag über die optimistische Ansicht berichtet, dass „digital phenotyping“ mit Smartphone-Technologie die psychiatrische Diagnose und möglicherweise sogar die Behandlung verbessern würde. Darauf aufbauend habe ich allgemeine Entwicklungen in Richtung Einbeziehung von Big Data in der Psychiatrie diskutiert. Ein weiterer wichtiger Aspekt bei der Digitalisierung der Psychiatrie ist die Entwicklung von maschinellen Therapeuten in der psychiatrischen Versorgung, die mit künstlicher Intelligenz arbeiten. Adam Miner und seine Kollegen von der Stanford University geben in ihrem Artikel „Talking to machines about personal mental health problems“ einen kurzen Überblick über den aktuellen Stand.1

    Maschinelle Therapeuten, die mit Patienten kommunizieren, sind in den USA und in China bereits im Einsatz. Diese “Conversational Agents” werden „Gabby“ oder „Ellie“ genannt. Sie führen psychiatrische Interviews durch und könnten eines Tages sogar in der Lage sein, eine formale Psychotherapie durchzuführen. Miner und seine Kollegen sind optimistisch, was den potenziellen Nutzen von Conversational Agents angeht. „Der Optimismus wächst, dass Conversational Agents in der Psychiatrie eingesetzt werden können, um einige Aspekte der klinischen Beurteilung und Behandlung zu automatisieren.“1 Sie schreiben: „Einige Daten deuten darauf hin, dass die Leute auf sie reagieren, als wären sie Menschen.“1 Das könnte hilfreich sein, „besonders um den Zugang für unterversorgte Bevölkerungsgruppen zu verbessern.“1 Und interessanterweise legt eine Studie nahe, dass Menschen, die wissen, dass sie mit einem Computer sprechen, eher bereit sind, sich zu öffnen.

    Miner et al. stellen weiter fest: “Die Brücke von menschlichen Antworten zu maschinellen Antworten wurde bereits auf Wegen überschritten, die den Benutzern nicht immer ersichtlich gemacht wird. So führen chinesische Bürger vertrauliche Gespräche mit einem textbasierten Conversational Agent namens Xiaoice.”1 Die Autoren räumen jedoch ein, dass Conversational Agents noch nicht in klinischen Studien evaluiert wurden und dass sie möglicherweise nicht nur ineffektiv sind, sondern auch Schaden anrichten könnten. Weitere zukünftige Probleme mit dieser Technologie könnten Fragen der Vertraulichkeit sein. Muss ein maschineller Therapeut so verschwiegen sein wie ein menschlicher?

    Darüber hinaus scheint der Großteil der aktuellen Technologie auf Textkommunikation zu basieren, d.h. sie beruht auf Semantik. Die Kommunikation in der Psychiatrie ist dagegen sehr kontextabhängig. Empathie kann nicht in Worten kodiert werden.

    Obwohl wir einst glaubten, dass die Psychiatrie das menschlichste medizinische Fachgebiet sei, scheinen Wissenschaftler nun zu glauben, dass dies das erste Fachgebiet ist, das durch Computer ersetzt werden wird. Würden Sie mit einem maschinellen Therapeuten über Ihre Gefühle, Ihre Konflikte, und Ihre Wünsche sprechen?

    Unsere Arbeit bei MIND ist auf Spenden von Menschen wie Ihnen angewiesen.

    Wenn Sie unsere Vision teilen und psychedelische Forschung und Bildung unterstützen wollen, sind wir für jeden Betrag dankbar, den Sie geben können.

    Quellen
    1. Miner AS, Milstein A, Hancock JT. Talking to Machines About Personal Mental Health Problems. JAMA. 2017;318(13):1217-8. doi:10.1001/jama.2017.14151