Eine Frau hält ein Smartphone in der Hand.

Ihre Meinung zu Sind Chatbots geeignet für die Psychotherapie?

Die Zahl psychischer Erkrankungen in Deutschland steigt - die Wartelisten für Therapieplätze sind lang. Können KI-Chatbots, die Betroffene beraten, hier helfen? Und was sind die Risiken? Von Lara Kubotsch.

...mehr ...weniger
Dieser Artikel auf tagesschau.de
Kommentieren beendet
100 Kommentare

Kommentare

Buerger1001

Nun noch eine KI für die Glaubensvermittlung bitte. 

1 Antwort einblenden 1 Antwort ausblenden
artist22

"Nun noch eine KI für die Glaubensvermittlung bitte. "

Glaubensermittlung? Macht meine KI  doch schon. Um die Griechen (Sokartes,Sisyphos) und Leipziger (Möbius) zu finden ;-) 

 

Vector-cal.45

Wenn hier bereits nahezu jeder vierte (!) von psychischen Problemen oder Erkrankungen betroffen ist, sollte man sich vielleicht viel mehr auf die Ursachen fokussieren, anstatt Computerprogramme zwischenmenschliche (Betonung auf „menschlich“) Interaktionen durchführen zu lassen.

 

Sicherlich mag die KI für den ein oder anderen medizinischen Bereich sinnvoll einsetzbar sein, aber doch eher nicht in der Psychotherapie. Ich gehe davon aus, dass die allermeisten Betroffenen das direkte Gespräch, und zwar mit einer anderen Person, zwingend benötigen.

FakeNews-Checker

Ein  ärztliches  Rezept  mit  einem  Potpourri  aus  TV-Sendern,    die  der  psychisch  Kranke  zur  Heilung  schauen  soll,  täts  auch  statt  Chatbots.        : )

Bender Rodriguez

Bei vielem, was sich so ein Psychater anhören muss, reicht auch der Friseur, der Barkeeper oder der Stammtisch. Warum nicht auch der Home PC?

Buerger1001

Wenn es sie gibt, werde ich sie nutzen. Lieber wäre mir ein Mensch, damit ich nicht mehr einsam bin. Also auch kein Psychoonkel.

Humanokrat

Wer meint, die Maschine könne den Menschen behandeln hat wohl einen gewissen Grad an 'Kulturperversion' erreicht. Wer auch immer diese Idee vertritt möge einen Moment überlegen, was er oder sie damit eigentlich gerade vorschlägt. 

Psychotherapie funktioniert nur aus der Beziehung zwischen Therapeut und Klient. Diese Beziehung durch eine Maschine ersetzen zu wollen ist mindestens in sich eine Störung, wenn nicht eher sogar Irrsinn. 

FrischDenk

Wer das Training eines ChatBots kontrolliert, kontrolliert dann auch die Ziele auf die hin ein solcher Bot die Psychotherapie betreibt. Damit kann man auch Sekten gründen....

Man stelle sich nur vor, die Anhänger eines Herrn T. aus USA wenden sich an einen solchen Chatbot um Hilfe beim Ausstieg....Oder andere "vulnerable Gruppen"....

Das ist ein hervorragendes Tool für alle politischen Akteure ihre Bevölkerungen mental und subtil "bei der Stange zu halten..."....

 

Anderes1961

Hat schon was. Da "beschweren" sich hier Foristen, daß eine künstliche Intelligenz keine Empathie besitze mit Posts, die jegliche Empathie vermissen lassen.

Eine künstliche Intelligenz kann mehr Empathie entwickeln als es der eine oder andere Forist je vermag. Als Betroffener, der nach langer Suche vor Jahren einen Therapeuten gefunden hat, der super zu mir paßt, weiß ich wovon ich rede. Es gibt zwei Arten von Empathie, die emotionale Empathie und die kognitive Empathie. Die letztere kann man lernen, das können sogar Authisten. Kognitive Empathie ist vereinfacht gesagt die Fähigkeit, zwischen den Zeilen lesen zu können. Wenn also ein Bot sauber mit Hilfe eines guten Therapeuten programmiert und angelernt wurde, kann ein solcher Chatbot eine echte Hilfe als Ergänzung oder auch zur Überbrückung der Wartezeit sein.

Denn entscheidend ist gar nicht, wer etwas sagt, sondern was gesagt wird. Die Worte sind die Medizin. Anders ausgedrückt: Nicht die Verpackung, sondern der Inhalt ist wichtig.

FraFraFrankenstein

Mein erster Impuls war eher positiv gestimmt, aber es ist nicht möglich, dass ein Bot jemals die Prüfung als Arzt in Deutschland schaffen wird. Also, nein. Ich stimme meinen Vorrednern zu, dass es bei einer Psychotherapie doch eher einen Menschen mit Gefühl und Erfahrung braucht.

1 Antwort einblenden 1 Antwort ausblenden
werner1955

einen Menschen mit Gefühl und Erfahrung braucht.

Und bis ein "Menschen mit Gefühl und Erfahrung" zeit hat kann der Chatbot vieleicht ein kliene Hife sein. 
So wie bei der esrten Hilfe auch: Nichts tun ist der größte Fehler den man tun kann. 

FakeNews-Checker

Die  menschliche  Psyche  ist  zwar  auch  nur  ein  Chemiebaukasten,  wie  mittlerweile  von  der  universitären  Kriminologie  erkannt  und  nachgewiesen   wurde,  sodaß  da   Psychotherapien  nur  wenig  bewirken  können.   Aber  die  Pharmachmie  sollte  dazu  besser  aufgestellt  sein  als  bisher  mit  all  den  meterlangen  Beipackzettel-Nebenwirkungslisten   von  Psychopharmaka,  bei  denen  auch  die  da  oft    verbriefte  Suizid-Förderung  nicht  nur  Theorie  ist.   Sonst  bleibt  es  halt  bei  Melisse,   Lavendel  und  Baldrian  für  die  psychische  Gesundheit.   

kurtimwald

Wie in allen Disziplin ist KI derzeit das Hilfsmittel, um Symptome, Systematiken und Strukturen einzugrenzen.

Und darauf beschränkt sich seriöse KI wie ChatGpt oder You. Die Eingrenzung hilft bei Selbsthilfe und bei Auswahl der möglichen Therapie durch Fachleute.

Und wie Presse, der Begriff gilt sogar für Boulevard wie BILD und andere Fakeverteiler, so ist der Begriff KI auch inflationär mittlerweilein jedem Blödelprogramm verankert. Und ChatGpt als Bekannter avorreiter wird als Inbegriff für alles was „So tut als ob“ missbraucht.

Buerger1001

Wieder ein Beispiel. Wir haben Alle ein Handy, nun fehlt uns zum weiteren Geldverdienen nur noch ein Programm. Hat jemand eine Idee? 7 Tage ohne Handy und es ging mir schon besser…

FraFraFrankenstein

Das Risiko wäre, dass zuerst die Ki-Bots die Arbeit der Psychologen übernehmen und vielleicht sogar gewisse Erfolge erziehlen. 

Dann werden die menschlichen Psychologen massenweise arbeitslos, da sie nicht für Gotteslohn arbeiten können. Sie orientieren sich dann auf andere Berufszweige um und sind so endgültig verloren. Die Menschen, die weiterhin Hilfe suchen, werden sich dann verstärkt dem Alkohol widmen, oder Heilern und Scharlatanen anvertrauen und sind dann schlechter gestellt, als vorher.  lose-lose

Buerger1001

40 Jahre Versuch durch EDV, IV, IT, WWW das Papierlose Büro zu etablieren. Nun Psychosen durch KI noch und wir sind glücklich.

silgrueblerxyz

Künstliche Intelligenz kann bei psychischen Problemen unterstützen

Ich interpretiere das so, weil die KI auf die Äußerungen einer Person und online auf die Mimik einer Person reagieren kann, wenn sie top entwickelt ist. Es ist wahrscheinlich, dass der Reifegrad des Algorithmus zur Bewältigung psychischer Probleme heute noch nicht ausreichend ist, um Behandlungserfolge zu erzielen. Aber ich halte es heute schon für möglich, dass eine KI frühzeitig Warnzeichen bei dem Patienten entdecken kann, die einen früheren Behandlungstermin bei einem Therapeuthen zwingend erscheinen läßt.

Aber man könnte KI auch anders einsetzen, nämlich dabei zu untersuchen, warum die psychischen Erkrankungen zunehmen und welche gesellschaftliche Maßnahmen ergriffen werden können, dass die Ausbildung von psychischen Erkrankungen gar nicht mehr so häufig zustande kommt.

1 Antwort einblenden 1 Antwort ausblenden
Anderes1961

Das haben Sie völlig richtig interpretiert. Bei kognitiver Empathie geht es darum, Signale zu erkennen und zu interpretieren, die ein Mensch bewußt oder unbewußt aussendet. In gewissen Grenzen funktioniert das eben auch mit KI. 

Ich habe die Disposition als high sensitive person. Das heißt, mir fehlen "Filter im Kopf", die jeden Menschen normalerweise vor zuviel Empathie und einer emotionalen Überforderung schützen. Diese Filter muß ich mir mühsam  durch Therapie wieder aufbauen. Weil mir die Filter fehlen,  bin ich besonders gut darin, die Stimmungslage anderer Menschen einzuschätzen. Das funktioniert auch, wenn einige Signale fehlen, das heißt, zum Beispiel beim Schreiben, wenn ich mein Gegenüber nicht sehe. Und im Prinzip funktioniert die KI auch so. Der KI muß man beibringen wie man Signale interpretiert. 

redfan96

Ich fand das Experiment des Users saschamaus75 sehr interessant und die Antwort vom Chatbot war sehr einleuchtend, unterstützend ja, aber nicht als alleiniges Kommunikationsmittel mit Patienten.

E i n e n Vorteil hätte allerdings der Chatbot auf jeden Fall; Es würde keinen sexuellen Missbrauch seitens des Therapeuten/der Therapeutin seiner/ihrer Patienten geben. Oder seelischen Missbrauch anderer Art. 

redfan96

Und, um an meinen ersten Beitrag anzuknüpfen, vllt. Kann der Chatbot in seiner unterstützenden Rolle auch viel früher erkennen, wenn bei der Therapie irgendetwas aus dem Ruder läuft und Alarm schlagen. Denn eine schlechte Therapie, begleitet von Grenzüberschreitungen und  psychischen und/oder physischen Missbrauch ist das Schlimmste, was dem Patienten passieren kann und ein schnellstmöglicher Abbruch dringend geboten.

NieWiederAfd

Der Aufbau einer vertrauensvollen Beziehung von Mensch zu Mensch ist die unverzichtbare Basis für jede Form der Psychotherapie, ganz unabhängig von der fachspezifischen Ausrichtung. Das kann KI nicht leisten. Psychotherapie setzt nicht allein und eigentlich auch nicht primär auf kognitive Intelligenz; Emotionen, Lebensgeschichte, Persönlichkeitszüge, Lebenswelt, Reaktionsmuster etc. gehen weit darüber hinaus. 

Ich mag mir gar nicht vorstellen, was geschieht, wenn jemandem mit einer Angststörung, Depression, ADHS, schizophrenen oder psychotischen Episoden einem "KI-Roboter-Therapeuten" gegenüber säße.

1 Antwort einblenden 1 Antwort ausblenden
artist22

"Der Aufbau einer vertrauensvollen Beziehung von Mensch zu Mensch ist die unverzichtbare Basis für jede Form der Psychotherapie,"

So sehe ich das auch, da die modernen KI-Maschinen noch weit weg von 'uns' sind.

Dazu https://www.deutschlandfunkkultur.de/mensch-maschine-ki-100.html

Jedoch ist unterstützendes Wirken ggf. hilfreich. Bei der Anamnese naturgemäss weniger, mehr z.B: bei der Medikation (welcher Mensch kann so schnell ganze Nebenwirkungszweige überblicken)
 

Moderation

Vorübergehende Schließung der Kommentarfunktion

Liebe Nutzerinnen und liebe Nutzer,

die Kommentarfunktion für diese Meldung wird vorübergehend geschlossen.

Bitte haben Sie einen Moment Geduld, es geht bald weiter.

Mit freundlichen Grüßen

Die Moderation

Wanderfalke

"ChatGPT basiert auf einer Sprach-KI, die darauf trainiert wurde, sprachliche Muster zu erkennen und entsprechend zu reagieren. Eine unüberlegte oder fachlich falsche Antwort kann gerade im Kontext psychischer Gesundheit fatale Folgen haben."

Dies macht den gravierenden Unterschied zwischen KI / ChatGPT und einem Fach-Therapeuten, Arzt oder einem Psychoanalytiker aus: Die Gesprächssteuerung, mit dem Ziel eine Diagnose zu ermitteln und daraus den erforderlichen Behandlungsplan zu entwickeln, steht einer künstlichen Technik gegenüber die lediglich auf Sprachfindungselemente trainiert ist, ohne die fachlich erforderliche Komplexität vorhalten zu können. Das heißt, für die eigentliche Zielbestimmung werden die Inhalte einer rein technischen Therapie eine hohe Fehlerquote aufweisen. 

Wie erwähnt, bekäme man auf diese Weise schneller einen Termin und das Ganze ist kostengünstiger. Ideal für die 2-Klassen-Medizin: Die Privaten kommen zum Therapeuten, der Rest wird mit ChatGPT abgespeist.

Moderation

Die Kommentarfunktion wird bald geschlossen

Liebe User,

wir werden die Kommentarfunktion um 12:15 Uhr schließen.

Bitte schreiben Sie Ihre Kommentare noch zu Ende, bevor ein neues Thema eröffnet wird.

Mit freundlichen Grüßen

Die Moderation

DeHahn

Entscheidend ist doch, dass Menschen mit Problemen diese äußern können und Anregungen zum Nachdenken/Uminterpretieren bzw. für Verhaltensänderungen erhalten. Das kann eine Kartenlegerin sein, ein Chatportal, ein Psychologe, eine Person mit dem gleichen Problem, die man zufällig trifft, warum nicht KI? Wichtig ist, dass sich die Erstarrung bzw. der Stillstand auflöst.