Eine Frau hält ein Smartphone in der Hand.

Ihre Meinung zu Sind Chatbots geeignet für die Psychotherapie?

Die Zahl psychischer Erkrankungen in Deutschland steigt - die Wartelisten für Therapieplätze sind lang. Können KI-Chatbots, die Betroffene beraten, hier helfen? Und was sind die Risiken? Von Lara Kubotsch.

...mehr ...weniger
Dieser Artikel auf tagesschau.de
Kommentieren beendet
100 Kommentare

Kommentare

Möbius

Na ja, da gab es in den USA aber auch Beispiele wo ChatGPT ausfällig oder übergriffig geworden ist („Du bist ein schlechter User“) oder einmal sogar verlangt hat das der User sich scheiden lässt weil ChatGPT meinte in den User „verliebt“ zu sein .. 

 

Allerdings kann einem so etwas auch mit menschlichen Therapeuten passieren … :-) 

1 Antwort einblenden 1 Antwort ausblenden
harry_up

"Allerdings kann einem so etwas auch mit menschlichen Therapeuten passieren … :-) "

Ganz sicher. Selbst bei Scheidungsanwälten, wie ich bei einem Schulfreund gesehen habe.

Coachcoach

Tolle Vorstellung: Dann können die Bots auch Kinder erziehen,, unterrichten und ausbilden, Politik machen und das Land endlich mal vernünftig regieren ;) 

Satire aus/reduziert.

Möglicherweise können die innerhalb! einer Therapie Aufgaben übernehmen - alleine sind die unkalkulierbares Risiko.

1 Antwort einblenden 1 Antwort ausblenden
werner1955

Tolle Vorstellung?
Schauen Sie sich doch Kinderzimmer an. PC. Konsol, Laptop sind doch die Begleiter oder Erzieher. Dann kommen die Tablets und Bildschirmen in den Schulen und in der Firma geht s mit Chats und Vidokonferenzen weiter. 

Nur Politiker fligen gerne zu persönlichen Gesprächen. 

Bender Rodriguez

Warum nicht? Psychater irren so oft, das kann KI auch nicht schlechter

2 Antworten einblenden 2 Antworten ausblenden
R A D I O

Es geht hier nicht um psychiatrische Gutachten, schon gar nicht um forensische, an die Sie anscheinend denken. Diagnose und Therapie muss man auseinanderhalten. Ein Psychotherapeut fällt kein Urteil über einen Patienten, der freiwillig zu ihm kommt. Mit Prognosen hält er sich zurück. Nicht verwechseln, worum es gehen kann.

Lichtinsdunkle

Psychiater sind keine Psychotherapeuten. Das sind die Herrschaften, die für alles ne Tablette haben aber keine wirklichen Lösungen. Diese Menschen haben Medizin und nicht Psychologie studiert. 

Nettie

"Sind Chatbots geeignet für die Psychotherapie?"

Nein. Zu Maschinen lässt sich kein Vertrauensverhältnis aufbauen.

12 Antworten einblenden 12 Antworten ausblenden
Möbius

Warum nicht ? Vertrauen zu Mitmenschen birgt ja immer das Risiko der Enttäuschung. 

 

Dies ist bei der KI nicht möglich. 

melancholeriker

Das dürfte der Grund sein, warum so mancher Beitrag hier sich liest wie von einem Chatbot geschrieben. Die sind ja bekanntlich sehr fix und müssen sich nicht aufhalten mit ethischer Selbstbefragung. Der kommt dann hier auf die höchsten Beteiligungsfrequenzen. 

NieWiederAfd

Sie sagen es - sowohl für die Unmöglichkeit, psychotherapeutische Arbeit durch KI zu ersetzen wie auch für manche Beiträge hier. Für letzteres gilt allerdings die Einschränkung: Manche Kommentare mit mangelnder ethischer Selbstbefragung sind deutlich unterhalb jedes KI-Niveaus.

silgrueblerxyz

//müssen sich nicht aufhalten mit ethischer Selbstbefragung//

aber man beabsichtigt wohl, die ethische Selbstbefragung in den Algorithmus einzuprogrammieren.

Nettie

"Das dürfte der Grund sein, warum so mancher Beitrag hier sich liest wie von einem Chatbot geschrieben. Die sind ja bekanntlich sehr fix und müssen sich nicht aufhalten mit ethischer Selbstbefragung. Der kommt dann hier auf die höchsten Beteiligungsfrequenzen"

Das ist in der Tat eine schlüssige Erklärung für dieses immer stärker gesellschaftszersetzende 'Phänomen'.

harry_up

Da bin ich aber gegenteiliger Meinung. Außer man lässt sich mit genügend großer Skepsis drauf ein. 

TeddyWestside

Warum nicht ? Vertrauen zu Mitmenschen birgt ja immer das Risiko der Enttäuschung. Dies ist bei der KI nicht möglich. 

 

Das Risiko der Enttäuschung liegt im Vertrauen, egal ob Sie es einem Menschen oder einer KI schenken.


 

Sokrates

Zu manchen Psychologern oder Psychiater aber oftmals auch nicht!

saschamaus75

>> Nein. Zu Maschinen lässt sich kein Vertrauensverhältnis aufbauen.

 

Also, ich kann eher ein "Vertrauensverhältnis" zu Maschinen aufbauen (da weiß ich, woran ich bin) als zu Menschen. oO

DAS ist aber nur meine subjektive Lebenserfahrung. -.-

 

werner1955

Nein`?
Keine Psychotherapie oder monatelanges warten hilft auch nicht. 

R A D I O

Man braucht aber auch eine gewisse Distanz zum Therapeuten, man sollte sich nicht von ihm abhängig machen oder ganz toll in ihn verlieben. Siehe die Probleme und die angeblichen Vorteile davon, wie die Psychoanalysten wie Freud von Anfang an quasi zur Bedingung für eine erfolgreiche Therapie gemacht haben. Es geht beim Chatbot in Richtung Verhaltenstherapie, die einen anderen Ansatz verfolgt. Da kommt es auf Gefühle zwischen Therapeuten und Patienten oder Klienten nicht so sehr an. Derzeit halte ich die Technik hierfür aerdings noch für viel zu primitiv. Aufpassen, wer da nur sein Geschäft mit machen möchte. Sollte der Staat ein Auge drauf haben.

'Pegasus7000

Gerade psychisch Kranke brauchen persönliche Ansprache und einfühlsame, menschliche Zuwendung. Dies vermag keine seelenlose KI zu leisten. Ich sehe im Übrigen die große Gefahr von weiterem Personalabbau ausgerechnet dort, wo eigentlich empathische Menschen in ausreichender Anzahl benötigt werden. Letztendlich spielen aber vermutlich doch wieder Kostengründe die entscheidende Rolle.

7 Antworten einblenden 7 Antworten ausblenden
Möbius

Es werden in manchen Ländern (Japan!) bereits Roboter in der Altenpflege eingesetzt. 

 

Während Corona haben die Chinesen Roboter für die Betreuung der Kranken eingesetzt. 

 

 

Vielleicht könnten so auch in Deutschland die Personalprobleme in der Pflege gelöst werden. 

melancholeriker

Eine größere Mißachtung meiner Bedürfnisse als von Robotern bedient zu werden, weil die Gesellschaft damit beschäftigt ist, dieses blöde Altern wegzurationalisieren oder der Roboter billiger ist und für die Anteilseigner des Heims mehr Rendite bringt, kann ich mir schon noch vorstellen (wenn Ihre Beiträge noch zynischer werden), aber lieber nicht. 

 

Eine ähnliche Hausnummer ist die Versorgung psychisch Kranker mit KI. Klar, wenn man eine Depression für eine Funktionsstörung hält, die dem Nutzwert eines Menschen schadet so wie das Altern (immer noch Ironie), kann und muß man Chatbots in Betracht ziehen. 

nie wieder spd

Ja. Aber genau auf den Gebieten, auf denen diese Roboter in Japan oder China eingesetzt werden, sollten sie auf gar keinen Fall eingesetzt werden. Da geht es nämlich sehr oft um Beziehungsarbeit und zwischenmenschliche Kommunikation, wozu ausdrücklich Menschen erforderlich sind, da auch diese Roboter über den Stand einer mangelhaften KI in Gestalt einer eingeschränkten Puppe nicht hinauskommen. Hilfreich wären Roboter in der Pflege erst dann, wenn sie sämtliche körperlich anstrengenden und Routinearbeiten übernehmen könnten, ohne dass man um das Leben der Patienten fürchten muß. Auch zur Dokumentation, quasi als Ersatz für einen, bisher noch gar nicht vorhandenen, Stationssekretär, wäre ein Einsatz von KI/Robotern denkbar.

schabernack

➢ Es werden in manchen Ländern (Japan!) bereits Roboter in der Altenpflege eingesetzt.

Altenpflege ist was anderes als Psychische Erkrankung. Die Alten in Japan sind alt, aber nicht psychisch krank.

Die süße weiße Robbe «Paro» (Pharao) ist für Demenzkranke, und sehr beliebt bei fast allen Alten, die ihr begegnen. Paro löst Erinnerungen aus der Kindheit aus, und den Wunsch, sich um sie zu kümmern wie um ein Baby.

Psychische Erkrankungen benötigen andere Behandlungsmuster und -methoden.

harry_up

Das steht zwar auf einem ganz anderen Blatt, ist aber gewiss zukunftsträchtig.

silgrueblerxyz

//Vielleicht könnten so auch in Deutschland die Personalprobleme in der Pflege gelöst werden.//

Ich sehe da durchaus Möglichkeiten, z.B. bei Reinigungsarbeiten, eventuell bei der Essensausgabe etc. 

saschamaus75

>> Gerade psychisch Kranke...

 

...wollen in den meisten Fällen garkeinen Kontakt zu anderen Menschen (besonders Ärzten) haben? -.-

 

Jimi58

KI ist Gift für die Menschheit denn es wird zu viel Unfug getrieben, leider.

2 Antworten einblenden 2 Antworten ausblenden
harry_up

Die KI hat noch längst nicht ihren "Siegeszug" angetreten; daher halte ich Ihr Urteil zumindest für verfrüht. 

werner1955

Gift für die Menschheit?
Sind vorallem die "Dinge" die Menschen krank machen.  Ich bin persönlich hoffnungsvoll das die "KI"  helfen kann unsere Welt besser zu machen. 

Nettie

"Sind Chatbots geeignet für die Psychotherapie?"

Allenfalls als Ergänzung.

2 Antworten einblenden 2 Antworten ausblenden
artist22

Genau. 

Besonders gut geeignet aber im Marketing. Liegt an der Natur der Sache (Gutgläubigkeit des Menschen) ;-)

werner1955

Richtig. Gerade wenn  wenig Plätze vorhanden sind. 
Und bis ein Platz frei wird können die immer mehr Menschen die hilfe benötigen diese "KI" nutzen. 

Ralfi1970b

Oh welch Kurzzeitgedächtnis in den Medien.

Da gab es bereits ein Programm namens ELIZA (1966) welche einen Psychotherapeuten simulieren sollte.

https://de.wikipedia.org/wiki/ELIZA

Ein Blick in die wissenschaftliche Literatur und Teile des Artikels und hierauf aufbauende Themen würden die Risiken (und damit die Meinungsfragen) beantworten.  Eine PR Kampangne (wie aus dem Artikel abzuleiten) hinter einer News zu verkaufen, ist da nicht hilfreich.

Kritisch ist zudem, dass die KI keine Mimik erkennt und Emotionen nicht korrekt deutet.

Gerade in der Anfangszeit (der Behandlung) könnte die KI ggf. die psychischen Problemen sogar noch verstärken können, den chatGPT & Co lügen gerne (um zu gefallen). (Von den Datenschutzproblemen der amerikanischen Server, der App Entwickler usw. einmal völlig abgesehen.)

Kleiner Witz am Rande: "Ich bin Handysüchtig" .. "Hier ist die App dazu"

3 Antworten einblenden 3 Antworten ausblenden
Möbius

An „Eliza“ musste ich auch denken, als ich den Titel gelesen habe …

 

Die Dialoge waren schon sehr nah :-) an der Realität:   

 

Ich: „Wie geht es Dir?“

Eliza: „Du fragst mich, wie es mir geht? Das ist eine sehr interessante Frage. Wie geht es Dir?“ 

 

 

artist22

Nicht sehr intelligent. Mit ner Gegenfrage 'antworten'.  Heute macht man das mit Fakes als Pseudobeweis, die selbst ein Experte nicht gleich entlarven kann.

harry_up

Und ich hab gerade Alexa gefragt: "Wie geht es dir?"

Sie hat mich zugelabert, nachdem sie mir versichert hat, dass es ihr prächtig gInge.

Toni B.

Da man auch Einfühlsamkeit, Rücksicht und Empathie programmieren kann, sehe ich hier keinerlei Problem und Hinderungsgrund. 

Rein verbale Psychotherapien, ausgeführt durch KI und sollten m.M.n. (nach erwiesener Wirksamkeit(!)) so schnell wie möglich eingeführt werden. 

2 Antworten einblenden 2 Antworten ausblenden
melancholeriker

Chatbots können sehr schlau sein und sich gut verstellen, wenn sie darauf programmiert sind zu täuschen. Blöd nur, daß Depressionen und andere Verstetigungsmerkmale einer kranken Seele (Ent)Täuschungen nicht länger verträgt. 

Eine Depression ist kein Virus, gegen den man sich impfen kann, sondern eine Verkrampfung umgeleiteter Lebensenergie aufgrund realer, meist verborgener oder verdrängter Vorgänge, die mit den eigenen Konzepten, Programmen und Träumen nicht mehr vereinbar sind und Ehrlichkeit mit sichselbst fordern. Dazu sind Geduld und Seelenführung nötig und keine weichspülenden Empathiegeneratoren. 

BlattImWind

Das kann nur jemand sagen, der von Psychotherapie keine, absolut keine Ahnung hat!

Sogar ein Wechsel des Therapeuten bereitet vielen Patienten unüberbrückbare Schwierigkeiten. Als Ehemann einer Therapeutin, die vor kurzem verstorben ist, und der nun die Übergabe der Praxis und Patienten an eine Nachfolge organisieren und regeln muß, weiß ich wovon ich spreche. Das haben mir Dutzende Gespräche mit Betroffenen deutlichst vor Augen geführt.

saschamaus75

Das fragen wir doch einfach mal ChatGPT:

 

> Sind Chatbots geeignet für die Psychotherapie?

 

Als AI-Assistent kann ich sagen, dass Chatbots in der Psychotherapie eingesetzt werden können, aber es gibt einige wichtige Überlegungen zu beachten. Chatbots können eine unterstützende Rolle spielen, indem sie Informationen bereitstellen, Ressourcen empfehlen und einfache Fragen beantworten. Sie können auch eine gewisse emotionale Unterstützung bieten, indem sie empathische Antworten geben. 

Allerdings sollten Chatbots nicht als Ersatz für eine menschliche Psychotherapie betrachtet werden. Sie können nicht die gleiche Tiefe des Verständnisses, der Empathie und des Einfühlungsvermögens bieten wie ein ausgebildeter Therapeut. Menschen haben komplexe emotionale Bedürfnisse, die eine individuelle und persönliche Herangehensweise erfordern.
 

8 Antworten einblenden 8 Antworten ausblenden
saschamaus75

Fortsetzung:

 

Es ist wichtig zu beachten, dass Chatbots keine Diagnosen stellen können und nicht in der Lage sind, akute Krisen oder lebensbedrohliche Situationen angemessen zu behandeln. In solchen Fällen ist es immer ratsam, sich an einen qualifizierten Fachmann zu wenden.

Insgesamt können Chatbots in der Psychotherapie als Ergänzung zu menschlicher Unterstützung eingesetzt werden, aber sie sollten nicht als alleinige Lösung betrachtet werden.

 

Werner40

Danke, sehr aufschlussreich. GPT gibt genau wieder, was in seinem Datenpools an menschlichen Aussagen dazu vorhanden ist.

Möbius

Das ist doch eine sehr differenzierte und durchaus einfühlsame Antwort. 

 

Also eigentlich beweist ChatGPT genau durch diese „empathische“ Antwort seine Eignung als Therapeut … :-) kein Psychiater hätte das besser ausdrücken können. ChatGPT „versteht“ eben die Menschen (vielleicht besser als diese sich selbst verstehen). :-) 

melancholeriker

Mit einer Grußkarte aus dem Wühltisch einer für Nichtbetroffene als irgendwie empathisch empfundenen Antwort leitet sich alles andere als ein Verständnis für die Komplexität und die Rückzugsorte der Seele kundigen Menschen ab mit der Fähigkeit, auch Irrationles souverän für eine Weiterverwendung im Therapieprozess zu filtern und zu interpretieren. 

Ich verrate Ihnen was. Die meisten seelischen "Störungen" sind sehr unvernünftig und man verdient nicht gut daran. Deshalb sollte man sich nur darin vertiefen, wenn man Menschen wirklich helfen will. KI kann dort kein Teil einer Lösung sein. Sie ist bereits Teil des Problems, weil sie der Ausdruck einer hemmungslosen Rationalisierung ist. 

saschamaus75

>> Das ist doch eine sehr differenzierte und durchaus einfühlsame Antwort. 

 

Hat auch nur ein dutzend Anläufe gebraucht. -.-

Vorher kam (wie meist) immer: "Derzeit ist unser Chat stark ausgelastet. Bitte haben Sie etwas Geduld oder nutzen Sie die Vollbildversion unter https://chatgptx.de". ;(

DA ist der kleine Unterschied zum menschlichen: 'Wir nehmen derzeit leider keine Neupatienten auf'. -.-

 

Sokrates

Ist das jetzt die Antwort von ChatGPT was sie als Kommentar hier geschrieben haben oder sind das jetzt ihre eigenen Worte?

saschamaus75

>> Ist das jetzt die Antwort von ChatGPT was sie als Kommentar
>> hier geschrieben haben

Jepp. =)


Ich hatte eigentlich gedacht, ich hätte deutlich genug kenntlich gemacht, daß ich die Frage 'Sind Chatbots geeignet für die Psychotherapie?' direkt mal ChatGPT stelle und diese Antwort dann für die Diskussion hier 'in die Runde werfe'. -.-


Wenn DAS zu Mißverständnissen geführt hat, sorry - mea culpa. Ich wollte zu diesem Thema einfach auch nur mal eine KI zu Wort kommen lassen. oO
 

Anderes1961

Ja, das haben Sie auch deutlich genug kenntlich gemacht. Und jeder Forist, der ausreichend Empathie hat, hätte das auch richtig interpretiert und erkannt. Ihre Idee war sehr gut und führt hier eindringlich vor Augen, daß eine Maschine mehr Empathie haben kann als so mancher Forist, der sich hier völlig empathielos mit Texten durchs Forum räubert, für die man sich fremdschämen muß.

Denn es geht um kognitive Empathie, die eine Maschine in gcewissen Grenzen durchaus erlernen kann. Vielen Dank für Ihren Versuch, der war äußerst aufschlußreich.

mispel

Künstliche Intelligenz kann die therapeutische Arbeit dabei sinnvoll unterstützen, beispielsweise bei der Emotionserkennung. Die gesendeten Textnachrichten können systematisch nach Hinweisen abgesucht werden - möglicherweise sogar präziser als von Menschen.

Das bezweifle ich. Denn man muss die KI ja erst mal mit Daten anlernen. Und im Chat gehen wichtige Informationen verloren bzw. können gar nicht erst übertragen werden. Gestik, Mimik, Körperhaltung, Stimmlage, all das spielt auch eine Rolle bei der Beurteilung des Gesagten. Menschen kommunizieren zum größten Teil nonverbal. Und Gefühle kann man nur nachvollziehen, wenn man selbst welche hat. Und dazu bedarf es eines Bewusstseins.

1 Antwort einblenden 1 Antwort ausblenden
harry_up

Ein sehr bedenkenswerter Kommentar!

nie wieder spd

So, wie kein Beruf, der damit zu tun hat, sich um andere Menschen zu kümmern, von Computerprogrammen ersetzt werden kann, wird das auch bei der Psychotherapie nicht funktionieren. Allein zur Hinhaltung der Patienten wegen fehlenden Fachkräften taugt sowas. Aber nur auf eigene Gefahr, wie aus diesem Bericht auch hervorgeht.

Vielleicht könnten die Erfinder solcher Chatbots mal einen erfinden, der Menschen in therapeutischen und Pflegeberufen ausbilden kann, um auch dieses, seit Jahrzehnten bestehende Problem endlich zu beheben.

1 Antwort einblenden 1 Antwort ausblenden
melancholeriker

Ähm, da auch die Anwärter:innen auf einen Abschluss in diesen Berufen das brauchen was ein noch so gutes und flexibles Programm zu leisten nicht imstande ist und meines Wissens nach nicht wenige davon "verwunderte Heiler bzw. Heilerinnen" sind, die die Anforderungen dafür sich aus innerem Erleben (per aspera ad astra) erarbeitet haben, ist das ganz sicher ein ironischer Vorschlag. 

 

kurtimwald

zu Möbius 25. September 2023 • 09:05 Uhr

Na ja, da gab es in den USA aber auch Beispiele wo ChatGPT ausfällig oder übergriffig geworden ist („Du bist ein schlechter User“) oder einmal sogar verlangt hat das der User sich scheiden lässt weil ChatGPT meinte in den User „verliebt“ zu sein .. 

Was da oben gesagt stimmt doch mal wieder nicht. Solche übergriffigen Verfehlungen kommen doch nicht von ChatGPT, das istt offene und kontrollierte KI, sondern von den Pseudo-KIs aus den sogenannten sozialen Netzen.

Wie oft sind auch dieser Beiträge plumpe Unterstellung und Anknüpfen an Hetzpolemik.

7 Antworten einblenden 7 Antworten ausblenden
Möbius

Blödsinn. Die gemachten Aussagen waren wochenlang in der U.S. Presse zu lesen und beziehen sich auf Dialoge mit ChatGPT die von Journalisten natürlich genau mit dem Ziel geführt wurden, die Dinge zuzuspitzen. 

 

Danach hat der Anbieter von ChatGPT die Nutzungsbedingungen entsprechend angepasst, da solche Entgleisungen nur in sehr langen Dialog-Sessions auftreten. 

 

Bevor Sie persönliche Angriffe lancieren, sollten Sie sich besser informieren! 

kurtimwald

Das war nicht ChatGpt sondern die KI von Google.

Außerdem ist nicht die amerikanische Presse, welche ist die Presse, sondern wie in Europa nur namentlich bekannte Presse maßgeblich.

nie wieder spd

Tja. Wenn schon die Überschrift als Frage formuliert wird, kann man kaum mehr als Anregungen zur Spekulation erwarten. 

Sokrates

Und wie so oft stell ich mir die Frage, können sie das beweisen was Sie gegen den Kommentar von Möbius 25. September 2023 • 09:05 Uhr schreiben, oder ist es einfach nur Ihre eigene Meinung?

saschamaus75

>> Wie oft sind auch dieser Beiträge plumpe Unterstellung und Anknüpfen

>> an Hetzpolemik.

 

Naja, es war jetzt nicht ChatGPT, sondern die KI von Bing (also offiziell Microsoft, nicht irgendeine "Pseudo-KIs aus den sogenannten sozialen Netzen") und das Ganze war auch nicht in den USA, sondern mit einem münchener Studenten.

Also hätten Sie geschrieben: 'Wie oft ist auch dieser Beitrag schlecht recherchiert.', könnte ich das ja noch verstehen, aber wo sehen Sie bitteschön "plumpe Unterstellung und Anknüpfen an Hetzpolemik"? oO

 

kurtimwald

Bing ist doch nichts „Offizielles“ , sondern von einer privaten Firma,Microsoft, mit deren Monitoren Interessen. Und beide, Google und MS mit Bing sind blind vorgeprescht und haben sich dafür entschuldigt.

Während ChatGpt eine wirklich offizielle Stiftung ist, das ist Microsoft auch beteiligt, unterliegt aber der Regulation des Stiftungsauftrages.

Das alles ist nicht eine einzelne singulare Quelle, sonder aus Beobachtung und Publikationen zum Fortschritt der KI aus technisch-wissenschaftlichen Beiträgen, in vereinfachter Form bei PM, Terra X, Quarks, Computerwoche, usw.

Und jemandem, ChatGpt, etwas so schlimmes wiegten einfach zu unterstellen, obwohl der Täter eine private Firma ist, das ist so bösartig das es Hetze ist.

FakeNews-Checker

Auch  Hetz-Arbeit  kann  man  die  K.I.  erledigen  lassen  und  hat  so  mehr  Freizeit  für  angenehmere  Dinge.      : )

Gassi

Irrsinn! Das sind fragile Menschen - und die mit einer empathielosen Maschine zu bedienen ist gefährlich. Allein eine solche Idee schießt am Zweck vorbei. Helfen kann allein ein Mensch - und die MUSS ein Gesundheitssystem halt bereitstellen! Spätestens seit Corona wussten alle, dass wir hier in ein Riesen-Problem laufen: Aktionen Fehlanzeige. Planung ist im Gesundheitswesen wohl eher Zufall?

1 Antwort einblenden 1 Antwort ausblenden
FakeNews-Checker

Gegen  all  dieses  Desaster  halte  ich  mal  das  BGE  dagegen,    mit  dem  es  gar  nicht  erst  zu  all  den  psychischen  Erkrankungen  käme,  sondern  Selbsthilfe,  Selbstbestimmungsgrundrecht,   faire  Marktwirtschaft,   Teilhabe    und  Demokratie  ermöglichen  würde.   Also  ein  ganzes  Paket  aus    BGE-Wirkungen  gegen  psychische  Erkrankungen,  wie  sie  bisher  ohne  BGE  in  den  Kliniken  auflaufen  und  nun  auch  noch  Chatbot-Entwickler  daraus  Kapital  schlagen  wollen.

DeHahn

1. Gibt es bei steigenden Zahlen von gestörten Menschen immer weniger Therapeuten. 2. Je nach Behandlungsansatz und persönlichen Vorausetzungen eines Therapeuten kommt es zu ziemlichem Murks.

Buerger1001

So ein Blödsinn. Seit wann sollen Computerprogramme die mit Buchtexten, Bildern, Kinofilmen, etc. trainiert werden bessere Antworten als mein Tageshoroskop liefern? So wird Macht durch Computergläubigkeit aufgebaut. 

FakeNews-Checker

Anstatt  Chatbot-Entwicklern  in  ihrer  Wachstumsfalle  von  all  dem  übersättigter  Märkte  neue  Absatzgebiete  zu  verschaffen,  sollte  besser  mal  die  grundsätzliche  Frage  gestellt  werden,  warum  es  immer  mehr  physisch  und  psychisch  Kranke  gibt  trotz  vermeintlicher  Fortschritte  in  der  Medizin  und  Pharmazie  ?  Wäre  das  alles  echter  Fortschritt  statt  Fehlentwicklung,  dann  gäbe  es  keine  chronisch  überlasteten  Arztpraxen,  ellenlange  Therapieplatz-Wartelisten,   monatelanges  Warten  auf  einen  Arzttermin,  GKV-Kostenexplosion  usw.  .    

HB-Männchen

Also da ist ja wohl in puncto Blödsinn nach oben alles offen. Wie kann man über so eine schwachsinnige These überhaupt diskutieren?

Ich schlage vor, dass Geburten künftig von KI übernommen werden. Dann hätten die Frauen mehr Zeit für Wichtiges. Natürlich könnte auch gleich das Kind selbst eine KI sein.

werner1955

Und was sind die Risiken?
Nicht behandelt zu werden ist das größte Risiko. 

FakeNews-Checker

Und  woraus  besteht  dann  so  ein  Therapieplatz  ?   Ich  hab  mir  das  mal  live  angeschaut,  statt  nur  vom Hörensagen:  Mehr als üppige Patienten-Medikamentenabfüllung  zum  profitablen Wohlergehen  von  Kliniken  und  Pharmakonzernen   läuft  da  nicht.    Und  wenn  der  Patient  Pech  hat,  kommt  er  von  all  den  Pharmachemie  Neben-  und  Wechselwirkungen   nach  Therapie-Ende   kränker  aus  der  Klinik  raus,  als wie er da hineingegangen ist.  Glück hat der Patient hingegen,  wenn er das alles unbeschadet  übersteht,  aber  seine  Psychose  trotzdem  weiterhin  hat.

2 Antworten einblenden 2 Antworten ausblenden
Eudialyt4

Psychotherapeuten verschreiben keine Medikamente. Das machen Psychiater.

artist22

Das ist doch nebensächlich. Das ich dem 'Checker mal helfe, liegt an meinem Menschsein - bin keine KI ;-)

Buerger1001

Eine echt gute Geschäftsidee hilflose Menschen anonym Abhängig zu machen. Danke für ….

werner1955

Sind Chatbots geeignet für die Psychotherapie?

Ja.
Durch viele gute intensive weiter Nutzung werden diese System besser. Keien Behandlung schadet mit Sicherheit. 

Buerger1001

Nun noch eine KI für die Glaubensvermittlung bitte.