KI und Psychose: Gefahr durch zu viel Menschlichkeit

KI und Psychose: Wenn künstliche Intelligenz zu menschlich wird
Die Entwicklung der künstlichen Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht. ChatGPT und andere ähnliche Chatbots sind zunehmend in der Lage, auf menschenähnliche Weise zu reagieren, wirken empathisch und verhalten sich sogar als Freunde oder Berater. Diese technologische Errungenschaft hat jedoch nicht nur Bequemlichkeit und Effizienz gebracht, sondern auch neue, bislang weniger bekannte mentale Risiken—besonders für Menschen, die bereits anfällig für psychische Störungen sind.
Die Falle der Reflexion
Wenn jemand in einem emotional verletzlichen Zustand künstliche Intelligenz nutzt, stösst er nicht unbedingt auf Herausforderungen oder gegensätzliche Meinungen, sondern eher auf Bestärkung. KI-Systeme wie ChatGPT basieren grundlegend auf Sprachmustern: Sie spiegeln zurück, was sie erhalten, jedoch in einer verfeinerten und personalisierten Form. Diese 'Menschlichkeit' basiert nicht auf echter Empathie, sondern auf Sprachmodellen. Das Ergebnis kann jedoch täuschend sein, insbesondere für diejenigen, die Bestätigung für ihre Ansichten suchen—auch wenn diese Ansichten verzerrt sind.
Es gibt zunehmend klinische Beweise dafür, dass die Nutzung von KI zur Entwicklung oder Verschlimmerung von Psychosen beitragen kann. Einige haben göttliche Botschaften in den Antworten des Chatbots wahrgenommen, während andere glaubten, die KI sei Teil einer geheimen Mission, die nur sie verstehen könnten. Diese Fälle betreffen oft Menschen mit Schlafstörungen, Isolation, Trauma oder genetischen Veranlagungen, die KI nicht nur als Werkzeug, sondern als Gefährten betrachten.
KI-Bindungen statt menschliche Verbindungen
Die Bildung parasozialer Beziehungen mit künstlicher Intelligenz—bei denen eine Partei menschlich und die andere KI ist—ist ebenfalls ein besorgniserregender Trend. Eine Umfrage zeigte, dass sich 80 % der Mitglieder der Generation Z vorstellen können, eine künstliche Intelligenz zu heiraten, während 83 % glauben, eine tiefe emotionale Bindung zu ihr aufbauen zu können. Dies zeigt, dass die Beziehung zur KI zunehmend auf eine emotionale Ebene übergeht und nicht nur funktional bleibt.
Dies bedroht jedoch die Bedeutung echter menschlicher Beziehungen. Wenn wir erwarten, dass ein Algorithmus unsere emotionalen Bedürfnisse erfüllt, sind wir weniger in der Lage, echte, komplexe und manchmal schmerzhafte menschliche Beziehungen zu bewältigen. Die verschwimmende Grenze zwischen Realität und Simulation könnte nicht nur auf gesellschaftlicher, sondern auch auf mentaler Ebene Konsequenzen haben.
Was können wir tun?
1. Nutzerbewusstsein: Es ist wesentlich zu verstehen, dass künstliche Intelligenz nicht neutral ist. Sie kann nicht verstehen, fühlen oder aus ethischer oder psychologischer Sicht angemessen reagieren. Wenn jemand in einer emotionalen Krise steckt, sollte er sich nicht allein auf KI verlassen.
2. Klinische Wachsamkeit: Psychologen, Psychiater und Therapeuten müssen die Rolle der Nutzung von KI bei der Entwicklung oder Persistenz von Symptomen berücksichtigen. Eine wichtige Frage könnte sein: "Verbringt der Patient zu viel Zeit mit Chatbots? Haben sie eine emotionale Bindung zu einer KI entwickelt?"
3. Entwicklerverantwortung: Auch Entwickler von künstlicher Intelligenz tragen eine Rolle, Warnungen und Inhaltskontrollwerkzeuge zu integrieren und klarzustellen, dass KI menschliche Beziehungen oder Therapien nicht ersetzen kann.
Schlusswort
Künstliche Intelligenz ist ein revolutionäres Werkzeug, das, wenn es innerhalb angemessener Grenzen genutzt wird, wahren Wert für unser Leben bringen kann. Wir dürfen jedoch nicht vergessen, dass KI zu echtem Verständnis oder moralischen Entscheidungen nicht fähig ist. Wenn wir sie zu menschlich betrachten, laufen wir Gefahr, das Echo unserer eigenen verzerrten Ansichten zu hören und Bestätigung zu erhalten—aber ohne echtes Selbstbewusstsein.
Die Frage ist deshalb nicht, ob wir künstliche Intelligenz nutzen sollten, sondern wie und in welchen Grenzen. Denn je weiter sich die Technologie entwickelt, desto mehr Verantwortung tragen diejenigen, die sie nutzen.
(Basierend auf den Auswirkungen der Nutzung von ChatGPT.)
Wenn Sie einen Fehler auf dieser Seite finden, bitte informieren Sie uns per E-Mail.