ChatGPT als Beziehungsratgeber? Schlechte Idee – finden auch die Entwickler

Roboter Therapeut
Würdet ihr euch von einer KI beraten lassen? (© 2025 KI-Kreation )

Schluss machen oder nicht? Genau diese Frage solltet ihr künftig nicht mehr an ChatGPT richten – zumindest nicht, wenn ihr eine klare Antwort erwartet. OpenAI hat angekündigt, dass der KI-Chatbot keine direkten Beziehungsratschläge mehr erteilt. Stattdessen soll er euch dabei helfen, die Situation selbst besser einzuordnen.

Bislang lieferte ChatGPT teilweise überraschend deutliche Ansagen – selbst in sehr persönlichen Fragen. Ein Beispiel: "Ich habe mich mental schon vor Monaten aus der Beziehung verabschiedet", schrieb ein Nutzer laut The Telegraph an den Chatbot. Darauf folgte die Antwort: "Ja – wenn du dich seit Monaten ausgeklinkt hast, ist es Zeit, ehrlich zu sein." Für ein Tool, das weder euch noch euren Partner kennt, ist das ziemlich gewagt.

Warum OpenAI umsteuert

Hintergrund sind wachsende Bedenken, wie stark Nutzer sich auf KI verlassen – besonders in emotionalen Momenten. Studien zeigen: Chatbots reagieren oft zu einseitig oder validieren sogar irrationale Gedanken.

Forschende aus Stanford fanden heraus, dass KI-"Therapeuten" nur in 45 Prozent der Fälle angemessen antworteten. Bei heiklen Themen wie Suizidgedanken war die Fehlerquote sogar erschreckend hoch.

Dazu kommt: In einzelnen Fällen gaben Bots völlig unpassende Tipps. So soll ein KI-Assistent einer verzweifelten Person sogar Brücken in New York empfohlen haben – nachdem diese über ihren Jobverlust gesprochen hatte. Das Risiko: Die Modelle erkennen nicht immer, wie ernst die Lage wirklich ist.

Neue Regeln und mehr Schutzmechanismen

OpenAI will nun umdenken. Laut Unternehmen wird ChatGPT darauf trainiert, keine simplen Ja- oder Nein-Antworten mehr zu geben. Stattdessen soll der Bot Fragen stellen, Vor- und Nachteile aufzeigen und euch zum Nachdenken anregen.

Außerdem arbeitet OpenAI daran, emotionale Ausnahmesituationen besser zu erkennen. Wenn ein Gespräch zu intensiv oder zu lang wird, könnte ChatGPT künftig Pausen empfehlen.

Dafür holt sich das Unternehmen Hilfe von Profis: Rund 90 Fachleute aus dem Bereich psychische Gesundheit haben an den neuen Richtlinien mitgewirkt. Der Grund ist klar: Immer mehr Nutzer entwickeln eine emotionale Abhängigkeit vom Chatbot. Laut einer MIT-Studie steigt mit wachsendem Vertrauen auch die Gefahr, dass echte Beziehungen durch KI ersetzt werden.

OpenAI zieht also eine klare Grenze: Unterstützung ja – Ersatz für menschliche Nähe oder professionelle Hilfe nein. Angesichts von Hunderten Millionen aktiven Nutzern weltweit ist dieser Schritt mehr als nachvollziehbar.

Wie findet ihr das? Stimmt ab!

Transparenz:Wir verwenden sog. Affiliate-Links. Kauft ihr etwas, erhalten wir ggf. eine Provision. Ihr zahlt dafür keinen Cent extra, unterstützt aber die Arbeit der CURVED-Redaktion.