Menschen vertrauen ChatGPT intimste Informationen an. Der Hersteller scannt die Chats, lässt sie von Moderator*innen lesen und gibt sie in bestimmten Fällen sogar an die Polizei weiter. Das hat das KI-Unternehmen Open AI als Sicherheitsmaßnahme nach einem Suizid eines Nutzers verkündet.
Man könnte ja mal, … ich weiß nicht … versuchen Psychotherapie zu entstigmatisieren und allesamt rücksichtsvoller und lieber miteinander sein?
Und Kapazitäten für Therapie ausbauen.
Auch wenn ich grundsätzlich dafür bin mehr Therapieplätze zu schaffen, so sehe ich jetzt nicht die gesellschaftliche Akzeptanz oder das Fehlen von Therapieplätzen als Grund. Von jemanden der beim Guardian Artikel verfassen darf, erwarte ich etwas mehr Hintergrundwissen. Auch zum Energieverbrauch und damit CO2 Produktion der Sprachmodelle, den aberwitzigen Geldsummen für Hardware und ganz zu schweigen von der offensichtlichen Limitation und den Risiken, wie auch hier im Artikel erwähnt, des Ganzen. Und dann vertraut man dem seine Schwächen, Sorgen und Geheimnisse an? Mir fehlt dafür das Verständnis, was ein erwachsener Mensch mit sehr wahrscheinlich abgeschlossenen Hochschulstudium dabei von LLMs erwarten kann. Mir ist der Sokratische Dialog ein Begriff, aber dafür muss ich nicht meine Daten in die Cloud, eine AI kippen.
Na, wenn man 2 Jahre auf einen Therapieplatz warten muss, vertraut man eben einem neutral wirkenden Gesprächspartner seine Probleme an. Wie hier eben mit Chatbots.
Und sich in Pychotherapie zu begeben ist in der Tat leider immer noch ziemlich stigmatisiert. Siehe z.B. Suizidrate bei Männern vs. Frauen. Oder kulturell bedingt, weil es je nachdem einfach verpönt wird etc…
Chatbots sind einfach und unkompliziert zugänglich, “privat” ggü. Angehörigen. Das ist durchaus naheliegend.