Menschen vertrauen ChatGPT intimste Informationen an. Der Hersteller scannt die Chats, lässt sie von Moderator*innen lesen und gibt sie in bestimmten Fällen sogar an die Polizei weiter. Das hat das KI-Unternehmen Open AI als Sicherheitsmaßnahme nach einem Suizid eines Nutzers verkündet.
Na, wenn man 2 Jahre auf einen Therapieplatz warten muss, vertraut man eben einem neutral wirkenden Gesprächspartner seine Probleme an. Wie hier eben mit Chatbots.
Und sich in Pychotherapie zu begeben ist in der Tat leider immer noch ziemlich stigmatisiert. Siehe z.B. Suizidrate bei Männern vs. Frauen. Oder kulturell bedingt, weil es je nachdem einfach verpönt wird etc…
Chatbots sind einfach und unkompliziert zugänglich, “privat” ggü. Angehörigen. Das ist durchaus naheliegend.