• Zacryon@feddit.org
    link
    fedilink
    Deutsch
    arrow-up
    12
    ·
    edit-2
    16 days ago

    Tatsächlich vertrauen Nutzerinnen dem Chatbot intimste Details an – vermutlich ohne zu ahnen, dass Menschen diese Unterhaltungen einsehen können. „ChatGPT kennt alle meine Schwächen, Sorgen und Geheimnisse“, bekennt eine Autorin des Guardian. Das Sprachmodell wird zunehmend von Menschen wie eine befreundete Person behandelt oder für Dating-Tipps benutzt. Der Hersteller versuchte in der Vergangenheit bereits zu verhindern, dass ChatGPT als Freundin oder Therapeut*in benutzt wird.

    Man könnte ja mal, … ich weiß nicht … versuchen Psychotherapie zu entstigmatisieren und allesamt rücksichtsvoller und lieber miteinander sein?

    Und Kapazitäten für Therapie ausbauen.

    • Legeres_Idol@feddit.org
      link
      fedilink
      arrow-up
      0
      arrow-down
      2
      ·
      16 days ago

      Auch wenn ich grundsätzlich dafür bin mehr Therapieplätze zu schaffen, so sehe ich jetzt nicht die gesellschaftliche Akzeptanz oder das Fehlen von Therapieplätzen als Grund. Von jemanden der beim Guardian Artikel verfassen darf, erwarte ich etwas mehr Hintergrundwissen. Auch zum Energieverbrauch und damit CO2 Produktion der Sprachmodelle, den aberwitzigen Geldsummen für Hardware und ganz zu schweigen von der offensichtlichen Limitation und den Risiken, wie auch hier im Artikel erwähnt, des Ganzen. Und dann vertraut man dem seine Schwächen, Sorgen und Geheimnisse an? Mir fehlt dafür das Verständnis, was ein erwachsener Mensch mit sehr wahrscheinlich abgeschlossenen Hochschulstudium dabei von LLMs erwarten kann. Mir ist der Sokratische Dialog ein Begriff, aber dafür muss ich nicht meine Daten in die Cloud, eine AI kippen.

      • Zacryon@feddit.org
        link
        fedilink
        Deutsch
        arrow-up
        3
        ·
        edit-2
        16 days ago

        Na, wenn man 2 Jahre auf einen Therapieplatz warten muss, vertraut man eben einem neutral wirkenden Gesprächspartner seine Probleme an. Wie hier eben mit Chatbots.

        Und sich in Pychotherapie zu begeben ist in der Tat leider immer noch ziemlich stigmatisiert. Siehe z.B. Suizidrate bei Männern vs. Frauen. Oder kulturell bedingt, weil es je nachdem einfach verpönt wird etc…

        Chatbots sind einfach und unkompliziert zugänglich, “privat” ggü. Angehörigen. Das ist durchaus naheliegend.