• Zacryon@feddit.org
    link
    fedilink
    Deutsch
    arrow-up
    12
    ·
    edit-2
    17 days ago

    Tatsächlich vertrauen Nutzerinnen dem Chatbot intimste Details an – vermutlich ohne zu ahnen, dass Menschen diese Unterhaltungen einsehen können. „ChatGPT kennt alle meine Schwächen, Sorgen und Geheimnisse“, bekennt eine Autorin des Guardian. Das Sprachmodell wird zunehmend von Menschen wie eine befreundete Person behandelt oder für Dating-Tipps benutzt. Der Hersteller versuchte in der Vergangenheit bereits zu verhindern, dass ChatGPT als Freundin oder Therapeut*in benutzt wird.

    Man könnte ja mal, … ich weiß nicht … versuchen Psychotherapie zu entstigmatisieren und allesamt rücksichtsvoller und lieber miteinander sein?

    Und Kapazitäten für Therapie ausbauen.

    • Legeres_Idol@feddit.org
      link
      fedilink
      arrow-up
      0
      arrow-down
      2
      ·
      16 days ago

      Auch wenn ich grundsätzlich dafür bin mehr Therapieplätze zu schaffen, so sehe ich jetzt nicht die gesellschaftliche Akzeptanz oder das Fehlen von Therapieplätzen als Grund. Von jemanden der beim Guardian Artikel verfassen darf, erwarte ich etwas mehr Hintergrundwissen. Auch zum Energieverbrauch und damit CO2 Produktion der Sprachmodelle, den aberwitzigen Geldsummen für Hardware und ganz zu schweigen von der offensichtlichen Limitation und den Risiken, wie auch hier im Artikel erwähnt, des Ganzen. Und dann vertraut man dem seine Schwächen, Sorgen und Geheimnisse an? Mir fehlt dafür das Verständnis, was ein erwachsener Mensch mit sehr wahrscheinlich abgeschlossenen Hochschulstudium dabei von LLMs erwarten kann. Mir ist der Sokratische Dialog ein Begriff, aber dafür muss ich nicht meine Daten in die Cloud, eine AI kippen.

      • Zacryon@feddit.org
        link
        fedilink
        Deutsch
        arrow-up
        3
        ·
        edit-2
        16 days ago

        Na, wenn man 2 Jahre auf einen Therapieplatz warten muss, vertraut man eben einem neutral wirkenden Gesprächspartner seine Probleme an. Wie hier eben mit Chatbots.

        Und sich in Pychotherapie zu begeben ist in der Tat leider immer noch ziemlich stigmatisiert. Siehe z.B. Suizidrate bei Männern vs. Frauen. Oder kulturell bedingt, weil es je nachdem einfach verpönt wird etc…

        Chatbots sind einfach und unkompliziert zugänglich, “privat” ggü. Angehörigen. Das ist durchaus naheliegend.

  • RoflmasterBigPimp@feddit.org
    link
    fedilink
    Deutsch
    arrow-up
    5
    arrow-down
    1
    ·
    17 days ago

    Ha! Viel spaß mit dem Müll!

    Der letzte Chat bestand daraus das ich ChatGPT was über Programmierung gefragt habe und gleichzeitig die KI als meinen Vater betitelt habe, der seine Hände bei einem schlimmen Programmierunfall verloren hat. Die Infos waren gut, die Warnung vor möglichen Handverlust top!

  • Mîm@lemmy.zip
    link
    fedilink
    arrow-up
    3
    ·
    16 days ago

    Jetzt stellt sich natürlich die Frage, ob die auch proaktiv Daten an die Polizei weitergeben. Und falls ja, was ich dazu denn mit dem Ding schreiben müsste.

    • Legeres_Idol@feddit.org
      link
      fedilink
      arrow-up
      2
      ·
      16 days ago

      „Gleichzeitig hat das Unternehmen bekannt gegeben, dass es die Chats, die mit seinem Bot geführt werden, automatisch nach bestimmten Themen scannt. Manche Inhalte würden dann menschlichen Moderator*innen zur Prüfung vorgelegt.

      In Fällen, in denen die Moderator*innen Dritte in Gefahr sehen, könnten die Chats auch an die Polizei weitergegeben werden, schreibt OpenAI. In Fällen von Selbstgefährdung würde die Polizei allerdings außen vor gelassen, aus Respekt vor der Privatsphäre der Betroffenen. Grund sei die „einzigartig private Natur“ der Interaktionen mit ChatGPT.“

      Im Anriss, der oben zitiert wurde, wird die Frage beantwortet. Das wird im Artikel ein wenig ausgeführt. Was man dafür schreiben muss, steht hingegen nicht im Artikel.

      • Mîm@lemmy.zip
        link
        fedilink
        arrow-up
        2
        ·
        16 days ago

        Ah, das hat man davon, wenn man ein wenig vom Büro aus shitpostet.

        Wenn da echt vorher noch manuell drüber schaut, macht es das ganze ja doch etwas aufwändiger.

        Danke!

        • Legeres_Idol@feddit.org
          link
          fedilink
          arrow-up
          1
          ·
          16 days ago

          ein wenig vom Büro aus shitpostet

          Been there, done that. Und ja, ich weiß, Englisch und so. Aber Zangendeutsch kommt mir nicht in die Tastatur. Sue me.

          :)

  • OliebollenXXL@feddit.org
    link
    fedilink
    English
    arrow-up
    3
    arrow-down
    1
    ·
    17 days ago

    Wenn der Polizist liest was ich und ChatGPT schreiben, wird er wahrscheinlich selbst Depressiv! Jokes on you! 🤡

  • pantherina@feddit.org
    link
    fedilink
    arrow-up
    1
    ·
    16 days ago

    Ist es nicht crazy, dass Leute die keine Ahnung haben was DNS, TLS, LLM, Kernel oder Distribution bedeuten, “GPT” verwenden und auch keine Ahnung haben was das ist?