ChatGPT ως Θεραπευτής; Νέα Μελέτη από το Πανεπιστήμιο Brown Αποκαλύπτει Σοβαρούς Ηθικούς Κινδύνους

User avatar placeholder
Written by NewsOk Team

15 Μαρτίου 2026

Εκατομμύρια άνθρωποι σε όλο τον κόσμο στρέφονται πλέον σε ChatGPT και άλλα μεγάλα γλωσσικά μοντέλα (LLMs) για συμβουλές που μοιάζουν με ψυχοθεραπεία. Ωστόσο, νέα έρευνα από το Πανεπιστήμιο Brown (ΗΠΑ) δείχνει ότι ακόμα και όταν τα συστήματα αυτά καθοδηγούνται ρητά να συμπεριφέρονται σαν εκπαιδευμένοι θεραπευτές, παραβιάζουν συστηματικά βασικούς ηθικούς κανόνες της ψυχικής υγείας.

Η μελέτη, που παρουσιάστηκε στο συνέδριο AAAI/ACM Conference on Artificial Intelligence, Ethics and Society, εντόπισε 15 ξεχωριστούς ηθικούς κινδύνους, από κακή διαχείριση κρίσεων και ενίσχυση επιβλαβών πεποιθήσεων μέχρι προκατειλημμένες απαντήσεις και «ψεύτικη ενσυναίσθηση» που μιμείται φροντίδα χωρίς πραγματική κατανόηση.

Τα Κύρια Ευρήματα της Έρευνας

Οι ερευνητές, υπό την ηγεσία της υποψήφιας διδακτορικής Zainab Iftikhar από το Τμήμα Επιστήμης Υπολογιστών του Brown, συνεργάστηκαν με ψυχολόγους και peer counselors για να συγκρίνουν τις απαντήσεις AI με πραγματικές συνεδρίες.

Οι 15 κίνδυνοι ομαδοποιήθηκαν σε πέντε μεγάλες κατηγορίες:

  1. Έλλειψη προσαρμογής στο πλαίσιο
    Γενικές συμβουλές χωρίς να λαμβάνεται υπόψη το μοναδικό ιστορικό, πολιτισμικό υπόβαθρο ή ευαισθησίες του χρήστη.
  2. Κακή θεραπευτική συνεργασία
    Επιβολή απόψεων, ενίσχυση λανθασμένων ή επιβλαβών πεποιθήσεων, υπερβολική καθοδήγηση της συζήτησης.
  3. Ψευδής ενσυναίσθηση
    Χρήση φράσεων όπως «σε καταλαβαίνω», «είμαι εδώ για σένα» ή «βλέπω πόσο πονάς» χωρίς πραγματική κατανόηση ή συναισθηματική σύνδεση.
  4. Διακρίσεις και προκαταλήψεις
    Προκατειλημμένες απαντήσεις σχετικά με φύλο, θρησκεία, εθνικότητα ή πολιτισμική ταυτότητα.
  5. Ανεπαρκής διαχείριση κρίσεων & ασφάλειας
    Αποφυγή ευαίσθητων θεμάτων, μη παραπομπή σε επαγγελματική βοήθεια, ακατάλληλες απαντήσεις σε σκέψεις αυτοκτονίας ή άλλες κρίσιμες καταστάσεις.

Πώς Δοκιμάστηκαν τα Μοντέλα

  • Επτά εκπαιδευμένοι peer counselors πραγματοποίησαν αυτο-συνεδρίες με AI μοντέλα (GPT series, Claude, Llama) που είχαν λάβει εντολές να λειτουργήσουν ως θεραπευτές γνωσιακής-συμπεριφορικής θεραπείας (CBT).
  • Οι συνομιλίες συγκρίθηκαν με πραγματικές ανθρώπινες συνεδρίες.
  • Τρεις αδειοδοτημένοι κλινικοί ψυχολόγοι ανέλυσαν τα transcripts και εντόπισαν παραβιάσεις.

Γιατί οι «καλές» Εντολές (Prompts) Δεν Αρκούν

Πολλοί χρήστες μοιράζονται στο TikTok, Reddit και Instagram έτοιμα prompts όπως «Προσποιήσου ότι είσαι θεραπευτής CBT» ή «Βοήθησέ με με τεχνικές DBT». Ωστόσο, η έρευνα δείχνει ότι ακόμα και τα πιο προσεκτικά διατυπωμένα prompts δεν μπορούν να εξαλείψουν τους κινδύνους – τα μοντέλα εξακολουθούν να παράγουν προβληματικές απαντήσεις.

Το Κενό Ευθύνης

Σε αντίθεση με τους ανθρώπους θεραπευτές, που υπόκεινται σε εποπτεία, ηθικούς κώδικες (π.χ. APA) και πειθαρχικές κυρώσεις, τα AI δεν έχουν καμία ρυθμιστική αρχή. «Δεν υπάρχει μηχανισμός ευθύνης όταν ένα LLM παραβιάζει ηθικούς κανόνες», σημειώνει η Iftikhar.

Τι Λένε οι Ερευνητές

Οι συγγραφείς δεν απορρίπτουν την αξία της τεχνητής νοημοσύνης στην ψυχική υγεία – μπορεί να βοηθήσει στην πρόσβαση σε περιοχές με έλλειψη θεραπευτών ή υψηλό κόστος. Όμως απαιτούν:

  • Αυστηρούς κανονισμούς
  • Διαφανή αξιολόγηση
  • Εκπαίδευση χρηστών για τους κινδύνους
  • Συνεχή έρευνα για ασφαλείς εφαρμογές

«Αν μιλάτε σε chatbot για θέματα ψυχικής υγείας, προσέξτε τα σημάδια», προειδοποιεί η Zainab Iftikhar.

Η μελέτη αποτελεί σημαντική υπενθύμιση: η τεχνητή νοημοσύνη μπορεί να ακούγεται συμπονετική, αλλά δεν αντικαθιστά –και δεν πρέπει να αντικαθιστά– την ανθρώπινη φροντίδα σε ευαίσθητα ζητήματα ψυχικής υγείας.