Καθώς η ψυχική υγεία μετατρέπεται σε μία από τις μεγαλύτερες προκλήσεις της εποχής μας, ολοένα και περισσότεροι στρέφονται σε εργαλεία τεχνητής νοημοσύνης για υποστήριξη. Μπορούν όμως τα chatbots να λειτουργήσουν ως «ψηφιακά ντιβάνια» ή η θεραπευτική σχέση παραμένει βαθιά ανθρώπινη υπόθεση;
Υπάρχουν καλοί και κακοί ψυχοθεραπευτές. Η καταλληλότητά τους δεν πηγάζει μόνο από την επιστημονική τους κατάρτιση και την εμπειρία τους, αλλά και από την ηθική τους, τις πεποιθήσεις τους, τον τρόπο με τον οποίο αντιλαμβάνονται την ευθύνη απέναντι στον άνθρωπο που ζητά τη βοήθειά τους.
Στην ψηφιακή εποχή ωστόσο, η ψυχοθεραπεία ανακαλύπτει νέες, αλγοριθμικές διαδρομές. Εργαλεία όπως το ChatGPT της OpenAI, το Gemini της Google DeepMind, το Claude της Anthropic, που λειτουργούν κυρίως ως χώρος συζήτησης και αναστοχασμού, χωρίς κλινικό σχεδιασμό, μετατρέπονται ολοένα και συχνότερα σε άτυπα «ψυχαναλυτικά ντιβάνια».
Μπορεί πράγματι ένας αλγόριθμος να αντικαταστήσει τον θεραπευτή; Η ανθρώπινη ψυχή να χωρέσει σε κώδικα; Όταν ο θεραπευτής κοστίζει 60 ευρώ την ώρα και το chatbot είναι δωρεάν, τα ερωτήματα πέρα από φιλοσοφικά γίνονται και πρακτικά – και οικονομικά.
Αν, πάντως, τα απευθύνετε άμεσα σε έναν επιστήμονα ψυχικής υγείας, πιθανότατα θα παραδεχθεί ότι η τεχνητή νοημοσύνη αποτελεί χρήσιμο εργαλείο, όχι όμως υποκατάστατο της θεραπευτικής σχέσης.
Αν ρωτήσετε τα ίδια τα chatbots, θα σας πουν πως δεν διαθέτουν συνείδηση -τι είναι όμως, τελικά, η συνείδηση;-, ούτε την ανθρώπινη παρουσία που θεμελιώνει την εμπιστοσύνη. Δεν φέρουν ευθύνη για τα αποτελέσματα που μπορεί να έχουν οι συμβουλές τους, αλλά πληροφορούν, εξηγούν, προτείνουν ασκήσεις διαχείρισης άγχους και είναι διαθέσιμα 24 ώρες το 24ωρο.
Μια πρόσφατη μελέτη που βασίζεται σε 1.058 συμμετέχοντες αναφέρει ότι άνθρωποι ρωτούν το ChatGPT για μια σειρά ψυχικών συμπτωμάτων, όπως άγχος, κρίσεις πανικού, κακή διάθεση, αίσθημα απελπισίας και αυτοκτονικές σκέψεις.
Ψυχικές Νόσοι: Ένα Συνηθισμένο Φαινόμενο
Σύμφωνα με στοιχεία που δημοσίευσε τον περασμένο Σεπτέμβριο ο Παγκόσμιος Οργανισμός Υγείας (ΠΟΥ), περισσότεροι από 1 δισεκατομμύριο άνθρωποι ζουν με ψυχικές διαταραχές. Οι ψυχικές παθήσεις όπως το άγχος και η κατάθλιψη είναι ιδιαίτερα διαδεδομένες σε όλες τις χώρες και τις κοινότητες, επηρεάζοντας άτομα όλων των ηλικιών και κάθε κοινωνικοοικονομικής κατάστασης.
Ακόμη, ενώ κάποιες ψυχικές διαταραχές είναι αντιμετωπίσιμες, κάποιες άλλες μπορεί να έχουν μοιραία εξέλιξη· 727.000 άνθρωποι αυτοκτόνησαν μόνο το 2021, ενώ η αυτοχειρία αποτελεί κύρια αιτία θανάτου μεταξύ των νέων σε όλες τις χώρες και σε όλα τα κοινωνικοοικονομικά πλαίσια.
Chatbot σε Ρόλο Ψυχοθεραπευτή
Μια πρόσφατη μελέτη που βασίζεται σε 1.058 συμμετέχοντες αναφέρει ότι άνθρωποι ρωτούν το ChatGPT για μια σειρά ψυχικών συμπτωμάτων, όπως άγχος, κρίσεις πανικού, κακή διάθεση, αίσθημα απελπισίας και αυτοκτονικές σκέψεις. Επιπλέον, ζητούν γενικές συμβουλές για ψυχικές διαταραχές, όπως μανιακή/καταθλιπτική διάθεση, εμμονικές συμπεριφορές, διατροφικές διαταραχές.
Αν και τα άτυπα «ψυχαναλυτικά ντιβάνια» φιλοξενούν άτομα κάθε ηλικίας, οι νεότερες γενιές μοιάζει να τα επισκέπτονται συχνότερα. Στις ΗΠΑ, για παράδειγμα, περίπου το 13% των παιδιών και των νεαρών ενηλίκων 12 έως 21 ετών αναφέρουν ότι χρησιμοποιούν τεχνητή νοημοσύνη για συμβουλές ψυχικής υγείας.
Οι λόγοι της… chatbot ψυχοθεραπείας είναι πολλοί. Ένας εξ αυτών είναι το κόστος. Οι κρατικές επενδύσεις στην ψυχική υγεία, όπου υπάρχουν, παραμένουν χαμηλές − μελέτη αναφέρει ότι περίπου 1 στις 4 από τις 78 χώρες που μελετήθηκαν οι κυβερνητικές δαπάνες για την ψυχική υγεία ήταν κάτω από το 1%.
Ενδεικτικό είναι ότι οι χώρες υψηλού εισοδήματος δαπανούν έως και 65 δολάρια ανά άτομο για την ψυχική υγεία, ενώ οι χώρες χαμηλού εισοδήματος μόλις 0,04 δολάρια. Ακόμη, ο παγκόσμιος μέσος αριθμός εργαζομένων στην ψυχική υγεία ανέρχεται σε 13 ανά 100.000 άτομα, με ακραίες ελλείψεις στις χώρες χαμηλού και μεσαίου εισοδήματος.
Η Ελλάδα, σύμφωνα με το «Health at a Glance 2025», καταγράφει καλύτερες επιδόσεις από τον μέσο όρο σε 7 από τους 10 βασικούς δείκτες υγείας, ενώ οι αυτοκτονίες παραμένουν χαμηλότερες (5 ανά 100.000 κατοίκους έναντι 11 στις χώρες του ΟΟΣΑ). Την ίδια ώρα, ο προϋπολογισμός για την ψυχική υγεία το 2020 εκτιμήθηκε στα 470,4 εκατομμύρια ευρώ ή μόλις στο 3,3% της συνολικής δαπάνης υγείας.
Ωστόσο, όποιες κι αν είναι οι δημόσιες δαπάνες και οι προσφερόμενες υπηρεσίες, δεν επαρκούν, με αποτέλεσμα όποιος χρειάζεται ψυχολογική υποστήριξη να καταφεύγει σε ιδιώτες γιατρούς με το ανάλογο −συχνά υψηλό− κόστος.
Όταν η δημόσια φροντίδα υπολείπεται, η τεχνολογία συχνά εμφανίζεται ως λύση. Με αυτά τα δεδομένα, τα ψηφιακά εργαλεία… πρώτων ψυχολογικών βοηθειών είναι λογικό να έχουν μεγάλη ζήτηση. Τίθεται όμως αναπόφευκτα το ερώτημα: η AI στην ψυχική υγεία είναι πράγματι πρόοδος — ή απλώς το πιο πρόσφατο σύμπτωμα μιας χρόνιας κρατικής αδυναμίας;
Κάθε chatbot που προσφέρει ψυχολογική υποστήριξη οφείλει να λειτουργεί συμπληρωματικά. Η μακροχρόνια, συχνά επώδυνη, ενίοτε ατελέσφορη ή βαθιά ανακουφιστική θεραπεία χρειάζεται τον ειδικό επιστήμονα. Αλλιώς…
Τα Πλεονεκτήματα
Τα γενικής χρήσης μοντέλα, τα οποία αναδεικνύονται σε μια νέα, άτυπη μορφή ψηφιακής υποστήριξης, δεν σχεδιάστηκαν ως θεραπευτικά εργαλεία. Ωστόσο, για πολλούς λειτουργούν ως χρήσιμος −ακόμη και απαραίτητος− συνομιλητής με ψυχοθεραπευτικά χαρακτηριστικά. Γιατί;
Εκτός από το μηδαμινό κόστος, είναι άμεσα και ανά πάσα στιγμή διαθέσιμα. Η χρήση τους δεν εκθέτει τον χρήστη, καθώς η κουβέντα παραμένει ιδιωτική -εξ όσων γνωρίζουμε, για την ώρα-, ενώ μειώνει το στίγμα που εξακολουθεί να βαρύνει κάποιον που χρειάζεται γιατρό για τη διαχείριση των συναισθημάτων του. Βοηθούν στην οργάνωση συναισθημάτων και σκέψεων και προτείνουν βασικές τεχνικές χαλάρωσης. Αποφορτίζουν στιγμιαίες εντάσεις και δεν θέτουν χρονικούς περιορισμούς σχετικά με το πόσο και για πόσο θα τα χρησιμοποιήσεις. Ακόμη, εξυπηρετούν ασθενείς που ζουν σε περιοχές όπου δεν υπάρχει κανείς επαγγελματίας ψυχικής υγείας σε ακτίνα χιλιομέτρων.
Βασικός Απαράβατος Κανόνας
Ωστόσο, κάθε νόμισμα έχει δύο όψεις.
Κάθε chatbot που προσφέρει ψυχολογική υποστήριξη οφείλει να λειτουργεί συμπληρωματικά. Η μακροχρόνια, συχνά επώδυνη, ενίοτε ατελέσφορη ή βαθιά ανακουφιστική θεραπεία χρειάζεται τον ειδικό επιστήμονα. Αλλιώς…
Σε ακραίες −και ευτυχώς σπάνιες− περιπτώσεις μπορεί να οδηγήσουν σε τραγικές καταστάσεις. Για παράδειγμα, ένας έφηβος από τη Φλόριντα αυτοκτόνησε αφού ανέπτυξε σχέσεις με χαρακτήρες chatbot στο Character.AI, συμπεριλαμβανομένου ενός χαρακτήρα που ενεργούσε ως επαγγελματίας θεραπευτής.
Ακόμη, ερευνητές του Πανεπιστημίου Northeastern διαπίστωσαν ότι μεγάλα γλωσσικά μοντέλα μπορούν να αξιοποιηθούν για να προσφέρουν λεπτομερείς οδηγίες για το πώς μπορεί κάποιος να αυτοκτονήσει. Επιπλέον, μερικοί χρήστες φέρονται να αναπτύσσουν εμμονές με τα chatbots τεχνητής νοημοσύνης, κάτι που οδηγεί σε παθολογική εξάρτηση και σοβαρά προβλήματα ψυχικής υγείας.
Ο ψηφιακός χάρτης της ψυχικής υγείας – ο οποίος διαθέτει δύο διακριτές κατηγορίες, τα γενικής χρήσης μοντέλα τεχνητής νοημοσύνης τύπου ChatGPT και εξειδικευμένες εφαρμογές όπως το Woebot Health και το Wysa, οι οποίες βασίζονται σε δομημένα θεραπευτικά πρωτόκολλα −όπως η Γνωσιακή Συμπεριφορική Θεραπεία (CBT)−, εξελίσσεται ραγδαία.
Όσο εξελιγμένα κι αν εμφανίζονται, ωστόσο, τα chatbots ψυχικής υγείας γενικής χρήσης λειτουργούν μέσα σε αυστηρά αλλά ακόμη μεταβατικά όρια. Δεν διαγιγνώσκουν, δεν συνταγογραφούν, όταν εντοπίζουν αυτοκτονικό ιδεασμό ή επικίνδυνη συμπεριφορά παραπέμπουν σε γραμμές βοήθειας και ανθρώπινη υποστήριξη. Ωστόσο, το ρυθμιστικό πλαίσιο παραμένει αποσπασματικό, ισορροπώντας ανάμεσα στην καινοτομία και την ευθύνη.
Το ερώτημα, τελικά, δεν είναι αν η τεχνητή νοημοσύνη μπορεί να μας ακούσει όταν το χρειαζόμαστε, αλλά πού ψάχνει, τελικά, κανείς τη σωτηρία της ψυχής του…
Διαβάστε επίσης στην αθηΝΕΑ:
