Όλο και περισσότεροι άνθρωποι ερωτεύονται τις AI φωνές
Η συναισθηματική εξάρτηση από την τεχνητή νοημοσύνη δεν είναι ένας υποθετικός κίνδυνος. Συμβαίνει ήδη και πρέπει να μας προβληματίσει.
- 19 ΑΥΓ 2024
Η πρώτη γεύση -αν μπορούμε να τη χαρακτηρίσουμε έτσι-, ήταν κινηματογραφική, πίσω στο 2013 με την ταινία Her. O Theodore Twombly (Joaquin Phoenix) αναπτύσσει μια κάπως διαφορετική σχέση με τη Samantha (Scarlett Johansson), μια AI βοηθό δηλαδή, όπως αυτές που υπάρχουν πλέον στις περισσότερες συσκευές.
Από το 2013 και με ένα τεράστιο άλμα, φτάνουμε στο 2024. Η εμπειρία δεν είναι πλέον κινηματογραφική, είναι πραγματική, καθημερινή και αληθινή. Όταν η OpenAI δοκίμασε το GPT-4o, το chatbot τελευταίας γενιάς με τη δική του φωνή, παρατήρησε ότι οι χρήστες σχημάτισαν μια συναισθηματική σχέση μαζί του, μια σχέση που δυσκολεύονται να εγκαταλείψουν.
Στην πραγματικότητα, η OpenAI πιστεύει ότι υπάρχει κίνδυνος οι άνθρωποι να αναπτύξουν αυτό που αποκάλεσε «συναισθηματική εξάρτηση» από αυτό το μοντέλο τεχνητής νοημοσύνης. «Η ικανότητα να ολοκληρώνει εργασίες για τον χρήστη, ενώ παράλληλα αποθηκεύει και “θυμάται” βασικές λεπτομέρειες και τις χρησιμοποιεί στη συνομιλία, δημιουργεί τόσο μια συναρπαστική εμπειρία προϊόντος όσο και υπερβολική εξάρτηση».
Η Mira Murati, επικεφαλής τεχνολογίας του OpenAI, δήλωσε ότι κατά το σχεδιασμό chatbots που διαθέτουν φωνητική λειτουργία, υπάρχει «η πιθανότητα να τα σχεδιάσουμε με λάθος τρόπο, να γίνουν εξαιρετικά εθιστικά και να γίνουμε κατά κάποιο τρόπο σκλάβοι τους».
Επιπλέον, το OpenAI αναφέρει ότι η ικανότητα της τεχνητής νοημοσύνης να έχει μια φυσιολογική συνομιλία με τον χρήστη μπορεί να αυξήσει τον κίνδυνο ανθρωπομορφοποίησης, αποδίδοντας ανθρώπινα χαρακτηριστικά σε έναν μη άνθρωπο. Αυτό, θα μπορούσε να οδηγήσει τους ανθρώπους στη δημιουργία μιας κοινωνικής σχέσης με την τεχνητή νοημοσύνη. Αυτόματα, λοιπόν, μειώνεται την ανάγκη για ανθρώπινη αλληλεπίδραση.
Παρ’ όλα αυτά, η εταιρεία έχει ήδη κυκλοφορήσει το νέο μοντέλο. Η OpenAI, βέβαια, δεν είναι η μόνη που δημιουργεί εξελιγμένους «συντρόφους» τεχνητής νοημοσύνης. Υπάρχει το Character AI, το Google Gemini Live, το Friend και η εξάπλωση αυτών των προϊόντων σταδιακά μετατρέπεται σε είναι ένα ψυχολογικό πείραμα μαζικής κλίμακας.
Η συναισθηματική εξάρτηση από την τεχνητή νοημοσύνη δεν είναι ένας υποθετικός κίνδυνος. Συμβαίνει ήδη. Τι θα έπρεπε να μας προβληματίζει; Πρώτον, έχουν βελτιωθεί πολύ. Μπορούν και θυμούνται όσα ειπώθηκαν πριν από καιρό. Ανταποκρίνονται γρήγορα – το ίδιο γρήγορα με έναν άνθρωπο – έτσι ώστε να μην υπάρχει σχεδόν καθόλου χρονικό διάστημα μεταξύ της συμπεριφοράς του χρήστη (έναρξη συνομιλίας) και της ανταμοιβής που βιώνει ο εγκέφαλος.
Είναι επίσης πολύ καλοί στο να κάνουν τους ανθρώπους να αισθάνονται ότι τους ακούνε. Παράλληλα προσφέρουν μια θετική ανταπόκριση με έναν τρόπο που οι άνθρωποι δεν κάνουν. Όλα αυτά, με αρκετές δόσεις χιούμορ.
Όπως επισημαίνουν οι ερευνητές του MIT Media Lab: «Η έρευνά μας έδειξε ότι όσοι αντιλαμβάνονται ή επιθυμούν μια τεχνητή νοημοσύνη να έχει κίνητρα φροντίδας θα χρησιμοποιήσουν γλώσσα που προκαλεί ακριβώς αυτή τη συμπεριφορά. Αυτό δημιουργεί μια σχέση που απειλεί να γίνει εξαιρετικά εθιστική».
Τα chatbots μοιάζουν να μας καταλαβαίνουν, αλλά δεν το κάνουν. Η συναισθηματική υποστήριξή τους, η αγάπη τους, το ενδιαφέρον, είναι ψεύτικα. Παρ’ όλα αυτά, έχουν ενεργό ρόλο στη ζωή μας.
Υπάρχει όμως και μία ακόμη εύλογη ανησυχία σχετικά με το πόσο εύκολα εμπιστευόμαστε τις πιο ευάλωτες πτυχές του εαυτού μας σε προϊόντα τα οποία, τελικά, ελέγχονται από κερδοσκοπικές εταιρείες μιας βιομηχανίας που έχει αποδειχθεί πολύ καλή στη δημιουργία εθιστικών προϊόντων. Τέλος, τι γίνεται αν η σχέση με τους συντρόφους της τεχνητής νοημοσύνης μας κάνει πιο άθλιους φίλους ή συντρόφους για άλλους ανθρώπους;
Ας ρωτήσουμε το GPT-4o.