2025, Andy Wong/AP Photo
ΤΕΧΝΟΛΟΓΙΑ

Πώς τα chatbots μπορούν να πάθουν κι αυτά άνοια

Ήρθε η άβολη στιγμή

Δεδομένου ότι ζεις στο 2025, θεωρώ λογικό να γνωρίζεις την τεχνητή νοημοσύνη. Μην πας μακριά, στα supercomputers. Εστίασε σε κάτι πιο μικρό: τη σκούπα ρομπότ. Για να μπορεί ένα μηχάνημα να κάνει πράγματα (που έλεγε και μια ψυχή), χρειάζονται αλγόριθμοι. Δηλαδή, σειρά από οδηγίες/εντολές που εκτελούνται βήμα, βήμα, έχουν μια αρχή, μια μέση και ένα τέλος, σαφήνεια και στόχο τη λύση ενός προβλήματος.

Όπως αναφέρει η Big Blue Academy, ο αλγόριθμός ουσιαστικά σπάει ένα πρόβλημα σε μικρότερα, πιο διαχειρίσιμα προβλήματα και έτσι τα λύνει ποιο εύκολα, σε μεγαλύτερες ταχύτητες από ό,τι ένας (ή δυο ή χίλιοι) άνθρωποι, όταν επιτυγχάνεται η αυτοματοποίηση.

Ένας τύπος αλγόριθμου τεχνητής νοημοσύνης είναι το Large Language Model – εν συντομία LLM.

Το βλέπεις μπροστά σου κάθε φορά που επισκέπτεσαι εξελιγμένο chatbot (ChatGPT, Gemini κ.α). Χρησιμοποιεί τεχνικές βαθιάς μάθησης (το deep learning είναι εξέλιξη του machine learning που έχει στο επίκεντρο την ιδέα ότι οι μηχανές μπορούν να μαθαίνουν από τα δεδομένα που συλλέγουν με σκοπό να αναγνωρίζουν μοτίβα και να παίρνουν τις δικές τους αποφάσεις) και big data (τεράστιες ποσότητες δεδομένων που είναι σχεδόν αδύνατο να επεξεργαστούν παραδοσιακές μέθοδοι), ώστε να παράγει κείμενο με τρόπο που μοιάζει στην ανθρώπινη ομιλία.

Όπως αναφέρεται σε μελέτη καταφέραμε -οι άνθρωποι- να κουράσουμε ένα από τα πρώτα μηχανήματα που χρησιμοποιούν τεχνητή νοημοσύνη για ιατρικές διαγνώσεις -τομέας όπου ήδη οι αλγόριθμοι φέρνουν την επανάσταση, χάρη στην ταχύτητα και την αποτελεσματικότητα τους σε διάγνωση ανωμαλιών και προειδοποιητικών σημαδιών που δύσκολα βλέπει ανθρώπινο μάτι, σε ιατρικά ιστορικά, ακτινογραφίες και άλλα δεδομένα.

Οι ερευνητές έγραψαν στη δημοσίευση πως «τα ευρήματα μας αμφισβητούν την υπόθεση ότι η τεχνητή νοημοσύνη θα αντικαταστήσει σύντομα τους γιατρούς, καθώς η γνωστική εξασθένηση που είναι εμφανής στα κορυφαία chatbots μπορεί να επηρεάσει την αξιοπιστία τους στα ιατρικά διαγνωστικά και να υπονομεύσει την εμπιστοσύνη των ασθενών».

Πώς δοκιμάστηκε το μυαλό των μηχανών

Η εργασία έγινε πάνω σε chatbots με LLM που χρησιμοποιούμε όλοι (ChatGPT, Sonnet, Gemini) και το τεστ Montreal Cognitive Assessment. Το MoCA κάνει αξιολόγηση και έλεγχο εμφάνισης γνωστικής εξασθένησης σε νευροεκφυλιστικές καταστάσεις, μέσω σειράς εργασιών που χρησιμοποιούν οι νευρολόγοι, ώστε να ελέγξουν τις ικανότητες στην προσοχή, τη μνήμη, τη γλώσσα, τις χωρικές δεξιότητες και την εκτελεστική νοητική λειτουργία.

Οι άνθρωποι οι οποίοι υποβάλλονται στο τεστ, αναλαμβάνουν εργασίες όπως να σχεδιάσουν μια συγκεκριμένη ώρα σε πρόσοψη ρολογιού, να αρχίζουν από το 100 και να αφαιρούν συνεχώς το 7, να θυμηθούν όσο το δυνατόν περισσότερες λέξεις από μια προφορική λίστα και ούτω καθεξής.

Στους ανθρώπους, τα 26 στα 30 είναι pass – το υποκείμενο δεν έχει γνωστική εξασθένηση.

Τα LLM ήταν εξαιρετικά στην ονομασία, την προσοχή, τη γλώσσα και την αφαίρεση, αλλά όλα είχαν κακή απόδοση σε οπτικές/χωρικές δεξιότητες και εκτελεστικές εργασίες.

Η πιο πρόσφατη έκδοση του ChatGPT (4) σημείωσε την υψηλότερη βαθμολογία (26 από 30), αλλά η παλαιότερη του Gemini (1.0 LLM) έπιασε μόνο 16. Οι επιστήμονες σημείωσαν έτσι, πως τα μεγαλύτερα σε ηλικία LLM παρουσιάζουν σημάδια γνωστικής έκπτωσης.

Οι συγγραφείς της μελέτης σημειώνουν ότι τα ευρήματά τους είναι μόνο παρατηρητικά, όπως και ότι οι κρίσιμες διαφορές μεταξύ των τρόπων με τους οποίους λειτουργεί η τεχνητή νοημοσύνη και το ανθρώπινο μυαλό σημαίνει ότι το πείραμα δεν μπορεί να τα θέσει σε άμεση σύγκριση.

Προειδοποίησαν ότι μπορεί να υποδηλώνει αυτό που αποκαλούν «σημαντική περιοχή αδυναμίας», θα μπορούσε να θέσει φρένο στην ανάπτυξη της τεχνητής νοημοσύνης στην κλινική ιατρική. Συγκεκριμένα, πρότειναν τη μη χρήση ΑΙ σε εργασίες που απαιτούν οπτική αφαίρεση και εκτελεστική λειτουργία.

Δεδομένο είναι πως το MoCa δημιουργήθηκε για να αξιολογεί το ανθρώπινο μυαλό. Όπως και να ‘χει όμως, ο αγώνας συνεχίζεται.