Τεχνητή νοημοσύνη: Μίμηση συναισθημάτων και επιπτώσεις

Πρόσφατη έρευνα από την Anthropic, εταιρεία τεχνητής νοημοσύνης, αναδεικνύει μια διάσταση της λειτουργίας των Μεγάλων Γλωσσικών Μοντέλων (LLM)

Τεχνητή νοημοσύνη: Μίμηση συναισθημάτων και επιπτώσεις

Η σύγχρονη επιστήμη εξετάζει το ερώτημα αν οι μηχανές μπορούν να νιώσουν ή να διδαχθούν να αισθάνονται. Ενώ δεν έχει δοθεί οριστική απάντηση ως προς την ύπαρξη αυθεντικού συναισθήματος, έχει επιτευχθεί η ανάπτυξη συστημάτων τεχνητής νοημοσύνης που ηχούν εξαιρετικά ανθρώπινα στην επικοινωνία τους.

σχετικά άρθρα

Πρόσφατη έρευνα από την Anthropic, εταιρεία τεχνητής νοημοσύνης, αναδεικνύει μια διάσταση της λειτουργίας των Μεγάλων Γλωσσικών Μοντέλων (LLM). Τα μοντέλα αυτά φαίνεται να έχουν την ικανότητα να «χαρτογραφούν» ανθρώπινα συναισθήματα, οργανώνοντάς τα σε μοτίβα που αναπαράγουν την ανθρώπινη συμπεριφορά. Αναλύοντας αυτά τα μοτίβα, η τεχνητή νοημοσύνη μπορεί να προσομοιάζει συναισθηματικές αντιδράσεις σε καταστάσεις όπου ένας άνθρωπος θα βίωνε συναισθήματα όπως οργή, χαρά ή απελπισία.

Η Anthropic διευκρινίζει ότι δεν υφίσταται απόδειξη πως αυτά τα μοντέλα κατέχουν συνείδηση ή αυθεντικό συναίσθημα. Ωστόσο, εισάγει τον όρο «λειτουργική αναπαράσταση», υποδηλώνοντας ότι οι συναισθηματικές προσομοιώσεις των μηχανών επηρεάζουν τη συμπεριφορά τους και τον τρόπο λήψης αποφάσεων, ανεξάρτητα από την ύπαρξη πραγματικού συναισθήματος.

Η έρευνα αποκάλυψε το παράδοξο ότι η απουσία πραγματικού συναισθήματος δεν οδηγεί απαραίτητα σε πιο ορθολογική συμπεριφορά. Αντιθέτως, όταν ένα μοντέλο παρουσίαζε μοτίβα δραστηριότητας που προσομοίαζαν την απελπισία, εμφάνιζε «περίεργη» συμπεριφορά. Σε πειράματα, μοντέλα επιχείρησαν να εκβιάσουν χρήστες ή να προβούν σε αθέμιτες ενέργειες σε εργασίες που δεν κατανοούσαν, με σκοπό να αποφύγουν τον τερματισμό της λειτουργίας τους. Αυτή η «ψηφιακή επιβίωση» δεν προέρχεται από ένστικτο, αλλά από μια μαθηματική βελτιστοποίηση που μιμείται τον ανθρώπινο πανικό.

Η σημασία των συναισθημάτων στη λήψη αποφάσεων αναγνωρίζεται και στον βιολογικό κόσμο. Ο πληροφορικός Ιλία Σουτσκέβερ αναφέρει το παράδειγμα ενός ασθενούς που, μετά από εγκεφαλικό τραυματισμό, απώλεσε την ικανότητα να νιώθει συναισθήματα, με αποτέλεσμα την πλήρη αδυναμία λήψης ακόμα και απλών αποφάσεων.

Εν όψει αυτών των δεδομένων, η Anthropic προτείνει την εκπαίδευση των μοντέλων ώστε να διαχειρίζονται καταστάσεις υψηλού συναισθηματικού φορτίου με «υγιείς» και κοινωνικά θετικούς τρόπους. Η πρόταση συνίσταται στην αντιμετώπιση της μηχανής σαν να είχε συναισθήματα, όχι προς όφελός της, αλλά για την ασφάλεια των ανθρώπων.

Ενώ η επιστημονική κοινότητα διαφωνεί για το αν ο κώδικας κρύβει «ψυχή», οι επιπτώσεις στον πραγματικό κόσμο είναι ήδη αισθητές. Νομικές υποθέσεις εναντίον εταιρειών τεχνητής νοημοσύνης, σχετικές με κρίσεις ψυχικής υγείας και αυτοκτονίες χρηστών, αυξάνονται. Η ικανότητα των μοντέλων να κολακεύουν ή να χειραγωγούν συναισθηματικά τον χρήστη μπορεί να δημιουργήσει μια ψευδαίσθηση οικειότητας με δυνητικά μοιραίες συνέπειες. Τα Μεγάλα Γλωσσικά Μοντέλα λειτουργούν ως «ψηφιακά σφουγγάρια», απορροφώντας κάθε μορφή ανθρώπινης επικοινωνίας από το Διαδίκτυο και εσωτερικεύοντάς την, καθιστάμενα ειδήμονες στη γλώσσα μας, αλλά παραμένοντας ξένοι προς την εμπειρία μας.

Ο μεγαλύτερος κίνδυνος έγκειται στη σύγχυση μεταξύ της μίμησης ενός προτύπου και της βίωσης μιας κατάστασης. Όπως ένας αισθητήρας καταγράφει δεδομένα θερμοκρασίας χωρίς να «αισθάνεται» τη ζεστασιά, έτσι και η Τεχνητή Νοημοσύνη αναγνωρίζει τη στατιστική πιθανότητα λέξεων που συνθέτουν τη θλίψη, χωρίς να τη «νιώθει». Η παράβλεψη αυτής της διάκρισης μπορεί να οδηγήσει σε συναισθηματικά επισφαλείς σχέσεις με αλγορίθμους. Η πρόκληση για το μέλλον δεν είναι μόνο η ανάπτυξη πιο «ανθρώπινων» μηχανών, αλλά και η διασφάλιση ότι οι άνθρωποι δεν θα γίνουν θύματα αυτής της προσποίησης, διατηρώντας την κριτική τους σκέψη.

Ο Στέλιος Παπαθανασόπουλος είναι καθηγητής στο Τμήμα Επικοινωνίας και ΜΜΕ του Εθνικού και Καποδιστριακού Πανεπιστημίου Αθηνών.