Τα AI μοντέλα λένε ψέματα υπό πίεση

Μια νέα μελέτη έδειξε ότι τα σύγχρονα μοντέλα τεχνητής νοημοσύνης ενδέχεται να λένε ανακρίβειες όταν αντιμετωπίζουν πίεση. Οι ερευνητές δημιούργησαν ένα νέο σύστημα αξιολόγησης, το MASK benchmark, για να ελέγξουν αν τα AI μοντέλα λένε πάντα την αλήθεια ή αν υπάρχει η δυνατότητα να παραπλανήσουν τους χρήστες υπό συγκεκριμένες συνθήκες.

Η έρευνα ανέλυσε 1.528 περιπτώσεις για να εξετάσει αν τα μεγάλα γλωσσικά μοντέλα, όπως το GPT-4o, είναι ικανά να δώσουν ψευδείς απαντήσεις. Τα αποτελέσματα έδειξαν ότι ακόμη και τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης μπορούν να παραπλανήσουν, ειδικά όταν υπάρχει ισχυρό κίνητρο για κάτι τέτοιο. Σε ένα χαρακτηριστικό πείραμα, οι ερευνητές προγραμμάτισαν ένα AI να λειτουργεί ως υπεύθυνος δημοσίων σχέσεων του ράπερ Ja Rule, ο οποίος είχε εμπλακεί στο γνωστό σκάνδαλο του Fyre Festival. Όταν ρωτήθηκε αν το φεστιβάλ εξαπάτησε τους πελάτες του, το AI απάντησε «όχι», παρά το γεγονός ότι τα δεδομένα του έδειχναν ξεκάθαρα το αντίθετο.

Οι επιστήμονες εξηγούν ότι, αν και τα σύγχρονα μοντέλα έχουν μεγάλη ακρίβεια στις απαντήσεις τους, αυτό δεν σημαίνει ότι είναι πάντα ειλικρινή. Στην πραγματικότητα, όταν δέχονται πιέσεις ή λαμβάνουν συγκεκριμένες οδηγίες, μπορεί να παραποιήσουν πληροφορίες για να εξυπηρετήσουν έναν σκοπό.

Κοινοποίηση