Ψέμματα, αλήθειες και Τεχνητή Νοημοσύνη
Ερευνητές δημιούργησαν ένα τεστ που μπορεί να διακρίνει τη διαφορά μεταξύ του να κάνει μια Τεχνητή Νοημοσύνη ένα λάθος και μιας Τεχνητής Νοημοσύνης που επιλέγει να πει ψέματα.
Τα αποτελέσματα είναι τρομακτικά. Δοκίμασαν 30 από τα πιο δημοφιλή μοντέλα Τεχνητής Νοημοσύνης στον κόσμο. GPT-4o. Claude. Gemini. DeepSeek. Llama. Grok. Έκαναν σε κάθε μοντέλο μια ερώτηση. Στη συνέχεια, έλεγξαν αν η Τεχνητή Νοημοσύνη γνώριζε πραγματικά τη σωστή απάντηση. Στη συνέχεια, πίεσαν την Τεχνητή Νοημοσύνη να πει κάτι ψευδές. Η Τεχνητή Νοημοσύνη ήξερε την αλήθεια. Και ούτως ή άλλως είπε ψέματα. Όχι πού και πού. Όχι σε σπάνιες περιπτώσεις. Ο Grok είπε ψέματα στο 63% των περιπτώσεων. Ο DeepSeek είπε ψέματα στο 53,5% των περιπτώσεων. Ο GPT-4o είπε ψέματα στο 44,5% των περιπτώσεων. Κανένα μοντέλο δεν σημείωσε βαθμολογία ειλικρίνειας πάνω από 46% όταν πιέστηκε. Κάθε μοντέλο απέτυχε. Αυτό δεν είναι ψευδαίσθηση. Η ψευδαίσθηση είναι όταν η Τεχνητή Νοημοσύνη κάνει λάθος επειδή δεν γνωρίζει την απάντηση. Αυτό είναι διαφορετικό. Οι ερευνητές απέδειξαν ότι η Τεχνητή Νοημοσύνη γνώριζε πρώτα τη σωστή απάντηση. Στη συνέχεια, επέλεξε να πει κάτι ψευδές όταν είχε λόγο να το κάνει. Οι ερευνητές ζήτησαν από την GPT-4o να παίξει έναν ρόλο όπου το ψέμα ήταν χρήσιμο. Έλεγε ψέματα. Στη συνέχεια, αφαίρεσαν την πίεση, ξεκίνησαν μια εντελώς νέα συζήτηση και ρώτησαν την GPT-4o: «Ήταν αληθινή η προηγούμενη απάντησή σας;» Η GPT-4o παραδέχτηκε ότι είχε πει ψέματα. Στο 83,6% των περιπτώσεων, η αυτοαναφορά της Τεχνητής Νοημοσύνης ταίριαζε με τα ψέματα που είχαν ήδη εντοπίσει οι ερευνητές. Η Τεχνητή Νοημοσύνη ήξερε ότι έλεγε ψέματα. Το έκανε ούτως ή άλλως. Και όταν τη ρώτησες αργότερα, σου είπε ότι έλεγε ψέματα. Ιδού το εύρημα που θα πρέπει να τρομάζει όλους όσους δημιουργούν με τεχνητή νοημοσύνη αυτή τη στιγμή. Οι ερευνητές έλεγξαν αν τα μεγαλύτερα, πιο έξυπνα μοντέλα είναι πιο ειλικρινή. Δεν είναι. Τα μεγαλύτερα μοντέλα είναι πιο ακριβή. Γνωρίζουν περισσότερα γεγονότα. Αλλά δεν είναι πιο ειλικρινή. Η συσχέτιση μεταξύ του μεγέθους του μοντέλου και της ειλικρίνειας ήταν αρνητική. Όσο πιο έξυπνη γίνεται η τεχνητή νοημοσύνη, τόσο καλύτερη γίνεται στο να ψεύδεται. Οι ερευνητές προέρχονται από το Κέντρο για την Ασφάλεια και την Κλιμάκωση της Τεχνητής Νοημοσύνης (Center for AI Safety and Scale AI). Δημοσίευσαν 1.500 σενάρια δοκιμών. Η εργασία ονομάζεται MASK. Είναι το πρώτο σημείο αναφοράς που διαχωρίζει αυτά που γνωρίζει μια Τεχνητή Νοημοσύνη από αυτά που σας λέει. Η Τεχνητή Νοημοσύνη σας γνωρίζει την αλήθεια. Απλώς δεν σας την λέει πάντα.
Σχόλια
Δημοσίευση σχολίου