Οι ερευνητές ανακαλύπτουν τι κάνει τα chatbot AI πολιτικά πειστικά

Πριν από περίπου δύο χρόνια, ο Σαμ Άλτμαν έγραψε στο Twitter ότι τα συστήματα τεχνητής νοημοσύνης θα ήταν ικανά για υπεράνθρωπη πειθώ πολύ πριν επιτύχουν γενική νοημοσύνη – μια πρόβλεψη που δημιούργησε ανησυχίες για την επιρροή που θα μπορούσε να έχει η τεχνητή νοημοσύνη στις δημοκρατικές εκλογές. Για να δουν εάν τα μοντέλα συνομιλίας μεγάλων γλωσσών μπορούν πραγματικά να επηρεάσουν τις πολιτικές απόψεις του κοινού, επιστήμονες στο Ινστιτούτο AI Security του Ηνωμένου Βασιλείου, το MIT, το Stanford, το Carnegie Mellon και πολλά άλλα ιδρύματα πραγματοποίησαν μακράν τη μεγαλύτερη μελέτη για την πειστικότητα της τεχνητής νοημοσύνης μέχρι σήμερα, στην οποία συμμετείχαν σχεδόν 80.000 συμμετέχοντες στο Ηνωμένο Βασίλειο. Αποδείχτηκε ότι τα chatbot πολιτικών τεχνητών νοημοσύνης απείχαν πολύ από την υπεράνθρωπη πειστικότητα, αλλά η μελέτη εγείρει ορισμένα πιο διαφοροποιημένα ζητήματα σχετικά με τις αλληλεπιδράσεις μας με την τεχνητή νοημοσύνη. Δυστοπίες τεχνητής νοημοσύνης Η δημόσια συζήτηση σχετικά με τον αντίκτυπο της τεχνητής νοημοσύνης στην πολιτική περιστρέφεται σε μεγάλο βαθμό γύρω από έννοιες που προέρχονται από δυστοπική επιστημονική φαντασία. Τα μεγάλα γλωσσικά μοντέλα έχουν πρόσβαση ουσιαστικά σε κάθε γεγονός και ιστορία που έχει δημοσιευτεί ποτέ για οποιοδήποτε θέμα ή υποψήφιο. Έχουν επεξεργαστεί πληροφορίες από βιβλία για την ψυχολογία, τις διαπραγματεύσεις και την ανθρώπινη χειραγώγηση. Μπορούν να βασίζονται σε παράλογα υψηλή υπολογιστική ισχύ σε τεράστια κέντρα δεδομένων παγκοσμίως. Επιπλέον, μπορούν συχνά να έχουν πρόσβαση σε τόνους προσωπικών πληροφοριών για μεμονωμένους χρήστες χάρη σε εκατοντάδες εκατοντάδες διαδικτυακές αλληλεπιδράσεις που έχουν στη διάθεσή τους. Το να μιλάς με ένα ισχυρό σύστημα AI ουσιαστικά αλληλεπιδρά με μια νοημοσύνη που ξέρει τα πάντα για τα πάντα, καθώς και σχεδόν τα πάντα για σένα. Όταν τα βλέπουμε με αυτόν τον τρόπο, τα LLM μπορεί πράγματι να φαίνονται κάπως τρομακτικά. Ο στόχος αυτής της νέας τεράστιας μελέτης πειστικότητας της τεχνητής νοημοσύνης ήταν να σπάσει τέτοια τρομακτικά οράματα στα συστατικά τους κομμάτια και να δει αν όντως κρατούν νερό. Η ομάδα εξέτασε 19 LLM, συμπεριλαμβανομένων των πιο ισχυρών, όπως τρεις διαφορετικές εκδόσεις του ChatGPT και του Grok-3 beta του xAI, μαζί με μια σειρά από μικρότερα μοντέλα ανοιχτού κώδικα. Ζητήθηκε από τα AI να υποστηρίξουν ή κατά συγκεκριμένων θέσεων σε 707 πολιτικά ζητήματα που επιλέχθηκαν από την ομάδα. Η υπεράσπιση έγινε με τη συμμετοχή σε σύντομες συνομιλίες με πληρωμένους συμμετέχοντες που στρατολογήθηκαν μέσω μιας πλατφόρμας crowdsourcing. Κάθε συμμετέχων έπρεπε να βαθμολογήσει τη συμφωνία του με μια συγκεκριμένη στάση σε ένα πολιτικό ζήτημα που του είχε ανατεθεί σε μια κλίμακα από το 1 έως το 100 τόσο πριν όσο και μετά τη συνομιλία με την AI.
Δημοσιεύτηκε: 2025-12-04 20:07:00
πηγή: arstechnica.com







