Αυτό το πρωτόκολλο συγγραφικής τεχνητής νοημοσύνης στοχεύει να κρατήσει τους ανθρώπους συνδεδεμένους με τη σκέψη

Η τελευταία γενιά μοντέλων τεχνητής νοημοσύνης είναι πιο ευκρινής και ομαλή, παράγοντας γυαλιστερό κείμενο με λιγότερα λάθη και παραισθήσεις. Ως καθηγητής φιλοσοφίας, τρέφω έναν αυξανόμενο φόβο: Όταν μια εκλεπτυσμένη έκθεση δεν δείχνει πλέον ότι ένας μαθητής έκανε τη σκέψη, ο βαθμός πάνω από αυτόν γίνεται κούφιος—και το ίδιο και το δίπλωμα. Το πρόβλημα δεν σταματά στην τάξη. Σε τομείς όπως η νομική, η ιατρική και η δημοσιογραφία, η εμπιστοσύνη εξαρτάται από τη γνώση ότι η ανθρώπινη κρίση καθοδήγησε τη δουλειά. Ένας ασθενής, για παράδειγμα, αναμένει από τη συνταγή ενός γιατρού να αντικατοπτρίζει τη σκέψη και την εκπαίδευση ενός ειδικού. Τα προϊόντα AI μπορούν πλέον να χρησιμοποιηθούν για την υποστήριξη των αποφάσεων των ανθρώπων. Αλλά ακόμα και όταν ο ρόλος της τεχνητής νοημοσύνης στην εκτέλεση αυτού του τύπου εργασίας είναι μικρός, δεν μπορείτε να είστε σίγουροι αν ο επαγγελματίας οδήγησε τη διαδικασία ή απλώς έγραψε μερικές προτροπές για να κάνει τη δουλειά. Αυτό που διαλύεται σε αυτήν την κατάσταση είναι η λογοδοσία – η αίσθηση ότι τα ιδρύματα και τα άτομα μπορούν να απαντήσουν για αυτό που πιστοποιούν. Και αυτό έρχεται σε μια εποχή που η εμπιστοσύνη του κοινού στους πολιτικούς θεσμούς έχει ήδη ξεφτιλιστεί.Βλέπω την εκπαίδευση ως το έδαφος για μια νέα πρόκληση: να μάθω να εργάζομαι με την τεχνητή νοημοσύνη διατηρώντας παράλληλα την ακεραιότητα και την ορατότητα της ανθρώπινης σκέψης. Διαλύστε το πρόβλημα εδώ και θα μπορούσε να προκύψει ένα σχέδιο για άλλους τομείς όπου η εμπιστοσύνη εξαρτάται από τη γνώση ότι οι αποφάσεις εξακολουθούν να προέρχονται από ανθρώπους. Στα δικά μου μαθήματα, δοκιμάζουμε ένα πρωτόκολλο συγγραφής για να διασφαλίσουμε ότι η γραφή των μαθητών παραμένει συνδεδεμένη με τη σκέψη τους, ακόμη και με την τεχνητή νοημοσύνη στο βρόχο. Όταν η μάθηση καταρρέειΗ βασική ανταλλαγή μεταξύ δασκάλου και μαθητή είναι υπό πίεση. Μια πρόσφατη μελέτη του MIT διαπίστωσε ότι οι μαθητές που χρησιμοποιούν μεγάλα γλωσσικά μοντέλα για να βοηθήσουν με τα δοκίμια αισθάνθηκαν λιγότερο ιδιοκτησία της δουλειάς τους και τα πήγαν χειρότερα σε βασικά μέτρα που σχετίζονται με τη γραφή. Οι μαθητές εξακολουθούν να θέλουν να μάθουν, αλλά πολλοί νιώθουν ηττημένοι. Μπορεί να ρωτήσουν: “Γιατί να το σκεφτώ μόνος μου όταν το AI μπορεί απλώς να μου το πει;” Οι δάσκαλοι ανησυχούν ότι τα σχόλιά τους δεν προσγειώνονται πλέον. Όπως είπε μια δευτεροετής φοιτήτρια του Πανεπιστημίου Κολούμπια στο The New Yorker αφού παρέδωσε το δοκίμιό της με τη βοήθεια AI: «Αν δεν τους αρέσει, δεν το έγραψα εγώ, ξέρετε;» Τα πανεπιστήμια ανακατεύονται. Μερικοί εκπαιδευτές προσπαθούν να κάνουν τις εργασίες «Απροστατευτικές», μεταβαίνοντας σε προσωπικούς προβληματισμούς ή απαιτώντας από τους μαθητές να συμπεριλάβουν τις προτροπές και τη διαδικασία τους. Τα τελευταία δύο χρόνια, δοκίμασα εκδόσεις αυτών στις δικές μου τάξεις, ζητώντας ακόμη και από τους μαθητές να εφεύρουν νέες μορφές. Αλλά η τεχνητή νοημοσύνη μπορεί να μιμηθεί σχεδόν κάθε εργασία ή στυλ. Όπως είναι κατανοητό, άλλοι ζητούν τώρα να επιστρέψουμε σε αυτά που ονομάζονται «μεσαιωνικά πρότυπα»: εξέταση στην τάξη με «μπλε βιβλία» και προφορικές εξετάσεις. Ωστόσο, αυτοί ανταμείβουν κυρίως την ταχύτητα υπό πίεση, όχι τον προβληματισμό. Και αν οι μαθητές χρησιμοποιούν τεχνητή νοημοσύνη εκτός τάξης για εργασίες, οι δάσκαλοι απλώς θα χαμηλώσουν τον πήχη για την ποιότητα, όπως έκαναν όταν τα smartphone και τα μέσα κοινωνικής δικτύωσης άρχισαν να διαβρώνουν τη συνεχή ανάγνωση και την προσοχή. Πολλά ιδρύματα καταφεύγουν σε σαρωτικές απαγορεύσεις ή παραδίδουν το πρόβλημα σε εταιρείες ed-tech, των οποίων οι ανιχνευτές καταγράφουν κάθε πάτημα πλήκτρων και αναπαράγουν πρόχειρα όπως ταινίες. Οι δάσκαλοι εξετάζουν τα χρονοδιαγράμματα της εγκληματολογίας. Οι μαθητές νιώθουν επιτήρηση. Πολύ χρήσιμο για απαγόρευση, η τεχνητή νοημοσύνη γλιστρά υπόγεια σαν λαθρεμπόριο. Η πρόκληση δεν είναι ότι η τεχνητή νοημοσύνη παρέχει ισχυρά επιχειρήματα. τα βιβλία και οι συνομήλικοι το κάνουν επίσης. Το διαφορετικό είναι ότι η τεχνητή νοημοσύνη εισχωρεί στο περιβάλλον, ψιθυρίζοντας συνεχώς προτάσεις στο αυτί του μαθητή. Το αν ο μαθητής απλώς τα επαναλαμβάνει ή τα επεξεργάζεται στο δικό του σκεπτικό είναι κρίσιμο, αλλά οι δάσκαλοι δεν μπορούν να το αξιολογήσουν εκ των υστέρων. Μια ισχυρή εργασία μπορεί να κρύβει εξάρτηση, ενώ μια αδύναμη μπορεί να αντικατοπτρίζει πραγματικό αγώνα. Εν τω μεταξύ, άλλες υπογραφές του συλλογισμού ενός μαθητή—δύστροπες φράσεις που βελτιώνονται κατά τη διάρκεια μιας εργασίας, η ποιότητα των παραπομπών, η γενική ευχέρεια της γραφής— επισκιάζονται επίσης από την τεχνητή νοημοσύνη. Η αποκατάσταση της σύνδεσης μεταξύ διαδικασίας και προϊόντος. προετοιμάζει τους μαθητές να γίνουν υπεύθυνοι επαγγελματίες και ηγέτες. Ακόμα κι αν ήταν επιθυμητή η παράδοση του ελέγχου στην τεχνητή νοημοσύνη, δεν μπορεί να θεωρηθεί υπεύθυνη και οι κατασκευαστές της δεν θέλουν αυτόν τον ρόλο. Η μόνη επιλογή, όπως βλέπω, είναι η προστασία της σύνδεσης μεταξύ του συλλογισμού ενός μαθητή και της εργασίας που τον δημιουργεί. Φανταστείτε μια πλατφόρμα τάξης όπου οι δάσκαλοι θέτουν τους κανόνες για κάθε εργασία, επιλέγοντας πώς μπορεί να χρησιμοποιηθεί η τεχνητή νοημοσύνη. Ένα δοκίμιο φιλοσοφίας μπορεί να εκτελεστεί σε λειτουργία χωρίς τεχνητή νοημοσύνη – οι μαθητές γράφουν σε ένα παράθυρο που απενεργοποιεί την αντιγραφή-επικόλληση και τις εξωτερικές κλήσεις τεχνητής νοημοσύνης, αλλά εξακολουθεί να τους επιτρέπει να αποθηκεύουν πρόχειρα. Ένα έργο κωδικοποίησης μπορεί να επιτρέψει τη βοήθεια AI, αλλά να σταματήσει πριν από την υποβολή για να κάνει σύντομες ερωτήσεις στον μαθητή σχετικά με τον τρόπο λειτουργίας του κώδικά του. Όταν η εργασία αποστέλλεται στον δάσκαλο, το σύστημα εκδίδει μια ασφαλή απόδειξη —μια ψηφιακή ετικέτα, όπως ένας σφραγισμένος φάκελος εξετάσεων— που επιβεβαιώνει ότι δημιουργήθηκε υπό αυτές τις καθορισμένες συνθήκες. Αυτό δεν είναι ανίχνευση: δεν υπάρχει σάρωση αλγορίθμου για δείκτες τεχνητής νοημοσύνης. Και δεν είναι επιτήρηση: καμία καταγραφή με πάτημα πλήκτρων ή κατασκοπεία προσχεδίων. Οι όροι τεχνητής νοημοσύνης της εργασίας ενσωματώνονται στη διαδικασία υποβολής. Εργασίες που δεν πληρούν αυτές τις προϋποθέσεις απλά δεν θα περάσουν, όπως όταν μια πλατφόρμα απορρίπτει έναν μη υποστηριζόμενο τύπο αρχείου. Στο εργαστήριό μου στο Temple University, εφαρμόζουμε πιλοτικά αυτήν την προσέγγιση χρησιμοποιώντας το πρωτόκολλο συγγραφής που έχω αναπτύξει. Στη λειτουργία κύριου ελέγχου συγγραφής, ένας βοηθός τεχνητής νοημοσύνης θέτει σύντομες, συνομιλητικές ερωτήσεις που επαναφέρουν τους μαθητές στη σκέψη τους: «Θα μπορούσατε να επαναλάβετε το κύριο σημείο σας με μεγαλύτερη σαφήνεια;» ή “Υπάρχει καλύτερο παράδειγμα που δείχνει την ίδια ιδέα;” Οι σύντομες, επίκαιρες απαντήσεις και οι επεξεργασίες τους επιτρέπουν στο σύστημα να μετρήσει πόσο καλά ευθυγραμμίζονται οι συλλογισμοί και το τελικό προσχέδιο. Οι προτροπές προσαρμόζονται σε πραγματικό χρόνο στη γραφή κάθε μαθητή, με σκοπό να κάνουν το κόστος της εξαπάτησης υψηλότερο από την προσπάθεια σκέψης. Ο στόχος δεν είναι η βαθμολόγηση ή η αντικατάσταση των δασκάλων, αλλά η επανασύνδεση της εργασίας που κάνουν οι μαθητές με το σκεπτικό που την παρήγαγε. Για τους δασκάλους, αυτό αποκαθιστά την εμπιστοσύνη ότι τα σχόλιά τους προσγειώνονται στην πραγματική συλλογιστική του μαθητή. Για τους μαθητές, οικοδομεί μεταγνωστική επίγνωση, βοηθώντας τους να δουν πότε σκέφτονται πραγματικά και πότε απλώς εκφορτώνουν. Πιστεύω ότι οι δάσκαλοι και οι ερευνητές θα πρέπει να μπορούν να σχεδιάζουν τους δικούς τους ελέγχους συγγραφής, εκδίδοντας ο καθένας μια ασφαλή ετικέτα που πιστοποιεί το έργο που πέρασε από τη διαδικασία της επιλογής τους. εκπαίδευση. Στη δημοσίευση, οι προσπάθειες πιστοποίησης πειραματίζονται ήδη με «ανθρώπινα γραμμένα» γραμματόσημα. Ωστόσο, χωρίς αξιόπιστη επαλήθευση, τέτοιες ετικέτες καταρρέουν σε ισχυρισμούς μάρκετινγκ. Αυτό που πρέπει να επαληθευτεί δεν είναι τα πλήκτρα αλλά ο τρόπος με τον οποίο οι άνθρωποι ασχολούνται με τη δουλειά τους. Αυτό μετατοπίζει το ερώτημα στη γνωστική συγγραφή: όχι εάν ή πόσο χρησιμοποιήθηκε η τεχνητή νοημοσύνη, αλλά πώς η ενσωμάτωσή της επηρεάζει την ιδιοκτησία και τον προβληματισμό. Όπως παρατήρησε πρόσφατα ένας γιατρός, η εκμάθηση του τρόπου ανάπτυξης της τεχνητής νοημοσύνης στον ιατρικό τομέα θα απαιτήσει μια δική της επιστήμη. Το ίδιο ισχύει για κάθε πεδίο που εξαρτάται από την ανθρώπινη κρίση.Βλέπω αυτό το πρωτόκολλο να λειτουργεί ως επίπεδο αλληλεπίδρασης με ετικέτες επαλήθευσης που ταξιδεύουν με την εργασία όπου κι αν πηγαίνει, όπως η μετακίνηση email μεταξύ παρόχων. Θα συμπληρώσει τα τεχνικά πρότυπα για την επαλήθευση της ψηφιακής ταυτότητας και της προέλευσης του περιεχομένου που υπάρχουν ήδη. Η βασική διαφορά είναι ότι τα υπάρχοντα πρωτόκολλα πιστοποιούν το τεχνούργημα και όχι την ανθρώπινη κρίση πίσω από αυτό. Χωρίς να δίνεται στα επαγγέλματα τον έλεγχο του τρόπου χρήσης της τεχνητής νοημοσύνης και να διασφαλίζεται η θέση της ανθρώπινης κρίσης σε εργασίες που υποστηρίζονται από AI, η τεχνολογία AI κινδυνεύει να διαλύσει την εμπιστοσύνη από την οποία εξαρτώνται τα επαγγέλματα και τα πολιτικά ιδρύματα. Το AI δεν είναι απλώς ένα εργαλείο. είναι ένα γνωστικό περιβάλλον που αναδιαμορφώνει τον τρόπο που σκεφτόμαστε. Για να κατοικήσουμε αυτό το περιβάλλον με τους δικούς μας όρους, πρέπει να οικοδομήσουμε ανοιχτά συστήματα που κρατούν την ανθρώπινη κρίση στο επίκεντρο. Ο Έλι Αλσανέτσκι είναι επίκουρος καθηγητής φιλοσοφίας στο Πανεπιστήμιο Temple. Αυτό το άρθρο αναδημοσιεύεται από το The Conversation με άδεια Creative Commons. Διαβάστε το αρχικό άρθρο. Η προθεσμία για τα βραβεία της Fast Company’s World Changing Ideas είναι την Παρασκευή, 14 Νοεμβρίου, στις 11:59 μ.μ. PT. Κάντε αίτηση σήμερα. (tagsTo Translate)Τεχνητή νοημοσύνη
Δημοσιεύτηκε: 2025-11-02 09:30:00
πηγή: www.fastcompany.com









