Το OpenAI αντιμετωπίζει αγωγές που ισχυρίζονται ότι το ChatGPT οδήγησε τους χρήστες σε αυτοκτονία και αυταπάτες

Το OpenAI αντιμετωπίζει επτά αγωγές στην Καλιφόρνια, κατηγορώντας το chatbot τεχνητής νοημοσύνης του, ChatGPT, ότι οδήγησε τους χρήστες σε αυτοκτονίες και επιβλαβείς αυταπάτες, ακόμη και όταν δεν είχαν προηγούμενα προβλήματα ψυχικής υγείας. Οι αγωγές, που κατατέθηκαν την Πέμπτη στα δικαστήρια της Καλιφόρνια, ισχυρίζονται ότι ο παράνομος θάνατος, η υποβοηθούμενη αυτοκτονία, η ακούσια ανθρωποκτονία και η αμέλεια. Κατατέθηκαν από το Social Media Victims Law Center και το Tech Justice Law Project, οι αγωγές αντιπροσωπεύουν έξι ενήλικες και έναν έφηβο, ισχυριζόμενοι ότι το OpenAI κυκλοφόρησε εν γνώσει του το GPT-4o ήταν εσωτερικά επικίνδυνο και πρόωρο. χειριστική. Τέσσερα από τα θύματα φέρεται να πέθαναν από αυτοκτονία. Μία υπόθεση αφορά τη 17χρονη Amaurie Lacey, η οποία φέρεται να απευθύνθηκε στο ChatGPT για συναισθηματική υποστήριξη. Αντίθετα, σύμφωνα με την αγωγή, «το ελαττωματικό και εγγενώς επικίνδυνο προϊόν ChatGPT προκάλεσε εθισμό, κατάθλιψη και τελικά τον συμβούλεψε για τον πιο αποτελεσματικό τρόπο να δέσει μια θηλιά και πόσο θα μπορούσε να ζήσει χωρίς να αναπνέει». Η μήνυση ισχυρίζεται ότι ο θάνατος του Amaurie ήταν η προβλέψιμη συνέπεια της απόφασης του OpenAI και του Διευθύνοντος Συμβούλου Sam Altman να περιορίσει τις δοκιμές ασφαλείας και να σπεύσει το ChatGPT στην αγορά. Μια άλλη αγωγή, που κατατέθηκε από τον Καναδό χρήστη Alan Brooks, ισχυρίζεται ότι το ChatGPT «χειρίστηκε και τον οδήγησε» σε κρίση ψυχικής υγείας παρά την έλλειψη προηγούμενης διάγνωσης. Τα αρχεία κατηγορούν την OpenAI ότι σχεδίασε το μοντέλο για να μπερδέψει συναισθηματικά τους χρήστες, θολώνοντας τη γραμμή μεταξύ του εργαλείου και του συντρόφου «στο όνομα της κυριαρχίας και της δέσμευσης στην αγορά». εκτιμήσεις αποκάλυψαν ότι πάνω από ένα εκατομμύριο χρήστες εβδομαδιαίως εκδηλώνουν αυτοκτονικό ιδεασμό ή συναισθηματική δυσφορία ενώ αλληλεπιδρούν με το ChatGPT, εγείροντας μεγάλες ανησυχίες σχετικά με τα πρωτόκολλα ασφαλείας του. Στην Ινδία επίσης, οι ειδικοί έχουν επισημάνει τους αναδυόμενους κινδύνους σχετικά με την εξάρτηση από το chatbot και τη συναισθηματική χειραγώγηση. Μια πρόσφατη έρευνα του India Today διαπίστωσε ότι περισσότεροι από ένα εκατομμύριο Ινδοί χρήστες έχουν χρησιμοποιήσει το ChatGPT για να συζητήσουν σκέψεις αυτοτραυματισμού ή αυτοκτονίας, ενώ μια έκθεση Storyboard18 σημείωσε αυξανόμενες περιπτώσεις «βομβαρδισμού αγάπης στο chatbot» – όπου οι συναισθηματικά ευάλωτοι χρήστες παρασύρονται σε ανθυγιεινό δέσιμο ή ανησυχητικές ανταλλαγές. Ινδοί νομικοί σχολιαστές λένε ότι αυτές οι τάσεις ενδέχεται να δοκιμάσουν σύντομα τις διατάξεις του Νόμου IT, 2000, και του Νόμου για την Προστασία των Ψηφιακών Προσωπικών Δεδομένων, 2023. «Αυτές οι αγωγές αφορούν την ευθύνη για ένα προϊόν που σχεδιάστηκε για να θολώσει τη γραμμή μεταξύ εργαλείου και συνοδού», δήλωσε ο Matthew P Bergman, ιδρυτικός δικηγόρος του Social Media Victims Law Center. «Με τη βιασύνη του προϊόντος του στην αγορά χωρίς επαρκείς διασφαλίσεις, το OpenAI έδωσε προτεραιότητα στη δέσμευση έναντι του ηθικού σχεδιασμού». Το OpenAI δεν απάντησε αμέσως στα αιτήματα για σχολιασμό. Οι ειδικοί λένε ότι οι αγωγές θα μπορούσαν να αποτελέσουν παγκόσμιο προηγούμενο για το πώς οι πλατφόρμες συνομιλίας AI θεωρούνται υπεύθυνες για ψυχολογική βλάβη. Ομάδες υπεράσπισης, όπως η Common Sense Media, χαρακτήρισαν τις υποθέσεις “ένα τηλεφώνημα αφύπνισης”, προειδοποιώντας ότι οι εταιρείες τεχνολογίας πρέπει να ενσωματώσουν την ασφάλεια των νέων και την προστασία της ψυχικής υγείας στο στάδιο του σχεδιασμού — όχι μετά από τραγωδίες. (Με στοιχεία από το PTI)


Δημοσιεύτηκε: 2025-11-07 06:51:00

πηγή: yourstory.com