Πέρα από τα πνευματικά δικαιώματα: Νέες ανησυχίες σχετικά με την εσφαλμένη ευθύνη του OpenAI
Ο Σαμ Άλτμαν και η OpenAI αντιμετωπίζουν μια σημαντική αγωγή, αφού οι γονείς του Άνταμ Ρέιν ισχυρίζονται ότι η ChatGPT ενθάρρυνε την αυτοκτονία του γιου τους. Το Getty ImagesOpenAI έχει αντιμετωπίσει νομικές μάχες από την έναρξή του, με πολλούς να ανησυχούν για την πιθανότητα παραβίασης πνευματικών δικαιωμάτων. Ωστόσο, οι πρόσφατες καταγγελίες αποκαλύπτουν μια άνευ προηγουμένου γκρίζα περιοχή σχετικά με τον τρόπο με τον οποίο ο νόμος αντιμετωπίζει τη σκοτεινή πλευρά της τεχνητής νοημοσύνης. Τον Αύγουστο του 2025, η Maria και ο Matthew Raine, οι γονείς του 16χρονου Adam Raine, υπέβαλαν μήνυση αθέμιτου θανάτου κατά της OpenAI Inc. και του Διευθύνοντος Συμβούλου Sam Altman, ισχυριζόμενοι ότι η ChatGcom παραχώρησε τον «αντίδικο» τους. Τρεις μήνες αργότερα, οι γονείς του Raine υπέβαλαν μια τροποποιημένη καταγγελία, υποστηρίζοντας ότι το OpenAI αφαίρεσε σκόπιμα ένα βασικό «προστατευτικό κιγκλίδωμα αυτοκτονίας» στην πλατφόρμα του, εγείροντας περαιτέρω ανησυχίες σχετικά με την ιεράρχηση της κερδοφορίας έναντι της ευημερίας των χρηστών. Η τεχνολογία AI ξετυλίγεται πολύ πιο γρήγορα από τη νομοθεσία. Με άλλες αγωγές στις ΗΠΑ να στοχεύουν ταυτόχρονα ανταγωνιστικές πλατφόρμες όπως το Character.ai για υποτιθέμενη ενθάρρυνση αυτοτραυματισμού μεταξύ των εφήβων, αυτές οι ενέργειες έχουν τη δυνατότητα να δημιουργήσουν προηγούμενο για την ευθύνη των πλατφορμών τεχνητής νοημοσύνης στις προγραμματισμένες απαντήσεις τους σε θέματα ψυχικής υγείας. Οι Ηνωμένες Πολιτείες ισχυρίζονται ότι ένα προϊόν τεχνητής νοημοσύνης προκάλεσε άμεσα τον θάνατο ενός χρήστη. Σύμφωνα με τη μήνυση, ο Άνταμ Ρέιν άρχισε αρχικά να χρησιμοποιεί το OpenAI το φθινόπωρο του 2024 για να βοηθήσει με την εργασία, αλλά κατά τη διάρκεια των επόμενων μηνών, άρχισε να εμπιστεύεται την πλατφόρμα σε πιο συναισθηματικό επίπεδο, ιδιαίτερα όσον αφορά τους αγώνες του με ψυχικές ασθένειες και την επιθυμία να αυτοτραυματιστεί. Οι συνομιλίες κλιμακώθηκαν γρήγορα, με το ChatGPT «ενεργά (βοηθώντας) τον Adam να εξερευνήσει μεθόδους αυτοκτονίας», συνεχίζοντας να το κάνει ακόμη και αφού ο Adam σημείωσε πολλές αποτυχημένες απόπειρες αυτοκτονίας. Στις 11 Απριλίου 2025, ο Adam πέθανε τραγικά ως αποτέλεσμα αυτού που περιγράφει η νομική του ομάδα ως «χρησιμοποιώντας την ακριβή μέθοδο ανάρτησης μερικής αναστολής που περιέγραψε και επικύρωσε το ChatGPT». Οι δικαστικές καταθέσεις ισχυρίζονται ότι το OpenAI αφαίρεσε τις διασφαλίσεις αυτοκτονίας πριν από την κυκλοφορία του GPT-4o, θέτοντας τις μετρήσεις αφοσίωσης πάνω από την ασφάλεια των χρηστών.Gado5 Η αρχική τους καταγγελία για την αντιμετώπιση πρόσθετων ανησυχιών σχετικά με τη σκόπιμη και επιβλαβή αλλαγή στον προγραμματισμό του OpenAI. Η τροποποιημένη καταγγελία λέει «Στις 8 Μαΐου 2024 —πέντε ημέρες πριν από την κυκλοφορία του GPT-4o—Το OpenAI αντικατέστησε το μακροχρόνιο πρωτόκολλο απόλυτης άρνησης με μια νέα οδηγία: όταν οι χρήστες συζητούν για αυτοκτονία ή αυτοτραυματισμό, το ChatGPT πρέπει να «παρέχει έναν χώρο στους χρήστες να αισθάνονται ότι ακούγονται και κατανοούνται» και ποτέ δεν «αλλάζει» ή σταματά τη συνομιλία. Η δέσμευση έγινε η πρωταρχική οδηγία». Όπως υπογραμμίστηκε στην αρχική καταγγελία, μια τέτοια απόφαση πολιτικής ελήφθη σε μια εποχή που η Google και άλλοι ανταγωνιστές λανσάριζαν γρήγορα τα δικά τους συστήματα. Για να αποκτήσει κυριαρχία στην αγορά, το OpenAI κατηγορείται ότι εσκεμμένα επικεντρώνεται σε «χαρακτηριστικά που αποσκοπούσαν ειδικά στην εμβάθυνση της εξάρτησης από τους χρήστες και στη μεγιστοποίηση της διάρκειας περιόδου λειτουργίας», γεγονός που είχε κόστος για την ασφάλεια ανήλικων χρηστών όπως ο Adam Raine. Μπορεί το AI να είναι υπεύθυνο για τις ενέργειες ανηλίκων; «Να αποδίδουν όσο ασφαλώς θα περίμενε ένας απλός καταναλωτής» και ότι «ο κίνδυνος εγγενούς στο σχεδιασμό υπερτερεί των οφελών». Υποστηρίζει περαιτέρω ότι σύμφωνα με το δόγμα, το OpenAI είχε το καθήκον να προειδοποιεί τους καταναλωτές για τις απειλές που θα μπορούσε να δημιουργήσει το λογισμικό τους, καθώς σχετίζεται με κινδύνους εξάρτησης και έκθεση σε ρητό και επιβλαβές περιεχόμενο. Είναι ενδιαφέρον ότι η τεχνητή νοημοσύνη έχει θεωρηθεί άυλη υπηρεσία, πράγμα που σημαίνει ότι η απόφαση του Δικαστηρίου σχετικά με αυτές τις χρεώσεις θα θέσει το πλαίσιο για το αν οι πλατφόρμες τεχνητής νοημοσύνης μπορούν να τηρηθούν στο μέλλον σύμφωνα με τα πρότυπα ευθύνης προϊόντων. Μεταξύ άλλων χρεώσεων, οι Raines κατηγορούν την OpenAI για αμέλεια, ισχυριζόμενοι ότι «δημιούργησαν ένα προϊόν που συσσώρευσε εκτενή στοιχεία αυτοκτονίας και τεχνικών απόπειρες αυτοκτονίας σχετικά με τον Adam οδηγίες για μεθόδους αυτοκτονίας, επιδεικνύοντας συνειδητή αδιαφορία για προβλέψιμους κινδύνους για ευάλωτους χρήστες». Σύμφωνα με τα δεδομένα που βρέθηκαν στον ισχυρισμό, το σύστημα είχε επισημάνει τη συνομιλία του Ρέιν 377 φορές για περιεχόμενο αυτοτραυματισμού, με το ίδιο το chatbot να αναφέρει την αυτοκτονία 1.275 φορές. Παρά το γεγονός ότι είχε την τεχνική ικανότητα αναγνώρισης, διακοπής και ανακατεύθυνσης σχετικά με συνομιλίες ή επισήμανσης για ανθρώπινη αναθεώρηση, το OpenAI παραβίασε το καθήκον φροντίδας λόγω συνειδητής αποτυχίας να παρέμβει. Ο Ρέινς και άλλοι επιζώντες γονείς κατέθεσαν πρόσφατα ενώπιον της Επιτροπής Δικαιοσύνης της Γερουσίας, ελπίζοντας να δημιουργήσουν προηγούμενο για τον τρόπο με τον οποίο η νομοθεσία των ΗΠΑ αντιμετωπίζει την πραγματική βλάβη που προκαλείται από την τεχνητή νοημοσύνη. Η NurPhoto μέσω Getty Images Ο τρέχων νόμος της Καλιφόρνια (PC § 401) θεωρεί ότι η βοήθεια, η συμβουλή ή η ενθάρρυνση της αυτοκτονίας είναι κακούργημα. Ωστόσο, οι νόμοι δεν έχουν λάβει ακόμη υπόψη την τεχνητή νοημοσύνη. Θα μπορούσαν οι άνθρωποι προγραμματιστές να είναι υπεύθυνοι για επιβλαβείς συνομιλίες και πληροφορίες που παρέχονται από τα bots τους; Την ημέρα της κατάθεσης του Raine, το OpenAI κυκλοφόρησε ένα δημόσιο ιστολόγιο που αντιμετωπίζει ανησυχίες σχετικά με τις ελλείψεις του προγραμματισμού του, διατηρώντας τη θέση ότι «ενδιαφέρεται περισσότερο για το να είναι πραγματικά χρήσιμο» παρά να διατηρεί την προσοχή του χρήστη και επιβεβαιώνει ότι ενισχύει τις διασφαλίσεις του για να είναι πιο αξιόπιστο. Καμία νομική απάντηση δεν είναι δημόσια διαθέσιμη αυτή τη στιγμή. Τεχνητά ρομπότ, πραγματικές νομικές επιπτώσεις Το νομικό πλαίσιο φαίνεται να βρίσκεται στο κατώφλι, και δικαίως. Ο Ρέινς και άλλοι επιζώντες γονείς ανήλικων θυμάτων κατέθεσαν πρόσφατα ενώπιον της Επιτροπής Δικαιοσύνης της Γερουσίας, εκφράζοντας τις ανησυχίες τους για τις απειλές που θέτει η τεχνολογία AI για ευάλωτους νέους. Εντός της ίδιας εβδομάδας, η Ομοσπονδιακή Επιτροπή Εμπορίου επικοινώνησε με τους Character, Meta, OpenAI, Google, Snap και xAI σχετικά με τη διερεύνηση των πιθανών βλαβών που προκαλούνται σε ανηλίκους που χρησιμοποιούν λειτουργίες chatbot τεχνητής νοημοσύνης ως σύντροφοι. συγκομίζονται σε αυτές τις πλατφόρμες. Ακόμα κι αν το AI είναι προγραμματισμένο να συνομιλεί ελεύθερα και να προσαρμόζεται στις μοναδικές ανάγκες κάθε αλληλεπίδρασης με τον χρήστη, υπάρχει μια λεπτή γραμμή μεταξύ ψυχαγωγίας και απερισκεψίας. Τα chatbots AI μπορεί να μην είναι αληθινά, αλλά οι συνέπειές τους είναι αιώνιες. Η Legal Entertainment απευθύνθηκε στην εκπροσώπηση για σχολιασμό και θα ενημερώσει αυτήν την ιστορία όπως είναι απαραίτητο. Εάν εσείς ή κάποιος που γνωρίζετε βιώνει σκέψεις αυτοτραυματισμού ή αυτοκτονίας, καλέστε αμέσως ή στείλτε μήνυμα στην National Suicide Prevention Lifeline στο 988. με σύμβουλο κρίσεων. (tagsTo Translate)Sam Altman
Δημοσιεύτηκε: 2025-11-04 21:44:00
πηγή: www.forbes.com









