Η Daniela Amodei του Anthropic πιστεύει ότι η αγορά θα ανταμείψει την ασφαλή τεχνητή νοημοσύνη
Η κυβέρνηση Τραμπ μπορεί να πιστεύει ότι η ρύθμιση ακρωτηριάζει τον κλάδο της τεχνητής νοημοσύνης, αλλά ένας από τους μεγαλύτερους παίκτες του κλάδου δεν συμφωνεί. Στην εκδήλωση Big Interview του WIRED την Πέμπτη, η πρόεδρος και συνιδρύτρια της Anthropic, Daniela Amodei είπε στον εκδότη του WIRED, Steven Levy, ότι παρόλο που ο τσάρος της τεχνητής νοημοσύνης και κρυπτογράφησης του Τραμπ, Ντέιβιντ Σακς, μπορεί να σχολίασε μια ρυθμιστική στρατηγική της εταιρείας ότι «είναι τόσο επιθετική στο Twitter. που προκαλεί φόβο», είναι πεπεισμένη ότι η δέσμευση της εταιρείας της να επικαλεστεί τους πιθανούς κινδύνους της τεχνητής νοημοσύνης κάνει τη βιομηχανία ισχυρότερη. «Ήμασταν πολύ φωνές από την πρώτη μέρα που αισθανθήκαμε ότι υπήρχε αυτή η απίστευτη δυνατότητα» για την τεχνητή νοημοσύνη, είπε ο Amodei. “Θέλουμε πραγματικά να μπορέσουμε να συνειδητοποιήσουμε ολόκληρο τον κόσμο τις δυνατότητες, τα θετικά οφέλη και τα οφέλη που μπορεί να προκύψουν από την τεχνητή νοημοσύνη, και για να γίνει αυτό, πρέπει να διορθώσουμε τα δύσκολα πράγματα. Πρέπει να κάνουμε τους κινδύνους διαχειρίσιμους. Και γι’ αυτό το συζητάμε τόσο πολύ”. Όσον αφορά τις συναλλαγές με αυτές τις μάρκες, έμαθε ότι, ενώ οι πελάτες θέλουν το AI τους να μπορεί να κάνει σπουδαία πράγματα, θέλουν επίσης να είναι αξιόπιστο και ασφαλές. «Κανείς δεν λέει, «Θέλουμε ένα λιγότερο ασφαλές προϊόν», είπε η Amodei, παρομοιάζοντας την αναφορά της Anthropic για τα όρια και τα jailbreak του μοντέλου με εκείνη μιας εταιρείας αυτοκινήτων που δημοσίευσε μελέτες δοκιμών σύγκρουσης. Μπορεί να φαίνεται σοκαριστικό να βλέπεις ένα ομοίωμα δοκιμής σύγκρουσης να πετάει μέσα από ένα παράθυρο αυτοκινήτου σε ένα βίντεο, αλλά μαθαίνοντας ότι μια αυτοκινητοβιομηχανία ενημέρωσε τα χαρακτηριστικά ασφαλείας του οχήματός της ως αποτέλεσμα αυτής της δοκιμής θα μπορούσε να πουλήσει έναν αγοραστή σε ένα αυτοκίνητο. Η Amodei είπε ότι το ίδιο ισχύει και για εταιρείες που χρησιμοποιούν προϊόντα τεχνητής νοημοσύνης της Anthropic, δημιουργώντας μια αγορά που είναι κάπως αυτορυθμιζόμενη. «Θέτουμε αυτά που μπορείτε σχεδόν να σκεφτείτε ως ελάχιστα πρότυπα ασφαλείας μόνο με αυτά που προσφέρουμε στην οικονομία», είπε. Οι εταιρείες «δημιουργούν τώρα πολλές ροές εργασίας και καθημερινές εργασίες εργαλείων γύρω από την τεχνητή νοημοσύνη, και λένε, «Λοιπόν, γνωρίζουμε ότι αυτό το προϊόν δεν έχει τόσο παραισθήσεις, δεν παράγει επιβλαβές περιεχόμενο και δεν κάνει όλα αυτά τα κακά πράγματα». Γιατί να πάτε με έναν ανταγωνιστή που θα έχει χαμηλότερο σκορ σε αυτό;» Φωτογραφία: Annie Noelker
Δημοσιεύτηκε: 2025-12-04 21:40:00
πηγή: www.wired.com







