Η εταιρεία AI ισχυρίζεται ότι οι Κινέζοι κατάσκοποι χρησιμοποίησαν την τεχνολογία της για να αυτοματοποιήσουν τις επιθέσεις στον κυβερνοχώρο
| presscode.gr

Η εταιρεία AI ισχυρίζεται ότι οι Κινέζοι κατάσκοποι χρησιμοποίησαν την τεχνολογία της για να αυτοματοποιήσουν τις επιθέσεις στον κυβερνοχώρο

Οι κατασκευαστές του chatbot τεχνητής νοημοσύνης (AI) Claude ισχυρίζονται ότι έχουν πιάσει χάκερ που χρηματοδοτούνται από την κινεζική κυβέρνηση χρησιμοποιώντας το εργαλείο για την εκτέλεση αυτοματοποιημένων επιθέσεων στον κυβερνοχώρο εναντίον περίπου 30 παγκόσμιων οργανισμών. Η Anthropic είπε ότι οι χάκερ ξεγέλασαν το chatbot για να εκτελέσει αυτοματοποιημένες εργασίες υπό το πρόσχημα της διενέργειας έρευνας για την ασφάλεια στον κυβερνοχώρο. εκστρατεία κατασκοπείας”.Αλλά οι σκεπτικιστές αμφισβητούν την ακρίβεια αυτού του ισχυρισμού – και το κίνητρο πίσω από αυτόν. Η Anthropic είπε ότι ανακάλυψε τις απόπειρες hacking στα μέσα Σεπτεμβρίου. Προσποιούμενοι ότι ήταν νόμιμοι υπάλληλοι ασφάλειας στον κυβερνοχώρο, οι χάκερ έδωσαν στο chatbot μικρές αυτοματοποιημένες εργασίες, οι οποίες, όταν συνενώθηκαν, σχημάτισαν μια καμπάνια σοφιστών. Οι άνθρωποι που διεξήγαγαν τις επιθέσεις ήταν “μια ομάδα υποστηριζόμενη από το κινεζικό κράτος”. Είπαν ότι οι άνθρωποι επέλεξαν τους στόχους – μεγάλες εταιρείες τεχνολογίας, χρηματοπιστωτικά ιδρύματα, εταιρείες παραγωγής χημικών και κυβερνητικές υπηρεσίες – αλλά η εταιρεία δεν θα ήταν πιο συγκεκριμένη. Στη συνέχεια, οι χάκερ κατασκεύασαν ένα απροσδιόριστο πρόγραμμα χρησιμοποιώντας την κωδικοποίηση του Claude με μια μικρή βοήθεια που επιλέχθηκε με τον ανθρώπινο στόχο. Το chatbot μπόρεσε να παραβιάσει με επιτυχία διάφορους ανώνυμους οργανισμούς, να εξάγει ευαίσθητα δεδομένα και να τα ταξινομήσει για πολύτιμες πληροφορίες. Η εταιρεία είπε ότι έκτοτε απαγόρευσε στους χάκερ να χρησιμοποιήσουν το chatbot και είχε ενημερώσει τις επηρεαζόμενες εταιρείες και τις αρχές επιβολής του νόμου. Αλλά ο Martin Zugec από την εταιρεία κυβερνοχώρου Bitdefender είπε ότι ο κόσμος της κυβερνοασφάλειας είχε ανάμεικτα συναισθήματα σχετικά με τα νέα. «Η έκθεση του Anthropic κάνει τολμηρούς, κερδοσκοπικούς ισχυρισμούς, αλλά δεν παρέχει επαληθεύσιμα στοιχεία πληροφοριών απειλών», είπε. “Ενώ η έκθεση υπογραμμίζει έναν αυξανόμενο τομέα ανησυχίας, είναι σημαντικό για εμάς να λάβουμε όσο το δυνατόν περισσότερες πληροφορίες για το πώς συμβαίνουν αυτές οι επιθέσεις, ώστε να μπορούμε να αξιολογήσουμε και να καθορίσουμε τον πραγματικό κίνδυνο επιθέσεων με τεχνητή νοημοσύνη.” Οι χάκερ εθνικών κρατών έχουν χρησιμοποιήσει τα προϊόντα τους. Τον Φεβρουάριο του 2024, το OpenAI δημοσίευσε μια ανάρτηση ιστολογίου σε συνεργασία με ειδικούς στον κυβερνοχώρο από τη Microsoft λέγοντας ότι είχε διαταράξει πέντε κρατικούς παράγοντες, συμπεριλαμβανομένων ορισμένων από την Κίνα. κατέληξε στο συμπέρασμα ότι οι χάκερ σε αυτήν την τελευταία καμπάνια συνδέονταν με την κινεζική κυβέρνηση. Έρχεται καθώς ορισμένες εταιρείες ασφάλειας στον κυβερνοχώρο έχουν επικριθεί για υπερβολικές υποθέσεις όπου η τεχνητή νοημοσύνη χρησιμοποιήθηκε από χάκερ. Οι επικριτές λένε ότι η τεχνολογία είναι ακόμα πολύ δυσκίνητη για να χρησιμοποιηθεί για αυτοματοποιημένες επιθέσεις στον κυβερνοχώρο. λογισμικό.Όμως η εφημερίδα κατέληξε στο συμπέρασμα ότι τα εργαλεία δεν ήταν τόσο επιτυχημένα – και ήταν μόνο σε φάση δοκιμών. Ο κλάδος της ασφάλειας στον κυβερνοχώρο, όπως και η επιχείρηση τεχνητής νοημοσύνης, θέλει να πει ότι οι χάκερ χρησιμοποιούν την τεχνολογία για να στοχεύσουν εταιρείες προκειμένου να τονώσουν το ενδιαφέρον για τα δικά τους προϊόντα. ζωτικής σημασίας για την άμυνα στον κυβερνοχώρο», ισχυρίστηκε η εταιρεία. Και η Anthropic παραδέχτηκε ότι το chatbot της έκανε λάθη. Για παράδειγμα, έφτιαξε πλαστά ονόματα χρήστη και κωδικούς πρόσβασης και ισχυρίστηκε ότι εξήγαγε μυστικές πληροφορίες που ήταν στην πραγματικότητα διαθέσιμες στο κοινό.”


Δημοσιεύτηκε: 2025-11-14 12:16:00

πηγή: www.bbc.com