Οι σουηδικές αρχές κοινωνικής πρόνοιας ανέστειλαν το μοντέλο τεχνητής νοημοσύνης που εισάγει διακρίσεις
Ένα μοντέλο τεχνητής νοημοσύνης που εισάγει διακρίσεις (AI) που χρησιμοποιείται από την υπηρεσία κοινωνικής ασφάλισης της Σουηδίας για την επισήμανση ατόμων για έρευνες απάτης παροχών έχει ανασταλεί, μετά από παρέμβαση της Αρχής Προστασίας Δεδομένων της χώρας (IMY). Ξεκινώντας τον Ιούνιο του 2025, η εμπλοκή του IMY προκλήθηκε μετά από μια κοινή έρευνα από την Lighthouse Reports και την Svenska Dagbladet (SvB) τον Νοέμβριο του 2024 αποκάλυψε ότι ένα σύστημα μηχανικής μάθησης (ML) που χρησιμοποιούνταν από την Försäkringskassan, την Υπηρεσία Κοινωνικών Ασφαλίσεων της Σουηδίας, ήταν δυσανάλογα και εσφαλμένα για περαιτέρω έρευνα για ορισμένες κοινωνικές παροχές. Αυτό περιελάμβανε γυναίκες, άτομα με «ξένο» υπόβαθρο, άτομα με χαμηλό εισόδημα και άτομα χωρίς πανεπιστημιακά πτυχία. Τα μέσα ενημέρωσης διαπίστωσαν επίσης ότι το ίδιο σύστημα ήταν σε μεγάλο βαθμό αναποτελεσματικό στον εντοπισμό ανδρών και πλουσίων που στην πραγματικότητα είχαν διαπράξει κάποιου είδους απάτη στην κοινωνική ασφάλιση. Αυτά τα ευρήματα ώθησαν τη Διεθνή Αμνηστία να ζητήσει δημόσια την άμεση διακοπή του συστήματος τον Νοέμβριο του 2024, το οποίο περιέγραψε τότε ως «απανθρωπιστικό» και «παρόμοιο με κυνήγι μαγισσών». Καθιερώθηκε από την Försäkringskassan το 2013, το σύστημα που βασίζεται σε ML εκχωρεί βαθμολογίες κινδύνου στους αιτούντες κοινωνική ασφάλιση, οι οποίες στη συνέχεια ενεργοποιούν αυτόματα μια έρευνα εάν η βαθμολογία κινδύνου είναι αρκετά υψηλή. Σύμφωνα με ένα ιστολόγιο που δημοσιεύτηκε από το IMY στις 18 Νοεμβρίου 2025, η Försäkringskassan χρησιμοποιούσε ειδικά το σύστημα για να πραγματοποιήσει στοχευμένους ελέγχους σε αποδέκτες προσωρινών επιδομάτων διατροφής παιδιών – τα οποία έχουν σχεδιαστεί για να αποζημιώνουν τους γονείς για άδεια από την εργασία όταν πρέπει να φροντίσουν τα άρρωστα παιδιά τους – αλλά το απέσυρε κατά τη διάρκεια της έρευνας των Αρχών. «Ενώ η επιθεώρηση ήταν σε εξέλιξη, η Σουηδική Υπηρεσία Κοινωνικών Ασφαλίσεων έθεσε εκτός χρήσης το σύστημα AI», δήλωσε ο δικηγόρος του IMY Måns Lysén. “Δεδομένου ότι το σύστημα δεν χρησιμοποιείται πλέον και οι κίνδυνοι με το σύστημα έχουν σταματήσει, εκτιμήσαμε ότι μπορούμε να κλείσουμε την υπόθεση. Τα προσωπικά δεδομένα επεξεργάζονται ολοένα και περισσότερο με AI, επομένως είναι ευπρόσδεκτο να αναγνωρίζεται και να συζητείται αυτή η χρήση. Τόσο οι αρχές όσο και άλλοι πρέπει να διασφαλίσουν ότι η χρήση τεχνητής νοημοσύνης συμμορφώνεται με τον κανονισμό (Γενικός Κανονισμός Προστασίας Δεδομένων) GDPR και τίθεται σταδιακά σε ισχύ ο κανονισμός AI.” Το IMY πρόσθεσε ότι η Försäkringskassan «δεν σχεδιάζει επί του παρόντος να επαναλάβει το τρέχον προφίλ κινδύνου». Σύμφωνα με τον νόμο AI της Ευρωπαϊκής Ένωσης, ο οποίος τέθηκε σε ισχύ την 1η Αυγούστου 2024, η χρήση συστημάτων τεχνητής νοημοσύνης από τις δημόσιες αρχές για τον καθορισμό της πρόσβασης σε βασικές δημόσιες υπηρεσίες και παροχές πρέπει να πληροί αυστηρούς τεχνικούς κανόνες, κανόνες διαφάνειας και διακυβέρνησης, συμπεριλαμβανομένης της υποχρέωσης από τους προγραμματιστές να διενεργούν αξιολόγηση των κινδύνων για τα ανθρώπινα δικαιώματα και να εγγυώνται ότι υπάρχουν μέτρα μετριασμού πριν από τη χρήση τους. Απαγορεύονται συγκεκριμένα συστήματα που θεωρούνται εργαλεία κοινωνικής βαθμολόγησης. Το Computer Weekly επικοινώνησε με την Försäkringskassan σχετικά με την αναστολή του συστήματος και γιατί επέλεξε να διακόψει πριν ολοκληρωθεί η επιθεώρηση του IMY. «Διακόψαμε τη χρήση του προφίλ αξιολόγησης κινδύνου για να αξιολογήσουμε εάν συμμορφώνεται με τον νέο ευρωπαϊκό κανονισμό για την τεχνητή νοημοσύνη», δήλωσε ένας εκπρόσωπος. «Αυτή τη στιγμή δεν σκοπεύουμε να το επαναφέρουμε σε χρήση, καθώς λαμβάνουμε πλέον δεδομένα απουσιών από τους εργοδότες μεταξύ άλλων δεδομένων, τα οποία αναμένεται να παρέχουν σχετικά καλή ακρίβεια». Η Försäkringskassan δήλωσε στο Computer Weekly τον Νοέμβριο του 2024 ότι «το σύστημα λειτουργεί σε πλήρη συμμόρφωση με τη σουηδική νομοθεσία» και ότι οι αιτούντες που δικαιούνται παροχές «θα τα λάβουν ανεξάρτητα από το αν η αίτησή τους επισημάνθηκε». Απαντώντας στους ισχυρισμούς των Lighthouse και SvB ότι η υπηρεσία δεν ήταν πλήρως διαφανής σχετικά με την εσωτερική λειτουργία του συστήματος, η Försäkringskassan πρόσθεσε ότι «η αποκάλυψη των ιδιαιτεροτήτων του τρόπου λειτουργίας του συστήματος θα μπορούσε να επιτρέψει στα άτομα να παρακάμψουν τον εντοπισμό». Παρόμοια συστήματα Παρόμοια συστήματα που βασίζονται σε τεχνητή νοημοσύνη που χρησιμοποιούνται από άλλες χώρες για τη διανομή οφελών ή τη διερεύνηση της απάτης έχουν αντιμετωπίσει παρόμοια προβλήματα. Τον Νοέμβριο του 2024, για παράδειγμα, η Διεθνής Αμνηστία αποκάλυψε πώς τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιούνται από την υπηρεσία πρόνοιας της Δανίας δημιουργούν καταστροφική μαζική παρακολούθηση, διακινδυνεύοντας διακρίσεις σε βάρος ατόμων με αναπηρία, φυλετικών ομάδων, μεταναστών και προσφύγων. Στο Ηνωμένο Βασίλειο, μια εσωτερική αξιολόγηση από το Υπουργείο Εργασίας και Συντάξεων (DWP) – που δημοσιεύθηκε βάσει των κανόνων για την Ελευθερία της Πληροφόρησης (FoI) στο Public Law Project – διαπίστωσε ότι ένα σύστημα ML που χρησιμοποιήθηκε για τον έλεγχο χιλιάδων πληρωμών καθολικής πίστωσης εμφάνιζε «στατιστικά σημαντικές» διαφορές κατά την επιλογή του ποιου θα ερευνούσε για πιθανή απάτη. Πραγματοποιήθηκε τον Φεβρουάριο του 2024, η αξιολόγηση έδειξε ότι υπάρχει «στατιστικά σημαντική παραπομπή … και διαφορά αποτελέσματος για όλα τα προστατευμένα χαρακτηριστικά που αναλύθηκαν», η οποία περιελάμβανε την ηλικία, την αναπηρία, την οικογενειακή κατάσταση και την εθνικότητα των ατόμων. Ομάδες πολιτικών δικαιωμάτων επέκριναν αργότερα το DWP τον Ιούλιο του 2025 για «ανησυχητική έλλειψη διαφάνειας» σχετικά με τον τρόπο με τον οποίο ενσωματώνει την τεχνητή νοημοσύνη σε όλο το σύστημα κοινωνικής ασφάλισης του Ηνωμένου Βασιλείου, το οποίο χρησιμοποιείται για τον καθορισμό της καταλληλότητας των ατόμων για συστήματα κοινωνικής ασφάλισης, όπως η καθολική πίστωση ή η πληρωμή προσωπικής ανεξαρτησίας. Σε ξεχωριστές εκθέσεις που δημοσιεύθηκαν περίπου την ίδια περίοδο, τόσο η Διεθνής Αμνηστία όσο και το Big Brother Watch τόνισαν τους σαφείς κινδύνους μεροληψίας που σχετίζονται με τη χρήση της τεχνητής νοημοσύνης σε αυτό το πλαίσιο και πώς η τεχνολογία μπορεί να επιδεινώσει προϋπάρχοντα αποτελέσματα διακρίσεων στο σύστημα παροχών του ΗΒ.
Δημοσιεύτηκε: 2025-11-20 09:45:00
πηγή: www.computerweekly.com








