Το μοντέλο AI προβλέπει ποια σύντομα βίντεο σε μεγάλες πλατφόρμες θα μπορούσαν να πυροδοτήσουν σκέψεις αυτοκτονίας
Credit: Unsplash/CC0 Public Domain Μια νέα μελέτη που δημοσιεύτηκε στο Information Systems Research διαπιστώνει ότι ορισμένα βίντεο σύντομης μορφής σε μεγάλες πλατφόρμες μπορούν να προκαλέσουν αυτοκτονικές σκέψεις σε ευάλωτους θεατές και ότι ένα μοντέλο τεχνητής νοημοσύνης που αναπτύχθηκε πρόσφατα μπορεί να επισημάνει αυτά τα βίντεο υψηλού κινδύνου προτού διαδοθούν. Η έρευνα παρέχει ένα από τα πρώτα ιατρικά ενημερωμένα εργαλεία για την ανίχνευση βλαβών που σχετίζονται με αυτοκτονία σε πραγματικό χρόνο, δίνοντας στις πλατφόρμες ένα σαφέστερο σήμα έγκαιρης προειδοποίησης σε μια στιγμή που αυξάνονται οι ανησυχίες για την ψυχική υγεία των νέων και ο έλεγχος της ασφάλειας της πλατφόρμας εντείνεται. Η μελέτη διεξήχθη από τους Jiaheng Xie του Πανεπιστημίου του Delaware, Yidong Chai του Hefei University of Technology και City University του Χονγκ Κονγκ, Ruicheng Liang του Anhui University of Finance and Economics, Yang Liu του Τεχνολογικού Πανεπιστημίου Hefei και Daniel Dajun Zeng της Κινεζικής Ακαδημίας Επιστημών. Η δουλειά τους έρχεται καθώς η χρήση βίντεο σύντομης μορφής αυξάνεται με εκπληκτική ταχύτητα. Παγκοσμίως, 1,6 δισεκατομμύρια άνθρωποι καταναλώνουν σύντομα κλιπ σε TikTok, Douyin και παρόμοιες πλατφόρμες, ωστόσο οι ειδικοί έχουν σημάνει συναγερμό σχετικά με περιεχόμενο που εντυπωσιάζει ή εξομαλύνει τον αυτοτραυματισμό. Οι θεατές συχνά εκφράζουν συναισθηματική αγωνία απευθείας στις ενότητες σχολίων αυτών των βίντεο, δίνοντας στις πλατφόρμες ένα μήνυμα βλάβης σε πραγματικό χρόνο. «Στόχος μας ήταν να βοηθήσουμε τις πλατφόρμες να κατανοήσουν πότε ένα βίντεο μπορεί να προκαλέσει αυτοκτονικές σκέψεις και να συλλάβουμε αυτούς τους κινδύνους πριν εξαπλωθούν», είπε ο Xie. “Τα σχόλια που αφήνουν οι άνθρωποι είναι ισχυροί δείκτες του πώς τους επηρεάζει το περιεχόμενο βίντεο, ειδικά όταν οι θεατές αισθάνονται ανώνυμοι και πιο πρόθυμοι να μοιραστούν αυτό που νιώθουν.” Η ερευνητική ομάδα ανέπτυξε ένα νευρωνικό θεματικό μοντέλο καθοδηγούμενο από τη γνώση, έναν τύπο τεχνητής νοημοσύνης που συνδυάζει την ιατρική εμπειρία σχετικά με τους παράγοντες κινδύνου αυτοκτονίας με μοτίβα που βρίσκονται σε πραγματικό περιεχόμενο βίντεο. Το μοντέλο προβλέπει την πιθανότητα ένα νέο βίντεο να δημιουργήσει σχόλια αυτοκτονικής σκέψης, επιτρέποντας στις ομάδες συντονισμού να παρέμβουν προτού το βίντεο φτάσει σε ευρύτερο κοινό. Σε αντίθεση με τις υπάρχουσες μεθόδους που αντιμετωπίζουν όλα τα βίντεο και τα σχόλια το ίδιο, το μοντέλο κάνει διάκριση μεταξύ του τι επιλέγουν να δημοσιεύσουν οι δημιουργοί και του τι σκέφτονται ή αισθάνονται οι θεατές μετά την παρακολούθηση. Επίσης, διαχωρίζει τους γνωστούς ιατρικούς παράγοντες κινδύνου από τις αναδυόμενες τάσεις των μέσων κοινωνικής δικτύωσης, όπως τα ιογενή κλιπ με ραγίσματα ή προκλήσεις που μπορεί να επηρεάσουν τους εφήβους. «Τα σύντομης μορφής βίντεο συχνά συνδυάζουν προσωπικές ιστορίες, γραφικά που βασίζονται σε συναισθήματα και έντονα θέματα», είπε ο Chai. «Με τη μεταφορά της ιατρικής γνώσης απευθείας στο μοντέλο της τεχνητής νοημοσύνης, μπορούμε να ανιχνεύσουμε επιβλαβές περιεχόμενο πιο αξιόπιστα και να το εκθέσουμε στους ανθρώπινους συντονιστές όταν έχει μεγαλύτερη σημασία». Το μοντέλο ξεπέρασε τα άλλα εργαλεία τελευταίας τεχνολογίας και αποκάλυψε ιατρικά σχετικά θέματα που εμφανίζονται σε βίντεο που συνδέονται με εκφράσεις αυτοκτονικών σκέψεων. Για τις πλατφόρμες, αυτό σημαίνει ότι τα αυτοματοποιημένα συστήματα μπορούν να επισημάνουν με μεγαλύτερη ακρίβεια τα βίντεο για παρακολούθηση από ανθρώπινους αναθεωρητές, βελτιώνοντας τη συνέπεια και μειώνοντας τον όγκο του περιεχομένου που πρέπει να αξιολογήσουν με μη αυτόματο τρόπο. Οι συγγραφείς σημειώνουν ότι το μοντέλο έχει σχεδιαστεί για να υποστηρίζει, όχι να αντικαθιστά, την ανθρώπινη κρίση. Τονίζουν ότι οι ομάδες εποπτείας θα πρέπει να συνεχίσουν να λαμβάνουν τελικές αποφάσεις με βάση τις πολιτικές πλατφόρμας, τα νομικά πρότυπα και τους ηθικούς λόγους. Τα ευρήματα προσφέρουν πρακτική καθοδήγηση για τις πλατφόρμες που αντιμετωπίζουν εντατικό έλεγχο σχετικά με τις βλάβες για την ασφάλεια των εφήβων και την ψυχική υγεία. Με μηνύσεις, ρυθμιστικές πιέσεις και αυξανόμενη δημόσια ανησυχία, οι ερευνητές λένε ότι εργαλεία σαν τα δικά τους θα μπορούσαν να βοηθήσουν στη μείωση των τραγωδιών που μπορούν να αποφευχθούν. Περισσότερες πληροφορίες: Jiaheng Xie et al, Short-Form Videos and Mental Health: A Knowledge-Guided Neural Topic Model, Information Systems Research (2025). DOI: 10.1287/isre.2024.1071 Παρέχεται από το Institute for Operations Research and the Management Sciences Citation: Το μοντέλο AI προβλέπει ποια σύντομα βίντεο σε μεγάλες πλατφόρμες θα μπορούσαν να προκαλέσουν σκέψεις αυτοκτονίας (2025, 17 Νοεμβρίου) που ανακτήθηκε στις 17 Νοεμβρίου 2025 από https://techxplore.com/news/2025-11-ai-short-videos-major-platforms.html Αυτό το έγγραφο υπόκειται σε πνευματικά δικαιώματα. Εκτός από κάθε δίκαιη συναλλαγή για σκοπούς ιδιωτικής μελέτης ή έρευνας, κανένα μέρος δεν μπορεί να αναπαραχθεί χωρίς τη γραπτή άδεια. Το περιεχόμενο παρέχεται μόνο για ενημερωτικούς σκοπούς.
Δημοσιεύτηκε: 2025-11-17 20:29:00
πηγή: techxplore.com








