Οι «χειρότεροι εφιάλτες» σχετικά με τις εικόνες σεξουαλικής κακοποίησης παιδιών που δημιουργούνται από τεχνητή νοημοσύνη γίνονται πραγματικότητα και απειλούν να κατακλύσουν το Διαδίκτυο, προειδοποίησε ένας φύλακας ασφαλείας.
Το Ίδρυμα Internet Watch Foundation
Το Ίδρυμα Internet Watch Foundation (IWF) δήλωσε ότι βρήκε σχεδόν 3.000 εικόνες κατάχρησης που δημιουργήθηκαν από τεχνητή νοημοσύνη και παραβίαζαν τη νομοθεσία του Ηνωμένου Βασιλείου
Ο οργανισμός που εδρεύει στο Ηνωμένο Βασίλειο είπε ότι υπάρχουσες εικόνες θυμάτων κακοποίησης στην πραγματική ζωή ενσωματώνονται σε μοντέλα τεχνητής νοημοσύνης, τα οποία στη συνέχεια παράγουν νέες απεικονίσεις τους. Πρόσθεσε ότι η τεχνολογία χρησιμοποιήθηκε επίσης για τη δημιουργία εικόνων διασημοτήτων που έχουν «απογηρανθεί» και στη συνέχεια απεικονίζονται ως παιδιά σε σενάρια σεξουαλικής κακοποίησης. Άλλα παραδείγματα υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) περιελάμβαναν τη χρήση εργαλείων τεχνητής νοημοσύνης για «γυμνοποίηση» εικόνων ντυμένων παιδιών που βρέθηκαν στο διαδίκτυο.
Η IWF είχε προειδοποιήσει το καλοκαίρι ότι είχαν αρχίσει να εμφανίζονται αποδεικτικά στοιχεία για κατάχρηση της τεχνητής νοημοσύνης, αλλά είπε ότι η τελευταία έκθεσή της είχε δείξει επιτάχυνση στη χρήση της τεχνολογίας.
Η Susie Hargreaves, διευθύνουσα σύμβουλος της IWF, είπε ότι οι χειρότεροι εφιάλτες της έγιναν πραγματικότητα. «Νωρίτερα αυτό το έτος, προειδοποιήσαμε ότι οι εικόνες τεχνητής νοημοσύνης θα μπορούσαν σύντομα να γίνουν δυσδιάκριτες από τις πραγματικές εικόνες παιδιών που υποφέρουν από σεξουαλική κακοποίηση και ότι θα μπορούσαμε να αρχίσουμε να βλέπουμε αυτές τις εικόνες να πολλαπλασιάζονται σε πολύ μεγαλύτερους αριθμούς. Τώρα έχουμε ξεπεράσει αυτό το σημείο», είπε. «Είναι ανατριχιαστικό, βλέπουμε εγκληματίες να εκπαιδεύουν σκόπιμα την τεχνητή νοημοσύνη τους σε εικόνες πραγματικών θυμάτων που έχουν ήδη υποστεί κακοποίηση.
Τα παιδιά που έχουν βιαστεί στο παρελθόν ενσωματώνονται τώρα σε νέα σενάρια επειδή κάποιος, κάπου, θέλει να το δει». Η IWF είπε ότι είχε δει επίσης στοιχεία για εικόνες που δημιουργήθηκαν από AI να πωλούνται στο διαδίκτυο. Τα τελευταία ευρήματά του βασίστηκαν σε μια έρευνα διάρκειας ενός μήνα σε ένα φόρουμ κακοποίησης παιδιών στο σκοτεινό ιστό, ένα τμήμα του Διαδικτύου στο οποίο μπορεί να προσπελαστεί μόνο ένα ειδικό πρόγραμμα περιήγησης. Διερεύνησε 11.108 εικόνες στο φόρουμ, με 2.978 από αυτές να παραβιάζουν τη βρετανική νομοθεσία απεικονίζοντας σεξουαλική κακοποίηση παιδιών.
Η τεχνητή νοημοσύνη απέναντι στον νόμο
Το CSAM που δημιουργείται από την τεχνητή νοημοσύνη είναι παράνομο σύμφωνα με τον Νόμο για την Προστασία των Παιδιών του 1978, ο οποίος ποινικοποιεί τη λήψη, τη διανομή και την κατοχή «άσεμνης φωτογραφίας ή ψευδοφωτογραφίας» παιδιού. Η IWF είπε ότι η συντριπτική πλειονότητα του παράνομου υλικού που είχε βρει παραβιάζει τον νόμο περί προστασίας των παιδιών, με περισσότερες από μία στις πέντε από αυτές τις εικόνες να ταξινομούνται ως κατηγορία Α, το πιο σοβαρό είδος περιεχομένου που μπορεί να απεικονίσει βιασμό και σεξουαλική βασανιστήριο.
Ο νόμος περί ιατροδικαστών και δικαιοσύνης του 2009 ποινικοποιεί επίσης τις μη φωτογραφικές απαγορευμένες εικόνες ενός παιδιού, όπως κινούμενα σχέδια ή σχέδια. Η IWF φοβάται ότι ένα κύμα CSAM που δημιουργείται από την τεχνητή νοημοσύνη θα αποσπάσει την προσοχή των υπηρεσιών επιβολής του νόμου από τον εντοπισμό πραγματικής κακοποίησης και την παροχή βοήθειας στα θύματα.
«Αν δεν καταλάβουμε αυτήν την απειλή, αυτό το υλικό απειλεί να κατακλύσει το Διαδίκτυο», είπε ο Χάργκρειβς. Ο Dan Sexton, επικεφαλής τεχνολογίας στο IWF, είπε ότι το εργαλείο δημιουργίας εικόνας Stable Diffusion –ένα μοντέλο τεχνητής νοημοσύνης που διατίθεται στο κοινό που μπορεί να προσαρμοστεί για να βοηθήσει στην παραγωγή CSAM– ήταν το μόνο προϊόν τεχνητής νοημοσύνης που συζητήθηκε στο φόρουμ.
«Έχουμε δει συζητήσεις γύρω από τη δημιουργία περιεχομένου χρησιμοποιώντας το Stable Diffusion, το οποίο είναι ανοιχτά διαθέσιμο λογισμικό». Η Stability AI, η βρετανική εταιρεία πίσω από το Stable Diffusion, δήλωσε ότι «απαγορεύει οποιαδήποτε κατάχρηση για παράνομους ή ανήθικους σκοπούς στις πλατφόρμες μας και οι πολιτικές μας είναι σαφείς ότι αυτό περιλαμβάνει το CSAM».
Η κυβέρνηση είπε ότι το CSAM που δημιουργείται από την τεχνητή νοημοσύνη θα καλύπτεται από το νομοσχέδιο για την ασφάλεια στο Διαδίκτυο, καθώς πρόκειται να γίνει νόμος άμεσα, και ότι οι εταιρείες μέσων κοινωνικής δικτύωσης θα πρέπει να αποτρέψουν την εμφάνισή του στις πλατφόρμες τους.
Πηγή: The Guardian
photo credits: Unsplash