Λίγο μετά τη σύλληψη δύο μελών της ινδικής ομάδας πάλης στο Νέο Δελχί ενώ διαμαρτύρονταν για υποτιθέμενη σεξουαλική παρενόχληση από τον πρόεδρο της εθνικής ομοσπονδίας πάλης, δύο σχεδόν πανομοιότυπες φωτογραφίες του διδύμου άρχισαν να κυκλοφορούν στο διαδίκτυο. Με τη τεχνητή νοημοσύνη και οι δύο έδειξαν τις δύο γυναίκες μέσα σε ένα αστυνομικό βαν ανάμεσα σε αστυνομικούς και άλλα μέλη της ομάδας τους.

Στο άλλο, έλαμπαν χαρούμενα — λες και η σύλληψη δεν ήταν παρά μια παρωδία. Για ώρες, η φωτογραφία των χαμογελαστών παλαιστών κυκλοφόρησε στα μέσα κοινωνικής δικτύωσης, αναδημοσιεύτηκε από υποστηρικτές του προέδρου της ομοσπονδίας, ακόμη και όταν δημοσιογράφοι, ελεγκτές στοιχείων και οι δύο γυναίκες την χλεύαζαν ως ψεύτικη. Πολύ αργότερα, μια ανάλυση που συνέκρινε τα χαμόγελά τους με προηγούμενες φωτογραφίες απέδειξε ότι τα χαμόγελα δεν ήταν γνήσια. Είχαν προστεθεί εκ των υστέρων, πιθανότατα από δωρεάν, διαθέσιμο λογισμικό όπως το FaceApp, το οποίο χρησιμοποιεί τεχνητή νοημοσύνη για να χειριστεί ψηφιακά τις εικόνες.

Περιπτώσεις τεχνητής νοημοσύνης σε επεξεργασμένες φωτογραφίες

Ιστορίες όπως αυτή υποδεικνύουν ένα μέλλον που πλησιάζει γρήγορα, στο οποίο τίποτα δεν μπορεί να είναι όπως φαίνεται με βεβαιότητα. Οι εικόνες, το βίντεο και ο ήχος που δημιουργούνται από την τεχνητή νοημοσύνη έχουν ήδη αναπτυχθεί σε προεκλογικές εκστρατείες. Αυτές περιλαμβάνουν ψεύτικες φωτογραφίες του πρώην προέδρου των ΗΠΑ Ντόναλντ Τραμπ να αγκαλιάζει και να φιλάει τον κορυφαίο σύμβουλο της χώρας για τον COVID Anthony Fauci.

Ένα βίντεο στην Πολωνία που αναμειγνύει αληθινά πλάνα του δεξιού πρωθυπουργού Mateusz Morawiecki με κλιπ της φωνής του που δημιουργήθηκαν από την τεχνητή νοημοσύνη και μια βαθιά ψεύτικη «ηχογράφηση» του ηγέτη του Βρετανικού Εργατικού Κόμματος, Κιρ Στάρμερ, να τσακώνεται.

Ενώ όλα αυτά αποκαλύφθηκαν ή απομυθοποιήθηκαν γρήγορα, δεν θα είναι τα τελευταία και αυτά που έρχονται θα είναι όλο και πιο δύσκολο να εντοπιστούν. Καθώς τα εργαλεία τεχνητής νοημοσύνης βελτιώνονται, το πραγματικό θα γίνεται δυσδιάκριτο από το φανταστικό, τροφοδοτώντας την πολιτική παραπληροφόρηση και υπονομεύοντας τις προσπάθειες πιστοποίησης των πάντων, από τις γκάφες της εκστρατείας μέχρι τα μακρινά εγκλήματα πολέμου. Η φράση «φωτογραφικά στοιχεία» κινδυνεύει να γίνει λείψανο μιας αρχαίας εποχής.

Η επερχόμενη «πλημμύρα»

Σε κάποιο βαθμό, ο κίνδυνος από την τεχνητή νοημοσύνη δεν είναι κάτι νέο. Οι χειραγωγημένες εικόνες είναι τόσο παλιές όσο και η ίδια η φωτογραφία. Το πρώτο ψεύτικο φωτογραφικό υλικό χρονολογείται από το 1840: Ο Hippolyte Bayard ήταν ένας Γάλλος τεχνίτης που ισχυρίστηκε, με κάποια αξία, ότι εφηύρε τη φωτογραφία. Σε ένδειξη διαμαρτυρίας για την έλλειψη επίσημης αναγνώρισης για το κατόρθωμά του, δημιούργησε μια εικόνα που υποτίθεται ότι δείχνει το δικό του πτώμα, με τον τίτλο «Αυτοπροσωπογραφία ως πνιγμένος άνθρωπος».

Άλλη προ-ψηφιακή απάτη περιλαμβάνει φωτογραφίες του 1917 με μικροσκοπικές νεράιδες που ξεγέλασαν τον δημιουργό του Σέρλοκ Χολμς, Άρθουρ Κόναν Ντόιλ, καθώς και την τάση του Σοβιετικού δικτάτορα Ιωσήφ Στάλιν να εξαφανίζει ατιμωμένους αξιωματούχους από ασπρόμαυρες φωτογραφίες. Πιο πρόσφατα εργαλεία όπως το Adobe Photoshop – ένα λογισμικό τόσο πανταχού παρόν που έχει γίνει ρήμα – και τα φίλτρα στις εφαρμογές κοινωνικών μέσων έχουν εκδημοκρατίσει την οπτική απάτη. Αυτό που κάνει το AI είναι να το πάει σε άλλο επίπεδο.

Οι γεννήτριες εικόνας όπως το Midjourney, το DALL-E 3 και το Stable Diffusion φέρνουν τρία νέα πράγματα στο τραπέζι. Προσβασιμότητα: Μην μπείτε στον κόπο να μάθετε Photoshop. απλά γράψτε μερικές γραμμές και περιμένετε δέκα δευτερόλεπτα. Ποιότητα: Η τεχνητή νοημοσύνη δημιουργεί ήδη πειστικές εικόνες τραβηγμένων θεμάτων και θα βελτιωθεί. Κλίμακα: Ετοιμαστείτε για πλημμύρες ψεύτικων εικόνων που παράγονται σε βιομηχανική κλίμακα.

Οι ειδικοί της παραπληροφόρησης είναι ως επί το πλείστον χαλαροί σχετικά με τον κίνδυνο οι εικόνες της τεχνητής νοημοσύνης να ξεγελούν μεγάλα τμήματα του κοινού. Σίγουρα, πολλοί ξεγελάστηκαν από μια φωτογραφία του Πάπα με ένα φουσκωμένο λευκό σακάκι ή μια θολή φωτογραφία ενός γενειοφόρου Τζούλιαν Ασάνζ στο κελί της φυλακής του — αλλά αυτές ήταν εικόνες χαμηλού πονταρίσματος. Ένα tweet τον Μάιο με φουσκωτό μαύρο καπνό που αναδύεται από το Πεντάγωνο έγινε για λίγο viral αλλά γρήγορα απομυθοποιήθηκε.

«Η τεχνητή νοημοσύνη μειώνει δραματικά τα εμπόδια εισόδου και επιτρέπει πιο πειστικές και πιο δημιουργικές χρήσεις της εξαπάτησης. Αλλά το αποτέλεσμα είναι απλώς spam», δήλωσε ο Carl Miller, ερευνητής του Κέντρου Ανάλυσης των Social Media στο βρετανικό think tank Demos. «Υπάρχει ήδη ένα υψηλό επίπεδο σκεπτικισμού μεταξύ του κοινού σχετικά με εικόνες που συντρίβουν τη γη που προέρχονται από αναξιόπιστα ή άγνωστα μέρη».

Το μερίδιο του «ψεύτη»

Ο πραγματικός κίνδυνος είναι πιθανό να είναι η άλλη πλευρά του προβλήματος: ένα κοινό που εκπαιδεύεται όλο και περισσότερο να μην εμπιστεύεται τα μάτια του. Αυτές οι φωτογραφίες τον Μάρτιο της σύλληψης του πρώην προέδρου των ΗΠΑ Ντόναλντ Τραμπ ήταν ξεκάθαρα ψεύτικες. Τι γίνεται όμως με εκείνα τα πλάνα του Ρώσου μισθοφόρου πολέμαρχου Yevgeny Prigozhin με μια σειρά από εξωφρενικές περούκες και ψεύτικα γένια; (Αποδεικνύεται, είναι πιθανότατα αυθεντικά).

«Υπάρχουν τόσα πολλά ρεπορτάζ γύρω από τις ψεύτικες ειδήσεις και την τεχνητή νοημοσύνη, που δημιουργεί μια ατμόσφαιρα όπου η νομιμότητα πολλών πραγμάτων μπορεί να αμφισβητηθεί», δήλωσε ο Benjamin Strick, διευθυντής ερευνών στο μη κερδοσκοπικό Centre for Information Resilience και έμπειρος επαγγελματίας του ανοιχτού -πηγή νοημοσύνης ή OSINT. «Ειδικά σε δικτατορικά κράτη, τους αρέσει να λένε ότι κάθε δυσάρεστο γεγονός είναι απλώς ένα ψέμα ή «δυτική προπαγάνδα».

Το φαινόμενο εμφανίστηκε τον Ιούνιο, όταν λογαριασμοί στα μέσα κοινωνικής δικτύωσης υπέρ του Κρεμλίνου που προωθούν μια ψευδή αφήγηση ότι ο αρχηγός των στρατιωτικών πληροφοριών της Ουκρανίας Kyrylo Budanov ήταν νεκρός, απέρριψαν ένα βίντεο που μιλούσε ως «deepfake». (Ο Μπουντάνοφ είναι ζωντανός και καλά και δίνει τηλεοπτικές συνεντεύξεις.)

Με τον πόλεμο που ξεσπά μεταξύ Ισραήλ και Χαμάς, προετοιμαστείτε για όλο και πιο ύπουλες μορφές παραπληροφόρησης που συναγωνίζονται για τα μάτια σας, καθιστώντας όλο και πιο δύσκολο να ξέρετε τι να πιστέψετε. Το εφιαλτικό σενάριο του Strick είναι ένας κόσμος όπου τύραννοι και ισχυροί οπλίζουν αυτό που αποκαλεί «μέρισμα του ψεύτη». Ο όρος, που επινοήθηκε σε μια εργασία του 2018 από τους Αμερικανούς ακαδημαϊκούς Robert Chesney και Danielle Citron, χαρακτηρίζει τη στρατηγική της απόρριψης κάθε εικονογραφημένης απόδειξης παραβίασης ανθρωπίνων δικαιωμάτων ή εγκλημάτων πολέμου ως ψεύτικη.

«Οι δικτάτορες μπορούν απλώς να παρέμβουν και να δηλώσουν ότι όλα είναι ένα ψέμα κατασκευασμένο από την τεχνητή νοημοσύνη», είπε ο Strick.

Η αντιμετώπιση των προβλημάτων που προκαλεί η τεχνητή νοημοσύνη

Για να αντιμετωπιστούν ορισμένα από τα προβλήματα που προκαλούνται από εικόνες που δημιουργούνται από τεχνητή νοημοσύνη, εταιρείες, συμπεριλαμβανομένης της Intel, και του DALL-E 3 και του κατασκευαστή του ChatGPT, OpenAI, έχουν δημιουργήσει εργαλεία που τροφοδοτούνται από AI για να εντοπίζουν μέσα που δημιουργούνται από AI. Ορισμένοι προγραμματιστές έχουν αρχίσει να δένουν τις εικόνες τους με υδατογραφήματα — κρυφά ή εμφανή — προσδιορίζοντάς τες ως συνθετικές. Αλλά οι ανιχνευτές είναι ατελείς και, δεδομένου του τρέχοντος ρυθμού καινοτομίας, οι προσπάθειες βελτίωσης τους είναι πιθανό να μοιάζουν με ένα ατελείωτο παιχνίδι γάτας με ποντίκι.

Οι εταιρείες τεχνολογίας και οι οργανισμοί μέσων ενημέρωσης έχουν επίσης ενώσει τις δυνάμεις τους μέσω πρωτοβουλιών όπως η Coalition for Content Provenance and Authenticity (C2PA), στην οποία οργανισμοί όπως η Microsoft, η Adobe, το BBC και οι New York Times προσπαθούν να βρουν τρόπους για να προσθέσουν ετικέτες σε αυθεντικές εικόνες με κρυπτογραφημένες πληροφορίες, συμπεριλαμβανομένου του ιστορικού, της συγγραφής και τυχόν τροποποιήσεων που μπορεί να έχουν γίνει σε αυτά.

Θέσαμε το ερώτημα: «Μπορούμε να έχουμε τεχνολογίες που θα παίρνουν κάθε φωτόνιο που καταγράφεται από μια κάμερα και θα διασφαλίζουν ότι ευθυγραμμίζεται με αυτό που εμφανίζεται στους καταναλωτές — και θα καταγράφουν τυχόν αλλαγές που έγιναν στην πορεία;» δήλωσε ο Eric Horvitz, επικεφαλής επιστημονικός υπεύθυνος της Microsoft, ο οποίος επιβλέπει το Project Origin, έναν από τους εταίρους του συνασπισμού.

Ο κίνδυνος, σύμφωνα με μια πρόσφατη έκθεση της Royal Society, της Ακαδημίας Επιστημών του Ηνωμένου Βασιλείου, είναι ότι η υιοθέτηση αυτών των συστημάτων από αξιόπιστα μέσα ενημέρωσης θα ερμηνευθεί ως δημιουργία «καρτέλ γνώσης» που διεκδικούν το μονοπώλιο της αλήθειας – μια εξέλιξη εγγυημένα θα αποτύχει στο σημερινό πολωμένο πολιτικό περιβάλλον. «Δεν μπορώ να δω έναν κόσμο όπου όλοι θα επιστρέψουμε στην εμπιστοσύνη στο BBC», είπε ο Carl Miller. «Το πιο πιθανό είναι να λάβουμε απλώς μια βαλκανοποιημένη σειρά αληθειών».

Τεχνητή νοημοσύνη: Επίγεια αλήθεια

Ο Horvitz ελπίζει ότι τα εργαλεία ελέγχου ταυτότητας θα είναι επίσης διαθέσιμα «ακόμη και σε μικρότερες ομάδες ή σόλο podcasters», καθώς οι εταιρείες τεχνολογίας και φωτογραφίας τα ψήνουν στο λογισμικό και τις συσκευές τους. Αλλά θα χρειαστεί χρόνος για να συμβεί αυτό, και ακόμη και τότε μπορεί να μην είναι διαθέσιμο σε όλους. Το 2018, το BBC χρησιμοποίησε βίντεο που κυκλοφορούσαν στο Twitter για να εντοπίσει τους στρατιώτες που διέπραξαν την εξώδικη δολοφονία τεσσάρων ανθρώπων στο Καμερούν.

Πιο πρόσφατα, πολλά από τα κοντινά ρεπορτάζ από τον πόλεμο στην Ουκρανία στηρίζονται σε μια βαθιά δεξαμενή εικόνων και βίντεο που δημοσιεύτηκαν στο διαδίκτυο από όλους, από Ουκρανούς έφηβους έως Ρώσους μισθοφόρους.

Ακόμα κι αν οι συντάκτες τους είχαν πρόσβαση σε λογισμικό ελέγχου ταυτότητας αιχμής, θα ήταν διατεθειμένοι να διακινδυνεύσουν να επισυνάψουν την ταυτότητά τους σε στοιχεία παραβιάσεων των ανθρωπίνων δικαιωμάτων ή εγκλημάτων πολέμου; (Το C2PA αναπτύσσει ανώνυμο έλεγχο ταυτότητας, αλλά αυτό θα μπορούσε να ανοίξει ένα άλλο κουτί σκουληκιών.) Δεδομένης της αφθονίας των εικόνων AI, το μέλλον των αποδεικτικών στοιχείων, είπε ο Strick, είναι πιθανό να είναι όλο και λιγότερο ψηφιακό, με το υλικό στον Ιστό να χρειάζεται επιβεβαίωση από τις μπότες στο έδαφος.

«Πραγματικά πρόκειται για την επιστροφή της δημοσιογραφίας στις ρίζες της», είπε. «Το OSINT θα πρέπει να χρησιμοποιείται σε συνδυασμό με την ερευνητική δημοσιογραφία και το καλό τοπικό ρεπορτάζ».

Εν τω μεταξύ, υπάρχουν ενδείξεις ότι η διάβρωση της εμπιστοσύνης μπορεί να είναι ήδη σε εξέλιξη. Ο Γκρεγκ Φόστερ-Ράις, αναπληρωτής καθηγητής φωτογραφίας στο Columbia College του Σικάγο και μέλος της ειδικής ομάδας τεχνητής νοημοσύνης του πανεπιστημίου του, έχει παρατηρήσει κάτι απροσδόκητο να συμβαίνει μεταξύ των μαθητών του Gen-Z τους τελευταίους μήνες. Η ψηφιακή φωτογραφία έχει βγει. ταινία, σκοτεινά δωμάτια και ασπρόμαυρες εικόνες είναι όλα στη μόδα.

«Οι μαθητές μας επιστρέφουν στις αναλογικές πρακτικές», είπε ο Φόστερ-Ράις. «Υπάρχει μια ρετρό επιστροφή. Ίσως επειδή έχουν την αίσθηση ότι είναι πιο αυθεντικό όσον αφορά τη σχέση του με το πραγματικό».

Πηγή: POLITICO