Μια ψεύτικη φωτογραφία που έδειχνε μια «έκρηξη» κοντά στο κτήριο του Πενταγώνου έγινε viral σήμερα στο Twitter, προκάλεσε αναστάτωση στη Γουόλ Στριτ και επανέφερε στο προσκήνιο το θέμα των κινδύνων που ελλοχεύουν από εφαρμογές τεχνητής νοημοσύνης (ΑΙ).
Η επίμαχη φωτογραφία που φέρεται να δημιουργήθηκε μέσω μιας τέτοιας εφαρμογής υποχρέωσε το υπουργείο Άμυνας των ΗΠΑ να αντιδράσει. «Επιβεβαιώνουμε ότι πρόκειται για ψευδείς πληροφορίες και ότι το Πεντάγωνο δεν δέχθηκε επίθεση σήμερα», δήλωσε εκπρόσωπος του αμερικανικού υπουργείου Άμυνας.
Confident that this picture claiming to show an "explosion near the pentagon" is AI generated.
— Nick Waters (@N_Waters89) May 22, 2023
Check out the frontage of the building, and the way the fence melds into the crowd barriers. There's also no other images, videos or people posting as first hand witnesses. pic.twitter.com/t1YKQabuNL
Η πυροσβεστική υπηρεσία στο Άρλινγκτον έσπευσε επίσης να ξεκαθαρίσει μέσω Twitter ότι δεν σημειώθηκε έκρηξη ή κάποιο άλλο περιστατικό ούτε στο Πεντάγωνο ούτε στη γύρω περιοχή.
Η προσωρινή αναστάτωση που προκάλεσε η ψεύτικη φωτογραφία οδήγησε σε πτώση 0,29% τον δείκτη S&P 500 στο χρηματιστήριο της Νέας Υόρκης.
Ήταν η πιο πρόσφατη από μια σειρά κατασκευασμένων εικόνων που έχουν δει το τελευταίο διάστημα το φως της δημοσιότητας, καταδεικνύοντας τις δυνατότητες της τεχνολογίας AI, όπως οι φωτογραφίες της δήθεν σύλληψης του πρώην προέδρου των ΗΠΑ Ντόναλντ Τραμπ ή του πάπα Φραγκίσκου να φοράει πουπουλένιο μπουφάν.
Λογισμικά όπως το DALL-E 2, το Midjourney και το Stable Diffusion επιτρέπουν ακόμη και σε χρήστες που δεν γνωρίζουν τεχνικές Photoshop να δημιουργούν αληθοφανείς εικόνες, τις οποίες εν συνεχεία δημοσιοποιούν σε πλατφόρμες κοινωνικής δικτύωσης, όπου τα όρια μεταξύ αλήθειας και φαντασίας είναι συχνά δυσδιάκριτα.