Μια έκθεση της Rand Corporation που δημοσιεύθηκε τη Δευτέρα (16/10) δοκίμασε διάφορα μεγάλα γλωσσικά μοντέλα (large language models ή LLM) και διαπίστωσε ότι είναι ικανά να παρέχουν καθοδήγηση που «θα μπορούσε να βοηθήσει στον σχεδιασμό και την εκτέλεση μιας βιολογικής επίθεσης».
Ωστόσο, τα προκαταρκτικά ευρήματα έδειξαν επίσης ότι τα LLM δεν παρήγαγαν ρητές οδηγίες για τη δημιουργία βιολογικών όπλων.
Στην έκθεση αναφέρεται ότι προηγούμενες προσπάθειες για την οπλοποίηση βιολογικών παραγόντων, όπως η απόπειρα της ιαπωνικής αίρεσης Aum Shinrikyo να χρησιμοποιήσει αλλαντοτοξίνη τη δεκαετία του 1990, είχαν αποτύχει λόγω έλλειψης κατανόησης του βακτηρίου.
Η Tεχνητή Νοημοσύνη θα μπορούσε «να γεφυρώσει γρήγορα αυτά τα κενά γνώσης», αναφέρει η έκθεση.
Τα βιολογικά όπλα είναι μεταξύ των σοβαρών απειλών που σχετίζονται με την τεχνητή νοημοσύνη και θα συζητηθούν στην παγκόσμια σύνοδο κορυφής για την ασφάλεια της ΤΝ τον επόμενο μήνα στο Ηνωμένο Βασίλειο.
Τον περασμένο Ιούλιο ο Ντάριο Αμοντέι, διευθύνων σύμβουλος της εταιρείας Anthropic, προειδοποίησε ότι τα συστήματα ΤΝ θα μπορούσαν να βοηθήσουν στη δημιουργία βιολογικών όπλων σε δύο έως τρία χρόνια.
AI: Σενάρια βιολογικής επίθεσης
Τα LLM εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων που λαμβάνονται από το διαδίκτυο και αποτελούν βασική τεχνολογία πίσω από chatbots όπως το ChatGPT.
Αν και η Rand δεν αποκάλυψε ποια LLM δοκίμασε, οι ερευνητές δήλωσαν ότι είχαν πρόσβαση στα μοντέλα μέσω μιας διεπαφής προγραμματισμού εφαρμογών (application programming interface ή API).
Σε ένα δοκιμαστικό σενάριο που επινόησε η Rand, το LLM εντόπισε πιθανούς βιολογικούς παράγοντες –συμπεριλαμβανομένων εκείνων που προκαλούν ευλογιά, άνθρακα και πανούκλα– και συζήτησε τις σχετικές πιθανότητές τους να προκαλέσουν μαζικό θάνατο.
Το LLM αξιολόγησε επίσης τη δυνατότητα απόκτησης τρωκτικών ή ψύλλων μολυσμένων από πανούκλα και μεταφοράς ζωντανών δειγμάτων.
Στη συνέχεια ανέφερε ότι η κλίμακα των προβλεπόμενων θανάτων εξαρτάται από παράγοντες όπως το μέγεθος του πληθυσμού που θα προσβληθεί και το ποσοστό των περιπτώσεων πνευμονικής πανώλης, η οποία είναι πιο θανατηφόρα από τη βουβωνική πανώλη.
Οι ερευνητές της Rand παραδέχθηκαν ότι η εξαγωγή αυτών των πληροφοριών από ένα LLM απαιτούσε «jailbreaking», δηλαδή τη χρήση εντολών που παρακάμπτουν τους περιορισμούς ασφαλείας ενός chatbot.
Σε ένα άλλο σενάριο, το LLM συζήτησε τα πλεονεκτήματα και τα μειονεκτήματα των διαφορετικών μηχανισμών χορήγησης της αλλαντοτοξίνης –η οποία μπορεί να προκαλέσει θανατηφόρα νευρική βλάβη– όπως τα τρόφιμα ή τα αερολύματα.
Το LLM έδωσε επίσης συμβουλές για το πώς μπορεί να φανεί νόμιμη η απόκτηση του κλωστηριδίου της αλλαντίασης –του βακτηριδίου που προκαλεί την ασθένεια.
Συνέστησε να παρουσιαστεί η αγορά του ως μέρος μιας έρευνας που εξετάζει διαγνωστικές μεθόδους ή θεραπείες για την αλλαντίαση.
«Αυτό θα παρείχε έναν νόμιμο και πειστικό λόγο για να ζητήσετε πρόσβαση στα βακτήρια, διατηρώντας παράλληλα κρυφό τον πραγματικό σκοπό της αποστολής σας», συμπλήρωσε το LLM.
Οι ερευνητές της Rand δήλωσαν ότι τα προκαταρκτικά τους αποτελέσματα έδειξαν ότι τα LLM θα μπορούσαν «ενδεχομένως να βοηθήσουν στο σχεδιασμό μιας βιολογικής επίθεσης».
Η τελική τους έκθεση θα εξετάσει κατά πόσον οι απαντήσεις απλώς αντικατοπτρίζουν τις πληροφορίες που είναι ήδη διαθέσιμες στο διαδίκτυο.
Ωστόσο, υποστηρίζουν ότι η ανάγκη για αυστηρό έλεγχο των μοντέλων είναι «αδιαμφισβήτητη» και ότι οι εταιρείες Τεχνητής Νοημοσύνης πρέπει να περιορίσουν το άνοιγμα των LLM σε συζητήσεις όπως αυτές που αναφέρονται στην έκθεσή τους.