Περισσότεροι από 1.000 εμπειρογνώμονες, ερευνητές και υποστηρικτές της τεχνητής νοημοσύνης, όπως έγινε γνωστό την Τετάρτη (29/03), απηύθυναν μια έκκληση για άμεση παύση της δημιουργίας «γιγάντιων» μηχανών με τεχνητή νοημοσυνή για τουλάχιστον έξι μήνες, ώστε να μελετηθούν και να μετριαστούν κατάλληλα οι δυνατότητες και οι κίνδυνοι συστημάτων όπως το GPT-4.
Συγκεκριμένα, σύμφωνα με τον «Guardian», το εν λόγω αίτημα διατυπώνεται σε ανοιχτή επιστολή που υπογράφεται από σημαντικούς παράγοντες της τεχνητής νοημοσύνης, μεταξύ των οποίων ο Έλον Μασκ, συνιδρυτής του OpenAI, δηλαδή του ερευνητικού εργαστηρίου που είναι υπεύθυνο για το ChatGPT και το GPT-4, ο Έμαντ Μοστάκ που ίδρυσε το Stability AI με έδρα το Λονδίνο, καθώς και ο Στιβ Βόζνιακ, συνιδρυτής της Apple. Μάλιστα, στους υπογράφοντες περιλαμβάνονται, επίσης, μηχανικοί από τις DeepMind, Microsoft, Meta, Google και Amazon, καθώς και ακαδημαϊκοί, όπως ο επιστήμονας, Γκάρι Μάρκους.
Κρίσιμο σημείο για την τεχνητή νοημοσύνη
«Τους τελευταίους μήνες τα εργαστήρια Τεχνητής Νοημοσύνης έχουν εγκλωβιστεί σε έναν ανεξέλεγκτο αγώνα για την ανάπτυξη και την αξιοποίηση όλο και πιο ισχυρών ψηφιακών μυαλών που κανείς – ούτε καν οι δημιουργοί τους – δεν μπορεί να κατανοήσει, να προβλέψει ή να ελέγξει αξιόπιστα» αναφέρεται στην έκκληση, σημειώνοντας: «Τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτύσσονται μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι».
Οι εμπνευστές αυτής της έκκλησης, που συντονίζονται από το think tank με την ονομασία «The Future of Life Institute», επικαλούνται τον ίδιο τον συνιδρυτή του OpenAI, Σαμ Άλτμαν, για να δικαιολογήσουν τις εκκλήσεις τους. Χαρακτηριστικά, τον περασμένο Φεβρουάριο, εκείνος έγραψε σε μια ανάρτησή του: «Κάποια στιγμή, μπορεί να είναι σημαντικό να υπάρξει ανεξάρτητος έλεγχος πριν από την έναρξη της εκπαίδευσης μελλοντικών συστημάτων και για τις πιο προηγμένες προσπάθειες να συμφωνηθεί ο περιορισμός του ρυθμού αύξησης των υπολογιστών που χρησιμοποιούνται για τη δημιουργία νέων μοντέλων». Μάλιστα, στην εν λόγω έκκληση τονίζεται: «Συμφωνούμε, αυτό το σημείο είναι τώρα».
«Εάν οι ερευνητές δεν σταματήσουν εθελοντικά τις εργασίες τους σε μοντέλα τεχνητής νοημοσύνης πιο ισχυρά από το GPT-4, το σημείο αναφοράς της επιστολής για τα «γιγαντιαία» μοντέλα, τότε «οι κυβερνήσεις θα πρέπει να παρέμβουν», γράφουν ακόμα οι συντάκτες της έκκλησης, υπογραμμίζοντας: «Αυτό δεν σημαίνει παύση της ανάπτυξης της τεχνητής νοημοσύνης γενικά, απλώς ένα βήμα πίσω από την επικίνδυνη κούρσα προς ολοένα και μεγαλύτερα απρόβλεπτα μοντέλα μαύρου κουτιού με αναδυόμενες δυνατότητες».
Πιο ισχυρό απ’ ό,τι αναμενόταν το GPT-4
Από την κυκλοφορία του GPT-4, το OpenAI έχει προσθέσει δυνατότητες στο σύστημα τεχνητής νοημοσύνης, επομένως μπορεί να αναζητά δεδομένα στο διαδίκτυο, να προγραμματίζει διακοπές, ακόμα και να παραγγέλνει ψώνια. Η εταιρεία, όμως, έχει να αντιμετωπίσει την «υπερκάλυψη δυνατοτήτων», εφόσον τίθεται ζήτημα πως τα συστήματά της αποδεικνύονται πιο ισχυρά από ό,τι γνωρίζει κατά την κυκλοφορία τους.
Καθώς οι ερευνητές πειραματίζονται με το GPT-4, είναι πιθανό να ανακαλύψουν νέους τρόπους «προτροπής» του συστήματος που θα βελτιώσουν την ικανότητά του να λύνει δύσκολα προβλήματα. Μάλιστα, σύμφωνα με τον «Guardian», μια πρόσφατη ανακάλυψη ήταν ότι η τεχνητή νοημοσύνη είναι αισθητά πιο ακριβής στο να απαντά σε ερωτήσεις αν της ζητηθεί πρώτα να το κάνει «με το ύφος ενός έμπειρου ειδικού».
Photo credits: Shutterstock