Πριν από κάποιες εβδομάδες, ο Dario Amodei −CEO της Anthropic, της εταιρείας πίσω από το Claude− δημοσίευσε ένα άρθρο-μανιφέστο για τους κινδύνους της τεχνητής νοημοσύνης.
Σας είχαμε παραπέμψει σε αυτό. Με δεδομένο ότι εκτείνεται σε 20.000 λέξεις, δεν θα παρεξηγήσω κανέναν αν δεν το τελείωσε.
Εξακολουθώ όμως να πιστεύω ότι −είτε συμφωνεί κανείς μαζί του είτε όχι− είναι από τα πιο σημαντικά κείμενα που θα διαβάσουμε φέτος.
Γι’ αυτό και τις επόμενες ημέρες θα πιάσουμε μία-μία τις πέντε βασικές κατηγορίες κινδύνων που περιγράφει και θα τις αναλύσουμε σε βάθος. Παράλληλα, γυρίσαμε και το νέο επεισόδιο του Big Zag με τον Θοδωρή Γεωργακόπουλο πάνω ακριβώς σε αυτό το θέμα (coming very soon).
Για σήμερα, όμως, τρία πράγματα:
– Γιατί όσα λέει έχουν τόσο μεγάλη σημασία.
– Ποιους 5 κινδύνους βλέπει στον ορίζοντα.
– Και γιατί ένα developing story που εξελίσσεται τώρα −όχι αύριο, όχι μεθαύριο, όχι σε πέντε χρόνια− στη Ουάσινγκτον δείχνει έναν από αυτούς τους κινδύνους ήδη στην πράξη.
Το διακύβευμα δεν είναι θεωρητικό. Είναι πολιτικό. Είναι οικονομικό. Είναι γεωπολιτικό. Και συμβαίνει τώρα.
Ποιο είναι το Βασικό Επιχείρημα του Amodei;
Αν έπρεπε να συνοψίσω τη λογική του essay του Amodei, θα το έκανα ως εξής:
Η AI μπορεί να κάνει απίστευτα πράγματα για την ανθρωπότητα − κάτι που ο ίδιος ανέλυσε στο προηγούμενο δοκίμιό του, Machines of Loving Grace. Όμως, πριν ή ανεξάρτητα από το αν θα υλοποιηθούν αυτά τα οφέλη, πέντε σοβαροί −και εν δυνάμει υπαρξιακοί− κίνδυνοι διαγράφονται στον ορίζοντα όσο πλησιάζουμε σε αυτό που πολλοί ονομάζουν AGI ή Γενική Τεχνητή Νοημοσύνη.
Μικρή αλλά κρίσιμη διευκρίνιση: o Amodei αποφεύγει τον όρο AGI. Αντί γι’ αυτό, περιγράφει κάτι πολύ πιο απτό και συγκεκριμένο. Ένα σύστημα που θα μπορούσε να εμφανιστεί ακόμη και το 2026 και θα έχει τα εξής χαρακτηριστικά:
– Θα είναι εξυπνότερο από έναν Νομπελίστα στη βιολογία, στα μαθηματικά ή στον προγραμματισμό.
– Δεν θα είναι chatbot. Θα έχει πρόσβαση σε ήχο, εικόνα, πληκτρολόγιο, ίντερνετ. Θα μπορεί να δίνει οδηγίες, να αναθέτει tasks, να παραγγέλνει υλικά, να διεξάγει πειράματα.
– Δεν θα απαντά απλώς σε ερωτήσεις. Θα του αναθέτεις ένα project εβδομάδων και θα το εκτελεί αυτόνομα.
– Θα μπορούμε να «τρέξουμε» εκατομμύρια αντίγραφά του ταυτόχρονα, 10 έως 100 φορές ταχύτερα από τον άνθρωπο.
Με απλά λόγια, όταν αυτό συμβεί, ο Amodei το παρομοιάζει με την ξαφνική εμφάνιση στον πλανήτη μιας «χώρας» με 50 εκατομμύρια Νομπελίστες.
Κάντε το εικόνα.
Το ερώτημα τώρα −πέρα από το πόσο εντυπωσιακό θα ήταν ένα τέτοιο επίτευγμα τεχνολογικά− είναι: ποιος θα ελέγχει αυτή τη χώρα και τι ρόλο θα έχουμε όλοι οι υπόλοιποι;
Κοίτα Ποιος Μιλάει
Πριν δούμε πού μας οδηγούν πιθανές απαντήσεις στα παραπάνω, μια σημαντική διευκρίνιση. Τα σενάρια αυτά δεν τα φέρνει στο προσκήνιο ένας Λουδίτης καταστροφολόγος που αποζητά την προσοχή για να κερδίσει 15 λεπτά δημοσιότητας. Η βαρύτητα των λεγομένων του Amodei δεν πηγάζει από κάποια θεωρητική ανησυχία, αλλά από το γεγονός ότι ο ίδιος είναι ενεργά ταγμένος στο να πετύχει η τεχνητή νοημοσύνη.
Δεν έχουμε, λοιπόν, να κάνουμε με έναν τεχνοφοβικό παρατηρητή, αλλά με έναν άνθρωπο που ηγείται της κούρσας. Όταν ένας από τους αρχιτέκτονες του μέλλοντος αφιερώνει 20.000 λέξεις για να περιγράψει πώς τα πράγματα μπορούν να πάνε τραγικά στραβά, δεν πρόκειται για «άλλη μία άποψη». Είναι ένας ηχηρός συναγερμός από το εσωτερικό του «θαλάμου επιχειρήσεων» που είναι δύσκολο να αγνοήσουμε ή να υποβαθμίσουμε.
Παράλληλα, ο Amodei διαθέτει ένα προνόμιο που οι υπόλοιποι στερούμαστε: έχει πρόσβαση στα πιο προηγμένα μοντέλα επόμενης γενιάς που βρίσκονται ακόμη πίσω από κλειστές πόρτες. Είναι σαφές ότι οι προειδοποιήσεις του βασίζονται, εν μέρει, σε σημάδια επιτάχυνσης που βλέπει ο ίδιος στο εργαστήριο, τα οποία υποδεικνύουν ότι η έλευση της «ισχυρής» AI ίσως είναι πολύ πιο κοντά απ’ όσο τολμάμε να φανταστούμε.
Το πιο κρίσιμο στοιχείο, όμως, είναι ότι τα disruptions που περιγράφει δεν απαιτούν, απαραίτητα, την έλευση του AGI για να μας απασχολήσουν. Πολλά από τα σενάρια που αναλύει −από τις γεωπολιτικές αναταράξεις μέχρι την ηθική του ελέγχου− εκτυλίσσονται ήδη, σε πρώιμο ίσως στάδιο, μπροστά στα μάτια μας.
Οι 5 Κατηγορίες Κινδύνου
Πίσω τώρα στους κινδύνους. Προκειμένου να διαχειριστούμε την έλευση ενός συστήματος νοημοσύνης τέτοιας ισχύος, ο Amodei υποστηρίζει ότι πρέπει να αντιμετωπίσουμε την AI όχι ως εργαλείο, αλλά ως μια «νέα χώρα» που εγκαθίσταται ανάμεσά μας.
Οι δε κίνδυνοι που προκύπτουν, αγγίζοντας τα θεμέλια της κοινωνίας, της οικονομίας και της ίδιας της ανθρώπινης κυριαρχίας, όπως χαρακτηριστικά τους περιγράφει, είναι οι ακόλουθοι:
- Κίνδυνοι Αυτονομίας: Ποιες είναι οι προθέσεις και οι στόχοι αυτής της νέας χώρας; Είναι εχθρική ή μοιράζεται τις αξίες μας; Θα μπορούσε να κυριαρχήσει στρατιωτικά στον κόσμο μέσω ανώτερων όπλων, κυβερνοεπιθέσεων, επιχειρήσεων επιρροής ή παραγωγικής ισχύος;
- Κατάχρηση για Καταστροφή: Ας υποθέσουμε ότι η νέα χώρα είναι πειθήνια και «ακολουθεί οδηγίες» − και επομένως είναι ουσιαστικά μια χώρα μισθοφόρων. Θα μπορούσαν υπάρχοντες κακόβουλοι παίκτες που θέλουν να προκαλέσουν καταστροφή (όπως τρομοκράτες) να χρησιμοποιήσουν ή να χειραγωγήσουν κάποιους από τους ανθρώπους στη νέα χώρα για να γίνουν πολύ πιο αποτελεσματικοί, ενισχύοντας δραματικά την κλίμακα της καταστροφής;
- Κατάχρηση για Κατάληψη Εξουσίας: Τι συμβαίνει αν η χώρα χτίστηκε και ελέγχεται από έναν ήδη ισχυρό παίκτη, όπως ένας δικτάτορας ή ένας ανεξέλεγκτος εταιρικός κολοσσός; Θα μπορούσε αυτός ο παίκτης να τη χρησιμοποιήσει για να αποκτήσει καθοριστική ή κυρίαρχη εξουσία σε ολόκληρο τον κόσμο, ανατρέποντας την υπάρχουσα ισορροπία δυνάμεων;
- Οικονομική Απορρύθμιση: Εάν η νέα χώρα δεν αποτελεί απειλή για την ασφάλεια με κανέναν από τους τρόπους που αναφέρθηκαν παραπάνω, αλλά απλώς συμμετέχει ειρηνικά στην παγκόσμια οικονομία, θα μπορούσε παρ’ όλα αυτά να δημιουργήσει σοβαρούς κινδύνους απλώς και μόνο επειδή είναι τόσο τεχνολογικά προηγμένη και αποτελεσματική, ώστε να διαταράξει την παγκόσμια οικονομία, προκαλώντας μαζική ανεργία ή ριζική συγκέντρωση πλούτου;
- Έμμεσες Επιπτώσεις:Ο κόσμος θα αλλάξει πολύ γρήγορα λόγω της νέας τεχνολογίας και της παραγωγικότητας που θα δημιουργηθεί από αυτή, τη νέα χώρα. Θα μπορούσαν ορισμένες από αυτές τις αλλαγές να αποδειχθούν ριζικά αποσταθεροποιητικές;
Η Πραγματικότητα μας Προλαβαίνει: Το Τελεσίγραφο του Πενταγώνου
Για να καταλάβετε ότι οι αναλύσεις του Amodei δεν αποτελούν θεωρητικές ασκήσεις επί χάρτου, αρκεί να δούμε τι συμβαίνει αυτή τη στιγμή στην Ουάσιγκτον. Η τρέχουσα αντιπαράθεση της Anthropic με το αμερικανικό Πεντάγωνο αποτελεί την απόλυτη απόδειξη ότι το διακύβευμα δεν αφορά το «αύριο», αλλά το πώς η τεχνολογία αναδιαμορφώνει τις ισορροπίες ισχύος στο «εδώ και τώρα».
Τι συνέβη; Σύμφωνα με αποκλειστικό ρεπορτάζ του Axios, ο Αμερικανός Υπουργός Άμυνας Pete Hegseth έθεσε προ ημερών στην Anthropic ένα τελεσίγραφο: είτε παραχωρεί στον στρατό πλήρη και ανεμπόδιστη πρόσβαση στις δυνατότητες του Claude, είτε η εταιρεία θα κηρυχθεί «κίνδυνος για την εφοδιαστική αλυσίδα» (supply chain risk), μια απόφαση που, στην πράξη, θα μπορούσε να οδηγήσει σε ευρύ αποκλεισμό της από αμερικανικούς κυβερνητικούς/αμυντικούς συνεργάτες.
Η σύγκρουση έχει ιδιαίτερη βαρύτητα, καθώς το Claude είναι το μοναδικό σύστημα AI που βρίσκεται ήδη στα διαβαθμισμένα συστήματα του αμερικανικού στρατού. Η δε ένταση, σύμφωνα με το ρεπορτάζ, πηγάζει από την άρνηση της Anthropic να υποχωρήσει σε δύο συγκεκριμένες «κόκκινες γραμμές» της: τη χρήση της AI για μαζική παρακολούθηση πολιτών και την ανάπτυξη αυτόνομων φονικών όπλων που πυροβολούν χωρίς ανθρώπινη παρέμβαση.
Το Πεντάγωνο φέρεται να ξεκαθαρίζει ότι δεν θα επιτρέψει σε καμία ιδιωτική εταιρεία να θέτει όρους στις επιχειρησιακές αποφάσεις του στρατού, απαιτώντας τη χρήση των εργαλείων για «κάθε έννομο σκοπό». Το επιχείρημα της εταιρείας; Οι υπάρχοντες νόμοι περί ιδιωτικότητας και διεξαγωγής πολέμου γράφτηκαν σε μια εποχή που κανείς δεν μπορούσε να φανταστεί εργαλεία με τέτοια ισχύ. Όταν το νομικό πλαίσιο είναι τόσο ξεπερασμένο, πώς μπορεί να προσφέρει ουσιαστική προστασία απέναντι σε συστήματα που μπορούν να αναλύσουν κάθε δημόσια πληροφορία, σε κλίμακα που καταργεί την ανθρώπινη ιδιωτικότητα, ακόμη κι αν η συλλογή των δεδομένων είναι τεχνικά «νόμιμη»;
Λίγες μόλις εβδομάδες μετά τη δημοσίευση του essay του Amodei, μια σειρά από τη ρίσκα και τα διλήμματα που αναφέρει μοιάζει να αφορούν την πραγματικότητα και τη δική του εταιρεία. Είτε το έγραψε προβλέποντας αυτή τη σύγκρουση είτε όχι, το γεγονός παραμένει: η μάχη για το ποιος θέτει τα όρια της «νοημοσύνης» −και για ποιους σκοπούς− έχει ήδη ξεκινήσει. Και αν η Anthropic κάνει πίσω, το προηγούμενο που θα δημιουργηθεί δεν θα αφορά μόνο την ίδια.
Διαβάστε επίσης στην αθηΝΕΑ:
Τεχνητή Νοημοσύνη: Όσα Δεν Λέμε
Όταν η Τεχνητή Νοημοσύνη μας Ξέρει Λίγο Παραπάνω
«A House of Dynamite» | Κανείς δεν Ελέγχει το Τέλος του Κόσμου