Εκλογές: Πόσο Έτοιμοι Είμαστε να Αντιμετωπίσουμε τα Deepfakes;

Deepfake

Οι πρόσφατες κρίσιμες κοινοβουλευτικές εκλογές στη Σλοβακία τον περασμένο Σεπτέμβριο σημαδεύτηκαν από ένα ιδιαίτερο γεγονός. Μόλις δύο μέρες πριν από την ημέρα των εκλογών, δημοσιεύτηκε στα κοινωνικά δίκτυα μια ηχογράφηση από έναν υποτιθέμενο διάλογο μεταξύ του Michal Šimečka, ηγέτη του φιλελεύθερου κόμματος της Προοδευτικής Σλοβακίας, και της Monika Tódová, δημοσιογράφου της καθημερινής εφημερίδας Denník N. Στη συνομιλία, η οποία έγινε βέβαια viral, ο Šimečka φέρεται να καυχιέται για τις προσπάθειές του να νοθεύσει το αποτέλεσμα των εκλογών, εξαγοράζοντας ψήφους από την περιθωριοποιημένη μειονότητα των Ρομά της χώρας.

Οι φερόμενοι ως συνομιλητές κατήγγειλαν αμέσως τη συγκεκριμένη ηχογράφηση ως ψεύτικη. Το τμήμα ελέγχου γεγονότων (fact checking) του πρακτορείου ειδήσεων AFP αποφάνθηκε ότι η συνομιλία ήταν πλαστή, δημιούργημα της τεχνητής νοημοσύνης. Όμως, ο επίμαχος «διάλογος» δημοσιεύτηκε κατά τη διάρκεια του μορατόριουμ των 48 ωρών πριν από την έναρξη της εκλογικής διαδικασίας, διάστημα που, σύμφωνα με τον εκλογικό νόμο της Σλοβακίας, τα μέσα ενημέρωσης και οι πολιτικοί καλούνται να παραμείνουν σιωπηλοί. Έτσι, ήταν πολύ δύσκολο να καταρριφθεί πριν οι πολίτες κληθούν στις κάλπες.

Εξαιρετικά ενδιαφέρον είναι και το γεγονός ότι αυτή η ιστορία αποκάλυψε και ένα κενό στην πολιτική ελέγχου της Meta για πιθανή χειραγώγηση. Οι πλατφόρμες κοινωνικών δικτύων, όπως το Facebook, ελέγχουν και απαγορεύουν μόνο τα πλαστά βίντεο και όχι τα ηχητικά – στα οποία ένα άτομο έχει υποβληθεί σε επεξεργασία για να λέει λέξεις που δεν είπε ποτέ.

Το κόμμα του Šimečka, με θέσεις υπέρ του δυτικού προσανατολισμού της χώρας, ηττήθηκε τελικά από το SMER, έναν αντίπαλο που υποστήριξε στενότερους δεσμούς με τη Μόσχα και τον Ρώσο πρόεδρο Vladimir Putin. Ενώ ο αριθμός των ψήφων που επηρεάστηκαν από το πλαστό ηχητικό παραμένει αβέβαιος, ένα πράγμα είναι πλέον απολύτως ξεκάθαρο: τέτοιες ηχογραφήσεις που δημιουργούνται με χρήση τεχνητής νοημοσύνης μπορούν να αποτελέσουν όπλο μαζικής χειραγώγησης. Υπάρχει δε ένας νέος όρος για τέτοια πλαστά βίντεο ή ηχητικά: deepfakes.

Εκλογές υπό τη Σκιά των Deepfakes

Σήμερα, πολλές χώρες μελετούν τι συνέβη στη Σλοβακία ώστε να προετοιμαστούν για να αντιμετωπίσουν ανάλογες προκλήσεις. Και βέβαια, κανείς δεν έχει ξεχάσει το σκάνδαλο της Cambridge Analytica το 2018, όταν η βρετανική συμβουλευτική εταιρεία, συνεργαζόμενη με την ομάδα του Donald Trump, χρησιμοποίησε εκατομμύρια προφίλ ψηφοφόρων στο Facebook, σε μια από τις μεγαλύτερες παραβιάσεις δεδομένων του τεχνολογικού κολοσσού, για να δημιουργήσει ένα ισχυρό πρόγραμμα λογισμικού με στόχο να επηρεάσει το αποτέλεσμα των εκλογών.

Οι υπηρεσίες που ελέγχουν την ακρίβεια των γεγονότων (fact checking) προειδοποιούν ότι η τεχνητή νοημοσύνη είναι ήδη αρκετά προηγμένη ώστε δυνητικά να διαταράξει τις εκλογές.

Μέσα στο 2024, η Ευρωπαϊκή Ένωση, το Ηνωμένο Βασίλειο, η Ινδία και οι ΗΠΑ πρόκειται να πραγματοποιήσουν εκλογές. Πρακτικά, ο μισός πληθυσμός της Γης καλείται αυτή τη χρονιά να επιλέξει τους ηγέτες του. Οι αναλυτές στην Ευρώπη και στις ΗΠΑ θεωρούν την παραπάνω ιστορία ως δυσοίωνο προάγγελο για το τι αναμένεται να ακολουθήσει. Οι δε υπηρεσίες που ελέγχουν την ακρίβεια των γεγονότων (fact checking) προειδοποιούν ότι η τεχνητή νοημοσύνη είναι ήδη αρκετά προηγμένη ώστε δυνητικά να διαταράξει τις εκλογές. Επιπλέον, κάποιες από τις μεγαλύτερες εταιρείες τεχνολογίας, όπως η Microsoft, προειδοποιούν ότι η Κίνα χρησιμοποιεί ψεύτικους λογαριασμούς στα μέσα κοινωνικής δικτύωσης και προωθεί περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη για να σπείρει διχασμό και πιθανώς να επηρεάσει το αποτέλεσμα των προεδρικών εκλογών στις ΗΠΑ.

Deepfakes

Σε λιγότερο από δύο εβδομάδες, οι Ευρωπαίοι ψηφοφόροι θα κατευθυνθούν στις κάλπες για να αναδείξουν τους εκπροσώπους τους στο Ευρωκοινοβούλιο. Για πρώτη φορά, οι εκλογές αυτές θα διενεργηθούν υπό τη διαφαινόμενη απειλή χειραγώγησης που βασίζεται στην τεχνητή νοημοσύνη – και συγκεκριμένα τα deepfakes. Ακόμη κι αν τα αποτελέσματα της χρήσης αυτών των μεθόδων παραπληροφόρησης δεν είναι ακόμη μετρήσιμα, πρέπει να είμαστε έτοιμοι να τα αντιμετωπίσουμε. Παράλληλα, αυξάνονται οι φόβοι για εξωτερικές παρεμβάσεις με στόχο την παραπληροφόρηση και την παραπλάνηση των ψηφοφόρων.

Είναι οι θεσμοί –κυβερνήσεις, κόμματα, μέσα μαζικής ενημέρωσης– και οι ψηφοφόροι έτοιμοι γι’ αυτή τη μάχη;

Ένας Κώδικας Δεοντολογίας για τις Ευρωεκλογές

Τον περασμένο Απρίλιο, τα (περισσότερα) ευρωπαϊκά πολιτικά κόμματα υπέγραψαν τον Κώδικα Δεοντολογίας για τις Εκλογές του Ευρωπαϊκού Κοινοβουλίου του 2024 και με την υπογραφή τους αυτή δεσμεύτηκαν να τηρούν ηθικές και δίκαιες πρακτικές στις προεκλογικές τους εκστρατείες. Τα κόμματα συμφώνησαν να διασφαλίσουν την ηθική και διαφανή χρήση των εργαλείων της τεχνητής νοημοσύνης και να αποφύγουν την παραγωγή, χρήση ή διάδοση παραπλανητικού περιεχομένου που παράγεται με αυτή. Στο πλαίσιο των αυξανόμενων ανησυχιών για την προστασία της ακεραιότητας των εκλογών στην Ευρώπη από εσωτερικές και εξωτερικές απειλές, αυτή η δέσμευση των πολιτικών κομμάτων έχει ιδιαίτερη σημασία.

Οι υπογράφουσες εταιρείες, μεταξύ αυτών οι Microsoft, Google, Meta, X, Amazon, OpenAI, IBM κ.ά., δεσμεύτηκαν να εργαστούν από κοινού σε εργαλεία για τον εντοπισμό περιεχομένου τεχνητής νοημοσύνης με στόχο την παραπλάνηση των ψηφοφόρων.

Τα καλά νέα είναι ότι και οι εταιρείες τεχνολογίας έχουν ευαισθητοποιηθεί σχετικά με το συγκεκριμένο θέμα. Πριν από λίγους μήνες, τον Φεβρουάριο του 2024, στη Διάσκεψη Ασφαλείας του Μονάχου (MSC), 20 κορυφαίες εταιρείες τεχνολογίας δεσμεύτηκαν να συνεισφέρουν στην αποτροπή χρήσης τεχνητής νοημοσύνης για παρέμβαση στις επερχόμενες εκλογές του έτους, στις οποίες θα ψηφίσουν περισσότεροι από 4 δισεκατομμύρια άνθρωποι σε περισσότερες από 40 χώρες.

Η «Συμφωνία για την Καταπολέμηση της Παραπλανητικής Χρήσης της Τεχνητής Νοημοσύνης στις Εκλογές του 2024» περιλαμβάνει ένα σύνολο δεσμεύσεων που αφορούν την ανάπτυξη τεχνολογίας για την αντιμετώπιση επιβλαβούς περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη με σκοπό την εξαπάτηση των ψηφοφόρων.

Οι υπογράφουσες εταιρείες, μεταξύ αυτών οι Microsoft, Google, Meta, X, Amazon, OpenAI, IBM κ.ά., δεσμεύτηκαν να εργαστούν από κοινού σε εργαλεία για τον εντοπισμό περιεχομένου τεχνητής νοημοσύνης με στόχο την παραπλάνηση των ψηφοφόρων και την αποτροπή της διαδικτυακής διανομής τέτοιου περιεχομένου. Επίσης, ανακοίνωσαν ότι θα οργανώσουν εκπαιδευτικές εκστρατείες για ενημέρωση και ευαισθητοποίηση των ψηφοφόρων.

Το ψηφιακό περιεχόμενο που διέπεται από τη συμφωνία περιλαμβάνει ήχο, βίντεο και εικόνες που δημιουργούνται από AI, που παραπλανητικά προσποιούνται ή αλλοιώνουν την εμφάνιση, τη φωνή ή τη δράση των πολιτικών υποψηφίων, ή που παρέχουν ψευδείς πληροφορίες στους ψηφοφόρους σχετικά με το πότε, πού και πώς μπορούν να ψηφίσουν.

Η συμφωνία είναι ένα σημαντικό βήμα για την προστασία των διαδικτυακών κοινοτήτων από επιβλαβές περιεχόμενο τεχνητής νοημοσύνης. Και είναι ενθαρρυντικό το γεγονός ότι παρόλο που οι επιχειρήσεις αυτές ανταγωνίζονται σκληρά στην έρευνα και την καινοτομία γύρω από την τεχνητή νοημοσύνη επιλέγουν να συστρατευτούν στον αγαθό σκοπό της ορθής χρήσης της, με στόχο την εξασφάλιση της διαφάνειας και της ακεραιότητας της εκλογικής διαδικασίας.

Deepfakes

Υποψιασμένοι στο Διαδίκτυο

Όσο για εμάς τους ψηφοφόρους, τι πρέπει εμείς να κάνουμε;

Πρώτα απ’ όλα να είμαστε «υποψιασμένοι». Στην κυβερνοασφάλεια, αυτή η προσέγγιση λέγεται «μηδενικής εμπιστοσύνης» (zero trust) και σημαίνει ότι δεν εμπιστεύεσαι τίποτα από προεπιλογή· αντ’ αυτού, επαληθεύεις τα πάντα. Με άλλα λόγια, όταν καταναλώνουμε πληροφορία στο διαδίκτυο πρέπει να έχουμε μια υγιή δόση σκεπτικισμού, να επιστρατεύουμε την κριτική μας σκέψη και να προσπαθούμε να την επαληθεύουμε. Όταν εκτεθούμε σε ψηφιακό περιεχόμενο που προκαλεί συναισθηματική ενέργεια, η καλύτερη αντιμετώπιση είναι να εφαρμόσουμε πρακτικές ενσυνειδητότητας, να κάνουμε παύση πριν αντιδράσουμε και να ελέγξουμε την αυθεντικότητά του σκόπιμα και στοχαστικά.

Τα εργαλεία ελέγχου των deepfakes εξελίσσονται κι αυτά παράλληλα με την εξέλιξη της τεχνητής νοημοσύνης. Σήμερα υπάρχουν πολλά δωρεάν εργαλεία, όπως το TensorFlow, τα οποία μπορούμε να αξιοποιήσουμε για να αναλύσουμε εικόνες, βίντεο και ηχητικά για να εντοπίσουμε σημάδια χειραγώγησης.

Τις τελευταίες μέρες, η συζήτηση στην Ευρωπαϊκή Ένωση επικεντρώθηκε στην αναγκαιότητα κατασκευής ενός «σιδερένιου θόλου», μιας πανευρωπαϊκής αμυντικής «ομπρέλας» που θα μπορέσει να αποτρέψει επιθέσεις από αεροσκάφη, πυραύλους και drones. Η αποτροπή εξωγενών παρεμβάσεων παραπληροφόρησης των Ευρωπαίων πολιτών κάνει πλέον επιτακτική και τη δημιουργία ενός ψηφιακού «σιδερένιου θόλου». Για τη διαφάνεια, την ακεραιότητα, τη δημοκρατία.

 

Διαβάστε επίσης στην αθηΝΕΑ:

Τι να Προσδοκά η Ελλάδα στην Εποχή της AI;

Παγκόσμιο Οικονομικό Φόρουμ | H AI Διαμορφώνει το Παρόν και το Μέλλον

Suno AI | Η Μουσική Γράφεται με «ΑΙ»;

ΑΡΘΡΟΓΡΑΦΟΣ

Η Μυλαίδη Στούµπου είναι ανώτερο στέλεχος του ιδιωτικού τομέα με πολυετή θητεία σε θέσεις ευθύνης στον απαιτητικό χώρο των σύγχρονων τεχνολογιών τόσο στην Ελλάδα όσο και στο εξωτερικό. Είναι Μηχανικός Ηλεκτρονικών Υπολογιστών και Πληροφορικής από το Πανεπιστήµιο Πατρών, ενώ διαθέτει µεταπτυχιακό τίτλο σε «Economics and Management» από το Athens Information Technology. Είναι πρόεδρος της επιτροπής Women in Business (WIB) του Ελληνο-Αµερικανικού Εµπορικού Επιµελητηρίου και μέντορας στο Women Leadership Programme για το Ευρωπαϊκό Συμβούλιο Καινοτομίας (EIC). Συμμετέχει σε πρωτοβουλίες διαφορετικότητας και συμπερίληψης (Diversity & Inclusion) εντός της εταιρίας της, αλλά και ως εθελοντής μέντορας στο Women on Top. Ως μέντορας στο πρόγραμμα Microsoft for Startups και το MIT Enterprise Forum Greece συμβουλεύει νέες επιχειρήσεις σε θέματα υγιούς επιχειρηµατικότητας και διεθνούς ανάπτυξης. Συµµετέχει ως οµιλήτρια σε διακεκριµένα συνέδρια, συμπ. του TEDx, ενώ δίνει διαλέξεις και αρθρογραφεί για θέµατα καινοτοµίας και εξωστρεφούς επιχειρηµατικότητας, ψηφιακής οικονοµίας, σύγχρονου εργασιακού περιβάλλοντος και ίσων ευκαιριών.

ΑΝΑΖΗΤΗΣΗ

Τα σημαντικότερα νέα της ημέρας, στο inbox σου κάθε μεσημέρι!

ΕΓΓPΑΦΕΙΤΕ ΣΤΟ NEWSLETTER

+