Οι ηθικοί φραγμοί φαίνεται να είναι άγνωστη έννοια στον Elon Musk. Η υποχρέωση να τηρεί τους νόμους ώστε να προστατεύονται οι χρήστες X, κενό γράμμα. Ο πλουσιότερος άνθρωπος στον πλανήτη πιθανώς να βρίσκει διασκεδαστικό το να προσφέρει αφειδώς εύχρηστη τεχνολογία για τη δημιουργία πορνογραφικού υλικού – αδιακρίτως αν αυτό υπονομεύει την ασφάλεια ακόμη και ανήλικων παιδιών. Ευτυχώς, ακόμα, μέρος της κοινής γνώμης και των πολιτειακών θεσμών παγκοσμίως αντιδρούν.
Το πιο πρόσφατο δείγμα της άνευ ορίων στάσης της xAI απέναντι στην κατάχρηση της τεχνητής νοημοσύνης είχε σύνθημα «put her in a bikini». Πρόκειται για το τελευταίο «επίτευγμα» -από τα πολλά- του chatbot Grok, και επέτρεπε την αφαίρεση των ρούχων των απεικονιζόμενων -ακόμη κι αν επρόκειτο για ανήλικα παιδιά- και την αντικατάστασή τους με μπικίνι.
Και Δωρεάν και Viral
Το «put her in a bikini» έκανε την εμφάνισή του στα τέλη του 2025. Μέσα στην πρώτη εβδομάδα του 2026, η συγκεκριμένη ψηφιακή επεξεργασία έγινε trend, με το Grok να δέχεται περί τα 6.000 αιτήματα την ώρα για χρήση αυτής της δυνατότητας που παρέχονταν μάλιστα δωρεάν.
Καθώς οι άνθρωποι άρχισαν σιγά σιγά να εξερευνούν τις δυνατότητες του εργαλείου, το μπικίνι μετατράπηκε σε διαφανές μπικίνι, στη συνέχεια σε μπικίνι από οδοντικό νήμα, σε κορδόνι γύρω από τη μέση ενός γυμνού σώματος, σε μπικίνι με σβάστικες, ενώ δεν έλειψαν οι χρήστες που ζήτησαν να δουν μώλωπες στα σώματα των απεικονιζόμενων ή να προστεθεί αίμα στις εικόνες.
Η μετατροπή μιας καθημερινής, κόσμιας φωτογραφίας σε πορνογραφικό υλικό είχε θύματα και ανήλικα παιδιά −κορίτσια ως επί το πλείστον−, τα οποία, με την επεξεργασία μέσω Grok, εμφανίστηκαν σχεδόν γυμνά, με στριγνκ μπικίνι, ή και σε σεξουαλικά ταπεινωτικές ή βίαιες πόζες.
Οι εικόνες μπορούσαν να δημιουργηθούν χωρίς τη συναίνεσή τους και να εμφανιστούν δημοσίως στο X, ενώ ο ίδιος ο Musk, για να διασκεδάσει την κατάσταση, δημοσίευσε ψηφιακά τροποποιημένες εικόνες του εαυτού του με μπικίνι.
Οργισμένες Διαμαρτυρίες
Οι διαμαρτυρίες που ακολούθησαν ήταν σφοδρές. Η Ευρωπαϊκή Επιτροπή, μέσω του εκπροσώπου Τύπου Thomas Regnier, καταδίκασε τη διάδοση σεξουαλικών εικόνων στο X, λέγοντας πως μια τέτοια παράνομη, φρικτή, αηδιαστική −και όχι «πικάντική», όπως χαρακτηρίζεται από τους υποστηρικτές της− εφαρμογή δεν έχει θέση στη Ευρώπη.
Η βρετανική ρυθμιστική αρχή Ofcom ζήτησε εξηγήσεις και προειδοποίησε ότι τέτοιες πρακτικές μπορεί να είναι παράνομες στο πλαίσιο του Online Safety Act. Ταυτόχρονα τόνισε: «Η δημιουργία ή η κοινοποίηση μη συναινετικών προσωπικών εικόνων ή υλικού σεξουαλικής κακοποίησης παιδιών, συμπεριλαμβανομένων σεξουαλικών εικόνων που δημιουργούνται από τεχνητή νοημοσύνη, είναι παράνομη στη Βρετανία».
Ακόμη, Γάλλοι υπουργοί προσέφυγαν στην Εισαγγελία, χαρακτηρίζοντας το περιεχόμενο που παρήγαγε το chatbot Grok «σεξουαλικό και σεξιστικό» και «κατάφωρα παράνομο», ενώ η Αμερικανική Ομοσπονδία Εκπαιδευτικών ανακοίνωσε ότι αποχωρεί από το X.
CSAM: Η Τεράστια Πληγή της AI
Η δημιουργία υλικού σεξουαλικής κακοποίησης παιδιών μέσω τεχνητής νοημοσύνης είναι, εδώ και χρόνια, βαθιά πληγή. Μελέτη του 2023 από το Πανεπιστήμιο του Στάνφορντ διαπίστωσε ότι ένα σύνολο δεδομένων που χρησιμοποιήθηκε για την εκπαίδευση ορισμένων δημοφιλών εργαλείων δημιουργίας εικόνων τεχνητής νοημοσύνης περιείχε πάνω από 1.000 εικόνες CSAM (Child Sexual Abuse Material).
Η εκπαίδευση της τεχνητής νοημοσύνης σε εικόνες κακοποίησης παιδιών, μάλιστα, μπορεί να επιτρέψει στα μοντέλα να δημιουργούν νέες εικόνες παιδιών, τροφοδοτώντας έναν ολέθριο φαύλο κύκλο βίας. Ωστόσο, αυτές οι διαδρομές υπάρχουν ως επί το πλείστον στο δυσπρόσιτο ή εύκολα προσβάσιμο μόνο για τους μυημένους dark web. Με τον Grok, ακόμη κι αυτά τα εμπόδια κατέρρευσαν.
Πρώτα Λανσάρουμε, Μετά Ελέγχουμε
Η διεθνής κατακραυγή δεν πτόησε τον Musk, ο οποίος, αφού αγνόησε τις αντιδράσεις για μέρες, κατέστησε διαθέσιμες τις δυνατότητες δημιουργίας εικόνων μόνο σε συνδρομητές, στέλνοντας το μήνυμα ότι η κατάχρηση του εργαλείου είναι ΟΚ, αρκεί ο ίδιος οικονομικά να επωφελείται! Φυσικά, όταν ένα AI εργαλείο διατίθεται επί πληρωμή δεν σημαίνει ότι γίνεται κατανοητή η ηθική και παράνομη διάσταση του ζητήματος, ούτε αντιμετωπίζονται επί της ουσίας οι κίνδυνοι που ελλοχεύουν.
Ο Elon Musk και η xAI υποστηρίζουν ότι ορισμένες τέτοιες εικόνες είναι αποτέλεσμα λανθασμένων prompts και ότι προσπαθούν να περιορίσουν την πρόσβαση σε εικόνες όπου εμφανίζονται άνθρωποι, ειδικά ανήλικοι. Η πραγματικότητα όμως είναι πως ακολούθησαν τη συνηθισμένη τους τακτική: πρώτα λάνσαραν το προϊόν τους και μετά άρχισαν να μιλούν για «τεχνικά» λάθη.
Η δημιουργία πορνογραφικού υλικού από το Grok, όμως, δεν εμπίπτει σε καμία «γκρίζα ζώνη». Αντανακλά μια σαφή και θεμελιώδη αποτυχία στον σχεδιασμό του συστήματος, στις αξιολογήσεις ασφάλειας, στην εποπτεία και στον έλεγχό του. Η ευκολία με την οποία το Grok μπορεί να καθοδηγηθεί ώστε να παράγει σεξουαλικοποιημένες εικόνες που περιλαμβάνουν ανήλικους και η απουσία δημόσια επαληθευμένων δοκιμών ασφάλειας καταδεικνύουν ότι το σύστημα αποτυγχάνει να ανταποκριθεί στις ελάχιστες προσδοκίες της κοινωνίας για ισχυρά αλλά στοιχειωδώς ασφαλή συστήματα τεχνητής νοημοσύνης.
Αδυναμία Ελέγχου
Η αμερικανική Γερουσία, λίγες ημέρες μετά το σκάνδαλο Grok, ψήφισε ομόφωνα νόμο για τη δημιουργία ενός ομοσπονδιακού αστικού δικαιώματος αγωγής από άτομα που έχουν πέσει θύματα προσωπικών ψηφιακών πλαστογραφήσεων. Πρόκειται για τον νόμο Disrupt Explicit Forged Imagesand Non-Consensual Edits Act που, αν ψηφιστεί και από τη Βουλή των Αντιπροσώπων, θα επιτρέπει στα θύματα να προσφύγουν στα πολιτικά δικαστήρια για ζημία και αποζημίωση όταν το πρόσωπό τους χρησιμοποιείται σε τέτοιες εικόνες.
Η X από την πλευρά της ανακοίνωσε ότι εφαρμόζει πια τεχνολογικά μέτρα που θα εμποδίζουν τον λογαριασμό Grok να επιτρέπει την επεξεργασία εικόνων πραγματικών ανθρώπων με αποκαλυπτικά ρούχα. Ωστόσο, το Grok παραμένει ένα κραυγαλέο παράδειγμα του πόσο εύκολα μπορούν να παρακαμφθούν οι δικλείδες ασφαλείας της τεχνητής νοημοσύνης και πόσο δυσκολεύονται να αντιδράσουν οι κυβερνήσεις σε πραγματικό χρόνο. Η παλιά φιλοσοφία της Silicon Valley —move fast and break things— εφαρμόζεται πλέον σε τεχνολογίες με κοινωνικό κόστος πρωτοφανές. Και αυτή τη φορά, ό,τι «σπάει» δεν επιδιορθώνεται εύκολα.
Διαβάστε επίσης στην αθηΝΕΑ:
