Η «σκοτεινή» εφαρμογή που γδύνει γυναίκες

Οι γυμνές εικόνες πραγματικών γυναικών που δημιουργούνται με τη βοήθεια τεχνητής νοημοσύνης αποτελούν το επιχειρηματικό μοντέλο μιας αμφιλεγόμενης εφαρμογής που γδύνει γυναικεία σώματα κερδίζοντας χρήματα. Το Clothoff έχει ένα κερδοφόρο επιχειρηματικό μοντέλο χάρη στη λειτουργία «nudify» (σε ελεύθερη απόδοση «τεχνητή απογύμνωση») που δέχεται εκατομμύρια επισκέπτες. Ενας πληροφοριοδότης, που εργάζεται σε αυτό, έδωσε λεπτομερείς πληροφορίες στο γερμανικό περιοδικό «Der Spiegel» για τον τρόπο που το λειτουργούν οι κυνικοί χειριστές της ιστοσελίδας.

Οι γυμνές φωτογραφίες που δημιουργούνται με τη βοήθεια της τεχνητής νοημοσύνης είναι μια νέα μορφή διαδικτυακού εκφοβισμού (cyber-mobbing). Και το Clothoff μια εφαρμογή που υποστηρίζει το nudify δημιουργώντας ψευδείς εικόνες πορνό στην ακμάζουσα παγκόσμια αγορά που τα τελευταία δύο χρόνια έχει αναπτύξει περισσότερες από 60 τέτοιες υπηρεσίες. Ολες λειτουργούν ουσιαστικά με τον ίδιο τρόπο: Η τεχνητή νοημοσύνη που χρησιμοποιεί η εφαρμογή επιτρέπει με λίγα μόνο κλικ να μετατραπεί μια απλή φωτογραφία σε μια εικόνα με μπικίνι ή σε εντελώς γυμνή εικόνα.

Τέτοια deepfakes ανυποψίαστων γυναικών συγκαταλέγονται στις ελάχιστα σχολιασμένες αρνητικές συνέπειες που προκάλεσε τα τελευταία χρόνια η ραγδαία εξέλιξη της τεχνητής νοημοσύνης. Οι εφαρμογές nudify δεν κρύβονται σε σκοτεινά φόρουμ ή πλατφόρμες πορνογραφίας, αλλά είναι ελεύθερα διαθέσιμες στο Διαδίκτυο. Οι εικόνες γυναικών με εσώρουχα είναι συνήθως δωρεάν, ενώ οι ψεύτικες φωτογραφίες με τα υποκείμενα σε τυπικές πορνογραφικές στάσεις διατίθενται με κόστος λίγων ευρώ. Ο μοναδικός τους περιορισμός είναι ο έμφυλος χαρακτήρας των υπηρεσιών τους: παράγουν εικόνες μόνο με βάση τα γυναικεία σώματα, καθώς τα προγράμματα τεχνητής νοημοσύνης που χρησιμοποιούν δεν έχουν εκπαιδευτεί πάνω στην εικονογραφία γυμνών ανδρών.

Τον Οκτώβριο του 2023, μια ομάδα αγοριών σε ένα σχολείο στην Πολιτεία Νιου Τζέρσεϊ των ΗΠΑ ανέβασε φωτογραφίες μιας δεκατετράχρονης τις οποίες τράβηξαν εν αγνοία της καθώς και άλλες εικόνες τριάντα κοριτσιών σε μια εφαρμογή που δημιουργούσε πορνογραφικές εικόνες. Σε περισσότερα από 500 σχολεία και πανεπιστήμια στη Νότια Κορέα γυμνές εικόνες νέων γυναικών και κοριτσιών δημιουργήθηκαν με τη βοήθεια της τεχνητής νοημοσύνης το 2024. Τα deepfakes μοιράζονταν σε μεγάλες ομάδες συνομιλητών στο Telegram και σε ορισμένες περιπτώσεις χρησιμοποιήθηκαν για εκβιασμό των θυμάτων.

Θύμα και η Σουίφτ

Πορνογραφικές εικόνες της Τέιλορ Σουίφτ που δημιουργήθηκαν με ΑΙ κυκλοφόρησαν για αρκετές ώρες τον Ιανουάριο του 2024 στην πλατφόρμα Χ. Είχαν προβληθεί έως και 47 εκατομμύρια φορές πριν από την παρέμβαση της πλατφόρμας. Νέες γυναίκες στη Γερμανία έχουν επίσης πέσει θύματα τέτοιων επιθέσεων αναφέρει το «Der Spiegel». Σε μια μικρή πόλη της Ισπανίας οι δράστες ήταν 15 ανήλικα αγόρια που υπέκλεψαν φωτογραφία μιας έφηβης από το προσβάσιμο προφίλ της στο WhatsApp και την ανέβασαν στο Clothoff. Το πρόγραμμα AI της εφαρμογής παρήγαγε μια γυμνή εικόνα. Για άλλες κοπέλες, χρησιμοποίησαν φωτογραφίες από τους λογαριασμούς τους στο Instagram. Τα αγόρια καταδικάστηκαν στην Ισπανία με ανασταλτικές ποινές ενός έτους για τη διανομή παιδικής πορνογραφίας. Η μητέρα της έφηβης εξέφρασε την ικανοποίησή της με τον τρόπο που η πόλη χειρίστηκε την υπόθεση, καθώς οι γονείς των δύο πλευρών κατέληξαν σε συμφωνία στο δικαστήριο. Ωστόσο η υπόθεση μέχρι στιγμής δεν είχε καμία νομική συνέπεια για τους ανθρώπους πίσω από το Clothoff.

Το «Der Spiegel» είχε αναφερθεί για πρώτη φορά στο παγκόσμιο αυξανόμενο πρόβλημα του deepfake πορνό τον Δεκέμβριο του 2024. Το περιοδικό επανέρχεται στην έρευνά του με νέα στοιχεία από έναν εσωτερικό πληροφοριοδότη ο οποίος εργάζεται στο Clothoff, μία από τις κορυφαίες εφαρμογές στην αγορά. Μόνο τους πρώτους έξι μήνες του 2024 η ιστοσελίδα δέχτηκε 27 εκατομμύρια επισκέπτες, με μέσο όρο την παραγωγή 200.000 εικόνων καθημερινά. Χιλιάδες γυναίκες πιθανόν να έχουν πέσει θύματα του Clothoff. Οι δημιουργοί του είναι ανάμεσα στους πιο ανήθικους χειριστές εφαρμογών nudify και προσφέρουν φωτομοντάζ με στολές μαθητριών και εγκύων σε σεξουαλικές πόζες. Η εφαρμογή πρόσφατα ξεκίνησε την προώθηση και δυνατότητας δημιουργίας ψεύτικων βίντεο από μια φωτογραφία. Ηδη η λειτουργία αυτή έχει χρησιμοποιηθεί πάνω από ένα εκατομμύριο φορές.

Εκ των έσω

Ο πληροφοριοδότης του «Der Spiegel» δούλευε για την εφαρμογή. Ο ίδιος λέει ότι στην αρχή ένιωθε σαν να είναι μέλος μιας συναρπαστικής startup. «Αλλά με τον καιρό οι άνθρωποι έγιναν απλά κυνικοί και εμμονικοί με τα χρήματα. Το Clothoff έχει εξαγοράσει ολόκληρο δίκτυο εφαρμογών nudify» δηλώνει ο πληροφοριοδότης. Και στο πλαίσιο της επιχειρηματικής του επέκτασης το Clothoff σχεδιάζει να δημιουργήσει γυμνές εικόνες γνωστών influencers, τραγουδιστριών και ηθοποιών. «Εσύ διαλέγεις ποια θέλεις να γδύσεις» είναι το σλόγκαν πάνω από μια λίστα με διασημότητες της Γερμανίας από τις οποίες εκείνη με τη μεγαλύτερη ζήτηση θα αναγορευτεί στην «πιο καυτή καλλονή».

Το «Der Spiegel» γνωρίζει τα ονόματα των σταρ που φαίνεται ότι εκμεταλλεύεται το Clothoff. Πολλές από αυτές τις διάσημες προσωπικότητες έχουν επιβεβαιώσει ότι δεν έδωσαν ποτέ τη συγκατάθεσή τους για την εκστρατεία ή για τη χρήση των εικόνων τους από το πρόγραμμα AI. Ατομα του περιβάλλοντός τους δήλωσαν στο περιοδικό ότι σοκαρίστηκαν ιδιαίτερα που μια εφαρμογή όπως το Clothoff, η οποία μπορεί να χρησιμοποιηθεί για διαδικτυακό εκφοβισμό σε σχολεία, τώρα σχεδιάζει να χρησιμοποιήσει εικόνες διασήμων για διαφημιστικούς σκοπούς. Και πολλοί εκπρόσωποι των σταρ δηλώνουν ότι θα κινηθούν νομικά αν η καμπάνια βγει στον αέρα.