Ανάρπαστες οι εφαρμογές που ξεγυμνώνουν γυναίκες

Οι υπηρεσίες αυτές χρησιμοποιούν την πολυσυζητημένη Τεχνητή Νοημοσύνη για να αναδημιουργήσουν μια εικόνα με τέτοιο τρόπο, ώστε το άτομο να φαίνεται γυμνό.

Ανάρπαστες οι εφαρμογές που ξεγυμνώνουν γυναίκες

Οι εφαρμογές και οι ιστοσελίδες, που χρησιμοποιούν Τεχνητή Νοημοσύνη (ΑΙ) για να γδύσουν ανθρώπους -και κυρίως γυναίκες- σε φωτογραφίες, σαρώνουν σε δημοτικότητα. Μόνο τον Σεπτέμβριο, 24 εκατομμύρια άνθρωποι επισκέφθηκαν ιστοσελίδες, που αφαιρούν έξυπνα τα ρούχα, σύμφωνα με την εταιρεία ανάλυσης κοινωνικών δικτύων Graphika.

Μάλιστα, πολλές από αυτές τις υπηρεσίες «nudify» (ξεγυμνώματος) χρησιμοποιούν δημοφιλή κοινωνικά δίκτυα για μάρκετινγκ, αφού από τις αρχές του έτους μέχρι σήμερα, λίγο πριν τη λήξη του, ο αριθμός των συνδέσμων που διαφημίζουν τέτοιες εφαρμογές αυξήθηκε κατά 2.400% στα μέσα κοινωνικής δικτύωσης, συμπεριλαμβανομένων των X και Reddit.

Ο ρόλος της Τεχνητής Νοημοσύνης

Οι υπηρεσίες αυτές χρησιμοποιούν την πολυσυζητημένη Τεχνητή Νοημοσύνη για να αναδημιουργήσουν μια εικόνα με τέτοιο τρόπο, ώστε το άτομο να φαίνεται γυμνό, ενώ αξιοσημείωτο είναι ότι πολλές από αυτές λειτουργούν μόνο σε γυναίκες. Οι συγκεκριμένες εφαρμογές αποτελούν τμήμα της ανησυχητικά αυξανόμενης μη συναινετικής πορνογραφίας με εφαλτήριο την πρόοδο της Τεχνητής Νοημοσύνης, ένα είδος κατασκευασμένων μέσων ενημέρωσης γνωστό ως deepfake πορνογραφία. Η διάδοσή της προσκρούει σε σοβαρά νομικά και ηθικά εμπόδια, καθώς οι εικόνες συχνά λαμβάνονται από τα μέσα κοινωνικής δικτύωσης και διανέμονται χωρίς τη συγκατάθεση, τον έλεγχο ή τη γνώση του υποκειμένου.

Μια εικόνα που αναρτήθηκε πρόσφατα στο X και διαφήμιζε μια εφαρμογή nudify είπε ούτε λίγο ούτε πολύ στους επίδοξους πελάτες της ότι θα μπορούσαν να δημιουργήσουν γυμνές εικόνες και στη συνέχεια να τις στείλουν στο άτομο το οποίο έγδυσαν, προωθώντας ουσιαστικά την παρενόχληση, γράφει το Time. Μία από αυτές τις εφαρμογές, επίσης, πληρώσει για χορηγούμενο περιεχόμενο στο YouTube της Google και εμφανίζεται πρώτη όταν γίνεται αναζήτηση με τη λέξη «nudify». Εκπρόσωπος της Google που ρωτήθηκε σχετικά δήλωσε, πάντως, ότι η εταιρεία δεν επιτρέπει διαφημίσεις «που περιέχουν σεξουαλικά σαφές περιεχόμενο».

 

Ανήλικοι «πελάτες»

Η μη συναινετική πορνογραφία διασημοτήτων αποτελεί εδώ και καιρό μάστιγα του διαδικτύου, αλλά οι ειδικοί σε θέματα προστασίας της ιδιωτικής ζωής ανησυχούν όλο και περισσότερο για το γεγονός ότι οι εξελίξεις στην τεχνολογία Τεχνητής Νοημοσύνης έχουν καταστήσει το λογισμικό deepfake ευκολότερο και αποτελεσματικότερο. «Βλέπουμε αυτό να γίνεται όλο και περισσότερο από απλούς ανθρώπους χωρίς συγκεκριμένο στόχο, δήλωσε η Έυα Γκάλπεριν, διευθύντρια κυβερνοασφάλειας στο Electronic Frontier Foundation. «Το βλέπουμε ιδιαίτερα συχνά μεταξύ μαθητών γυμνασίου και φοικτητών στο κολέγιο», υπογραμμίζει η ίδια.

Το ακόμα πιο ανησυχητικό σε όλα αυτά είναι ότι πολλά θύματα δεν μαθαίνουν ποτέ για τις «γυμνές» εικόνες τους, αλλά ακόμη και εκείνοι που τις εντοπίζουν συνήθως δυσκολεύονται να κάνουν τις διωκτικές αρχές να ερευνήσουν ή να βρουν κεφάλαια για να αναλάβουν νομική δράση, συμπληρώνει.

Πρώτη δίωξη

Επί του παρόντος δεν υπάρχει ομοσπονδιακός νόμος που να απαγορεύει τη δημιουργία πορνογραφικών ταινιών deepfake, αν και η κυβέρνηση των ΗΠΑ απαγορεύει τη δημιουργία τέτοιου είδους εικόνων ανηλίκων. Τον Νοέμβριο, ένας παιδοψυχίατρος της Βόρειας Καρολίνας καταδικάστηκε σε 40 χρόνια φυλάκισης για τη χρήση εφαρμογών με τις οποίες έγδυνε φωτογραφίες των ασθενών του, η πρώτη δίωξη του είδους βάσει του νόμου που απαγορεύει τη δημιουργία deepfake υλικού σεξουαλικής κακοποίησης παιδιών.

Το TikTok, από την πλευρά του έχει μπλοκάρει τη λέξη-κλειδί «undress», έναν δημοφιλή όρο αναζήτησης που σχετίζεται με αυτές τις υπηρεσίες, ενώ πολύ πρόσφατα και η Meta Platforms Inc. Άρχισε να μπλοκάρει λέξεις-κλειδιά που σχετίζονται με την αναζήτηση εφαρμογών που «γδύνουν» τις φωτογραφίες γνωστών και αγνώστων.

Τα σχόλια είναι κλειστά.