Φανταστείτε κάποιος να έχει αποθηκεύσει μια από τις φωτογραφίες που έχετε ανεβάσει στα social media και να την έχει ενσωματώσει σε μια άλλη εικόνα ή βίντεο με σεξουαλικό περιεχόμενο.
Φανταστείτε να ανησυχείτε ότι τα παιδιά, ο σύντροφός σας, οι γονείς ή οι συνάδελφοί σας μπορεί να το δουν αυτό και να πιστέψουν ότι είστε πραγματικά εσείς.
Και ότι οι προσπάθειές σας να το εξαφανίσετε από τα μέσα κοινωνικής δικτύωσης συνεχίζουν να αποτυγχάνουν και το ψεύτικο «εσύ» συνεχίζει να εμφανίζεται και να πολλαπλασιάζεται.
Κάθε μέρα διαχέονται στο διαδίκτυο περισσότερες από 100.000 deepfake εικόνες και βίντεο σεξουαλικού περιεχομένου
Φανταστείτε να συνειδητοποιήσετε ότι αυτές οι εικόνες θα μπορούσαν να παραμείνουν στο διαδίκτυο για πάντα και να ανακαλύψετε ότι δεν υπάρχουν νόμοι που να διώκουν τους ανθρώπους που τις δημιούργησαν.
Για πολλούς ανθρώπους σε όλο τον κόσμο, αυτός ο εφιάλτης έχει ήδη γίνει πραγματικότητα. Πριν από λίγες εβδομάδες, το μη συναινετικό deepfake είχε ως ένα από τα θύματά της τον μεγαλύτερο ποπ σταρ του κόσμου με την πλατφόρμα κοινωνικής δικτύωσης X να εμποδίζει τους χρήστες να αναζητήσουν τον τραγουδιστή μετά από έναν πολλαπλασιασμό σαφών deepfake εικόνων.
Ωστόσο, η Taylor Swift είναι μόνο μία από τις αμέτρητες γυναίκες που έχουν υποστεί αυτήν την ταπεινωτική, εκμεταλλευτική και εξευτελιστική εμπειρία.
Γυναίκες των 99% των deepfake
Η περσινή έκθεση State of Deepfakes αποκάλυψε μια εξαπλάσια αύξηση της deepfake πορνογραφίας το έτος έως το 2023. Δεν αποτελεί έκπληξη ότι οι γυναίκες ήταν τα θύματα στο 99% των καταγεγραμμένων περιπτώσεων, σύμφωνα με τον Guardian.
Η τεχνολογία επιτρέπει τώρα τη δημιουργία ενός deepfake βίντεο 60 δευτερολέπτων από μια καθαρή εικόνα σε λιγότερο από 25 λεπτά – χωρίς κόστος. Συχνά χρησιμοποιώντας εικόνες που προέρχονται από ιδιωτικούς λογαριασμούς μέσων κοινωνικής δικτύωσης, καθημερινά περισσότερες από 100.000 κατασκευασμένες εικόνες και βίντεο με σεξουαλικό περιεχόμενο διαδίδονται στον ιστό. Οι σύνδεσμοι παραπομπής προς τις εταιρείες που παρέχουν αυτές τις εικόνες έχουν αυξηθεί κατά 2.408% από έτος σε έτος.
Δεν χωράει αμφιβολία ότι η μη συναινετική deepfake πορνογραφία έχει γίνει μια αυξανόμενη κρίση ανθρωπίνων δικαιωμάτων. Αλλά ποια μέτρα μπορούν να ληφθούν για να σταματήσει αυτή η αναπτυσσόμενη βιομηχανία από το να συνεχίσει να κλέβει ταυτότητες και να καταστρέφει ζωές;
Ενώ η θέσπιση κανονισμών για την ποινικοποίηση της σεξουαλικής μη συναινετικής παραγωγής και διανομής ψεύτικα είναι προφανώς κρίσιμη, αυτό δεν θα ήταν αρκετό. Όλο το σύστημα που δίνει τη δυνατότητα σε αυτές τις επιχειρήσεις πρέπει να αναγκαστεί να αναλάβει την ευθύνη.
Να τους «χτυπήσουν» στα πορτοφόλια τους
Οι ειδικοί σε εικόνες που δημιουργούνται με τεχνητή νοημοσύνη (AI) συμφωνούν ότι για να περιοριστεί ο πολλαπλασιασμός των σεξουαλικών deepfakes, εταιρείες κοινωνικών μέσων, μηχανές αναζήτησης και εταιρείες πληρωμών επεξεργάζονται συναλλαγές – καθώς και επιχειρήσεις που παρέχουν ονόματα τομέα, ασφάλεια και υπηρεσίες υπολογιστικού νέφους – πρέπει να χτυπήσει τις εταιρείες που κάνουν deepfake βίντεο εκεί που πονάει: στα πορτοφόλια τους.
Ποια μέτρα μπορούν να ληφθούν για να σταματήσει αυτή η αναπτυσσόμενη βιομηχανία από το να συνεχίσει να κλέβει ταυτότητες και να καταστρέφει ζωές;
Η Sophie Compton είναι ιδρύτρια της καμπάνιας #MyImageMyChoice κατά των deepfake εικόνων και σκηνοθέτης του Another Body, ενός ντοκιμαντέρ του 2023 που ακολουθεί φοιτήτριες που αναζητούν δικαιοσύνη αφού έπεσαν θύματα μη συναινετικής deepfake πορνογραφίας. Για αυτήν, οι μηχανές αναζήτησης έχουν βασικό ρόλο στην απενεργοποίηση αυτής της κατάχρησης.
Ωστόσο, σύμφωνα με τον καθηγητή Hany Farid, ιατροδικαστή σε ψηφιακές εικόνες στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ, όλα αυτά τα μέρη που κερδίζουν έμμεσα χρήματα από την κακοποίηση γυναικών είναι απίθανο να δράσουν. Η «ηθική τους χρεοκοπία» θα σημαίνει ότι θα συνεχίσουν να κλείνουν τα μάτια στην πρακτική στο όνομα των κερδών, εκτός εάν αναγκαστούν να κάνουν διαφορετικά, λέει.
Ως ειδικός σε θέματα ισότητας των φύλων, είναι επίσης σαφές για μένα ότι υπάρχει κάτι βαθύτερο και πιο συστημικό εδώ.
Η έρευνά μου έχει τονίσει ότι οι ανδροκρατούμενες εταιρείες τεχνητής νοημοσύνης και σχολές μηχανικής φαίνεται να επωάζουν μια κουλτούρα που καλλιεργεί μια βαθιά έλλειψη ενσυναίσθησης για τα δεινά των γυναικών στο διαδίκτυο και τον καταστροφικό αντίκτυπο που έχουν οι σεξουαλικές πλαστογραφίες στους επιζώντες. Με αυτό έρχεται ελάχιστος ενθουσιασμός για την καταπολέμηση της αυξανόμενης βιομηχανίας μη συναινετικών σεξουαλικών εικόνων.
Έμφυλες διακρίσεις
Μια πρόσφατη έκθεση αποκάλυψε ότι οι διακρίσεις λόγω φύλου είναι ένα αυξανόμενο πρόβλημα στην εξαιρετικά ανδροκρατούμενη τεχνολογική βιομηχανία, όπου οι γυναίκες αντιπροσωπεύουν το 28% των επαγγελματιών τεχνολογίας στις ΗΠΑ και μόλις το 15% των θέσεων εργασίας μηχανικών.
Οι γενετικές τεχνολογίες τεχνητής νοημοσύνης έχουν τη δυνατότητα να επιτρέψουν την κακοποίηση γυναικών σε πρωτοφανή κλίμακα και ταχύτητα. Χιλιάδες γυναίκες χρειάζονται βοήθεια τώρα. Εάν οι κυβερνήσεις, οι ρυθμιστικές αρχές και οι επιχειρήσεις δεν δράσουν, το μέγεθος της ζημιάς που θα προκληθεί στις γυναίκες σε όλο τον κόσμο θα είναι τεράστιο.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου