Το πορνό της Taylor Swift και η ανάγκη νομοθέτησης των Deepfakes
Το deepfake περιεχόμενο της Taylor Swift έκανε το γύρο του διαδικτύου πριν το X κατεβάσει τις αναρτήσεις. Αν όμως η δημοφιλέστερη γυναίκα στον κόσμο πέφτει θύμα τους, τότε σε τι να ελπίζουμε όλοι οι υπόλοιποι;
- 3 ΦΕΒ 2024
Η εκπρόσωπος τύπου του Λευκού Οίκου, Karine Jean-Pierre ρωτήθηκε σχετικά με την υπόθεση που απασχόλησε τις ΗΠΑ το προηγούμενο σαββατοκύριακο, δηλαδή την δημοσιοποίηση των deepfake φωτογραφιών της Taylor Swift στο X (πρώην Twitter) και τη διαγραφή τους, αφού πρώτα τις είχαν δει εκατομμύρια μάτια. «Είναι ανησυχητικό και φυσικά το Κογκρέσο θα πρέπει να λάβει νομοθετικά μέτρα. Έτσι αντιμετωπίζεις κάποια από αυτά τα ζητήματα».
Για να φτάσει φυσικά το ζήτημα ως τον Λευκό Οίκο, πάει να πει ότι δεν πρόκειται για ένα μεμονωμένο γεγονός. Κι αν το κορυφαίο είδωλο της ποπ κουλτούρας μπορεί να βρεθεί αντιμέτωπο με μια τέτοια κατάσταση, τότε τι γίνεται στις υπόλοιπες περιπτώσεις;
Τι είναι τα deepfakes;
Tα deepfakes ξεκίνησαν ως χιουμοριστικά βίντεο, και τα πρώτα χρόνια της δημιουργίας τους απαιτούσαν μεγάλη υπολογιστική υποδομή και χρόνο για να παραχθούν. Σήμερα χάρη στην τεχνολογία της τεχνητής νοημοσύνης το αποτέλεσμα είναι αληθοφανές, δεν απαιτείται πολύς χρόνος για την παραγωγή του βίντεο και είναι δύσκολο να διερευνηθεί η αυθεντικότητά του χωρίς τα κατάλληλα εργαλεία.
Το deepfake που παράγεται με την τεχνητή νοημοσύνη δίνει τη δυνατότητα σε κάποιον να παραποιήσει ένα βίντεο, βάζοντας το πρόσωπο ενός ατόμου στο σώμα ενός άλλου και ύστερα να προσαρμόσει τη φωνή, τις εκφράσεις και την κίνηση. Με αυτό τον τρόπο, δημιουργεί ένα ψευδές εικονιζόμενο πρόσωπο, το οποίο όμως μοιάζει με αληθινό. Σήμερα, όπως διαβάζουμε στο Safer Internet 4 Kids, υπάρχουν πλέον δεκάδες εφαρμογές, επί πληρωμή και μη, που οποιοσδήποτε, μπορεί να δημιουργήσει ένα deepfake βίντεο. Άλλο όμως ένα χιουμοριστικό βίντεο και άλλο ένα βίντεο που μπορεί να χρησιμοποιηθεί ως προπαγάνδα ή ως μέσο για να βλάψει την υπόληψη κάποιου άλλου.
Η πλειοψηφία του deepfake υλικού που κυκλοφορεί στο διαδίκτυο αφορά τη μη συναινετική πορνογραφία. Δηλαδή εμφανίζονται βίντεο πορνογραφικού υλικού όπου έχει αντικατασταθεί το πρόσωπο της γυναίκας ή των γυναικών που πρωταγωνιστούν με το πρόσωπο κάποιας άλλης ή άλλων. Συνήθως τα θύματα είναι διάσημα πρόσωπα όμως δεν αποκλείεται να πέσει θύμα οποιαδήποτε γυναίκα ή οποιοδήποτε ανήλικο κορίτσι. Τελευταίο και πιο γνωστό θύμα αυτής της πρακτικής έπεσε η Taylor Swift. Τα θύματα κατηγορούν τις social media πλατφόρμες ότι αποτυγχάνουν να κατεβάσουν το υλικό αυτόματα και σήμερα μοιάζει πιο κρίσιμο από κάθε άλλη φορά το να ελεγχθούν και να επιτευχθεί ο αυτόματος αποκλεισμός τους.
Το ιστορικό και η δικαιολογημένη οργή για το deepfake γυμνό περιεχόμενο
Για σχεδόν μια ολόκληρη ημέρα την περασμένη εβδομάδα, οι deepfake πορνογραφικές εικόνες της Taylor Swift εξαπλώθηκαν ραγδαία μέσω του X. Η πλατφόρμα άργησε τόσο πολύ να αντιδράσει που μια εικόνα συγκέντρωσε 47 εκατομμύρια προβολές πριν κατέβει. Ήταν κυρίως οι Swifties, οι θαυμαστές της Swift που κινητοποιήθηκαν και ανέφεραν μαζικά τις εικόνες και υπήρξε μια αίσθηση δημόσιας οργής, με ακόμη και τον Λευκό Οίκο να αντιδρά. Το X τελικά αφαίρεσε τις εικόνες και μπλόκαρε τις αναζητήσεις στο όνομα της ποπ σταρ το βράδυ της Κυριακής.
Για τις γυναίκες που έχουν πέσει θύματα της δημιουργίας και του διαμοιρασμού μη συναινετικής πορνογραφίας τύπου deepfake, τα γεγονότα της περασμένης εβδομάδας θα ήταν μια φρικτή υπενθύμιση της δικής τους κακοποίησης, ακόμη και αν ίσως ελπίζουν επίσης ότι το φως της δημοσιότητας θα αναγκάσει τους νομοθέτες να αναλάβουν δράση. Αλλά επειδή οι εικόνες αφαιρέθηκαν, η εμπειρία της Swift απέχει πολύ από τον κανόνα.
Τα περισσότερα θύματα, ακόμη και αυτά που είναι διάσημα, είναι λιγότερο τυχερά. Η 17χρονη ηθοποιός της Marvel, Xochitl Gomez μίλησε αυτό το μήνα για την αποτυχία του X να αφαιρέσει τα πορνογραφικά deepfakes της. «Αυτό δεν έχει καμία σχέση με εμένα. Και όμως είναι εδώ με το πρόσωπό μου», είπε περιγράφοντας την εμπειρία της.
Η Noelle Martin, Αυστραλή ακτιβίστρια και δικηγόρος, ταλαιπωρείται από μια παρόμοια ιστορία εδώ και δέκα περίπου χρόνια. Ανακάλυψε για πρώτη φορά ότι το πρόσωπό της χρησιμοποιήθηκε σε πορνογραφικό περιεχόμενο πριν από 11 χρόνια. «Οι καθημερινές γυναίκες σαν εμένα δεν θα έχουν εκατομμύρια ανθρώπους που θα εργάζονται για να μας προστατεύσουν και να βοηθήσουν στην κατάργηση του περιεχομένου, και δεν θα έχουμε το πλεονέκτημα ότι οι μεγάλες εταιρείες τεχνολογίας, αντιδρούν στην κακοποίηση», λέει.
Η Martin η οποία αυτή τη στιγμή εργάζεται ως ερευνήτρια στο Tech & Policy Lab του Πανεπιστημίου της Δυτικής Αυστραλίας, αναφέρει μιλώντας στον Guardian ότι στην αρχή ήταν παραποιημένες φωτογραφίες της, αλλά τα τελευταία χρόνια, καθώς η γενετική τεχνητή νοημοσύνη έχει προχωρήσει, έχουν μετατραπεί σε βίντεο, τα οποία μοιράζονται κυρίως σε πορνογραφικούς ιστότοπους. «Είναι αρρωστημένο, σοκαριστικό. Προσπαθώ να μην τα βλέπω. Ακόμη και αν οι εικόνες δεν είναι ιδιαίτερα ρεαλιστικές είναι και πάλι αρκετές για να προκαλέσουν ανεπανόρθωτη βλάβη σε ένα άτομο», λέει.
Και φυσικά, σπάνια οι γυναίκες είναι τόσο τυχερές όσο η Taylor Swift. Οι φωτογραφίες της Noelle Martin βρίσκονται άλλωστε στον σκοτεινό κόσμο του διαδικτύου για σχεδόν 11 χρόνια. «Η απόσυρση και η αφαίρεση είναι μια μάταιη διαδικασία. Είναι μια δύσκολη μάχη, και ποτέ δεν μπορείς να εγγυηθείς την πλήρη απομάκρυνσή της από τη στιγμή που κάτι βρίσκεται εκεί έξω. Επηρεάζει τα πάντα από την απασχολησιμότητά σας μέχρι τη μελλοντική σας ικανότητα να κερδίζετε χρήματα και τις σχέσεις σας.
Είναι μια αναπόφευκτη μορφή κακοποίησης, που έχει συνέπειες που λειτουργούν στο διηνεκές» αναφέρει η ίδια στο ρεπορτάζ του Guardian. Η Martin έχει αναγκαστεί να το αναφέρει σε συνεντεύξεις για δουλειά ή ακόμα και σε πρώτο ραντεβού. «Είναι κάτι που πρέπει να συζητάτε στα πρώτα ραντεβού. Παραβιάζει κάθε πτυχή της ζωής σου».
Όταν η ακτιβίστρια και συγγραφέας Laura Bates δημοσίευσε το βιβλίο της Men Who Hate Women, μια έρευνα στους βόθρους του διαδικτυακού μισογυνισμού, πολλοί άντρες της έστελναν εικόνες που δημιούργησαν ώστε να φαίνεται ότι η Bates εκτελούσε όλα τα είδη σεξουαλικών πράξεων. «Υπήρχαν άτομα που μου έστελναν εικόνες του εαυτού μου αλλαγμένες ώστε να φαίνεται ότι τους έκανα στοματικό σεξ.
Είναι δύσκολο για τους ανθρώπους να καταλάβουν τον αντίκτυπο, ακόμη και όταν ξέρεις ότι δεν είναι αληθινό. Υπάρχει κάτι πραγματικά ενστικτώδες στο να βλέπεις μια απίστευτα υπερρεαλιστική εικόνα του εαυτού σου στην ακραία μισογυνική φαντασίωση κάποιου για σένα, Υπάρχει κάτι πραγματικά εξευτελιστικό σε αυτό, πολύ ταπεινωτικό. Σου μένει στο μυαλό» αναφέρει η ίδια πριν προσθέσει ότι αυτή είναι μια εικόνα που ενδεχομένως θα φτάσει σε εκατομμύρια οθόνες.
Οι Deepfake πορνογραφικές εικόνες και βίντεο, λέει η Bates, «κυκλοφορούν κατά κόρον μέσα σε εξτρεμιστικές μισογυνιστικές κοινότητες» και αυτό που για εκείνη ήταν ιδιαίτερα αξιοσημείωτο για την περίπτωση της Swift ήταν το «πόσο πολύ τους επιτρεπόταν να κυκλοφορούν και στις κύριες πλατφόρμες κοινωνικής δικτύωσης. Ακόμη και όταν στη συνέχεια αναλαμβάνουν δράση και ισχυρίζονται ότι το κλείνουν, μέχρι τότε οι εικόνες αυτές έχουν εξαπλωθεί σε τόσα άλλα χιλιάδες φόρουμ και ιστότοπους».
Τι λένε τα νούμερα για τις Deepfake φωτογραφίες
Μια μελέτη του 2019 από την εταιρεία κυβερνοασφάλειας Deeptrace διαπίστωσε ότι το 96% του διαδικτυακού περιεχομένου βίντεο deepfake ήταν μη συναινετικής πορνογραφίας, ενώ το 99% απεικονίζει γυναίκες. Όταν η συντριπτική πλειονότητα της τεχνητής νοημοσύνης χρησιμοποιείται για τη δημιουργία deepfake πορνογραφίας, αυτό σημαίνει ότι δεν είναι πρόβλημα κάποιου συγκεκριμένου προσώπου αλλά όλης της κοινωνίας. Και κάπου εκεί έρχεται και κουμπώνει και η ανάγκη για δημιουργία νομοθετικού πλαισίου για το συγκεκριμένο ζήτημα. Τόσο στις ΗΠΑ, όσο και στον υπόλοιπο κόσμο.
Η Bates αναφέρει ότι «αυτή η πολιτική είναι ένας νέος τρόπος ελέγχου των γυναικών. Παίρνεις κάποια σαν τη Swift, η οποία είναι εξαιρετικά επιτυχημένη και ισχυρή, και είναι ένας τρόπος να τη βάλεις πίσω στο κουτί της. Είναι ένας τρόπος να πεις σε κάθε γυναίκα: δεν έχει σημασία ποια είσαι, πόσο ισχυρή είσαι. Mπορούμε να σε υποβιβάσουμε σε σεξουαλικό αντικείμενο και δεν μπορείς να κάνεις τίποτα γι’ αυτό.
Ζήτημα σοβαρό για τους νέους
Η Rani Govender, CEO στη Βρετανική Εταιρεία για την Πρόληψη της Κακοποίησης των Παιδιών, αναφέρει ότι «αυτό είναι ένα θέμα που επηρεάζει απόλυτα τους νέους. Με τον ίδιο τρόπο που λειτουργούν και άλλες μορφές σεξουαλικής κακοποίησης με βάση την εικόνα, επηρεάζει ιδιαίτερα τα κορίτσια. Έχουν υπάρξει περιπτώσεις παιδιών που δημιουργούν σαφείς εικόνες deepfake άλλων παιδιών, συχνά χρησιμοποιώντας εφαρμογές που “γδύνουν” ένα θέμα σε μια φωτογραφία. Στη συνέχεια, αυτό στέλνεται στα σχολεία και χρησιμοποιείται ως μορφή σεξουαλικής παρενόχλησης και εκφοβισμού. Ο φόβος είναι ένα θέμα που εμφανίζεται συχνά: η ανησυχία ότι οι άνθρωποι θα νομίζουν ότι είναι αληθινό, ότι μπορεί να οδηγήσει σε περαιτέρω σεξουαλική παρενόχληση και εκφοβισμό. Υπάρχει ανησυχία για το τι μπορεί να σκεφτούν οι γονείς τους».
Για παράδειγμα, ένα 14χρονο κορίτσι δήλωσε πέρυσι στην υπηρεσία ChildLine της βρετανικής ΜΚΟ ότι μια ομάδα αγοριών έφτιαξε ψεύτικες, σεξουαλικές εικόνες της ίδιας και άλλων κοριτσιών και τις έστειλε σε ομαδικές συνομιλίες. Τα αγόρια αποκλείστηκαν από το σχολείο για ένα διάστημα, αλλά επέστρεψαν, και στα κορίτσια είπαν να προχωρήσουν, πράγμα που δυσκολεύτηκαν να κάνουν. Ένα άλλο κορίτσι, 15 ετών, δήλωσε ότι ένας άγνωστος είχε πάρει φωτογραφίες από τον λογαριασμό της στο Instagram και έφτιαξε ψεύτικα γυμνά της, χρησιμοποιώντας την πραγματική της κρεβατοκάμαρα ως φόντο.
Η Govender λέει ότι αυτού του είδους το υλικό δημιουργείται από αγνώστους στο διαδίκτυο ως μέρος μιας διαδικασίας grooming ή μπορεί να χρησιμοποιηθεί για να εκβιάσει και να απειλήσει τα παιδιά. Η τεχνητή νοημοσύνη έχει επίσης χρησιμοποιηθεί για τη δημιουργία εικόνων σεξουαλικής κακοποίησης παιδιών, οι οποίες μοιράζονται και πωλούνται από τους δράστες. Ακόμη και τα παιδιά που δεν έχουν στοχοποιηθεί εξακολουθούν να είναι ευάλωτα στο να δουν την εξάπλωση της deepfake πορνογραφίας. «Υπάρχει ήδη μια μεγάλη πρόκληση με το πόσο σαφές και πορνογραφικό υλικό είναι εύκολα διαθέσιμο στα παιδιά στους ιστότοπους κοινωνικής δικτύωσης. Αν γίνεται όλο και πιο εύκολη η παραγωγή και ο διαμοιρασμός αυτού του υλικού, αυτό θα έχει πραγματικά αρνητικές επιπτώσεις». Το πρόβλημα λοιπόν δεν είναι μόνο το αποτύπωμα, αλλά μοιάζει γενικότερο. Είναι (και) το πόσο εύκολα μπορεί ένας νέος να χρησιμοποιήσει με κακόβουλο τρόπο την τεχνητή νοημοσύνη.
Deepfake, η λέξη του 2024;
Η λέξη deepfake που χρησιμοποιείται πλέον ως γενικός όρος για να περιγράψει οποιαδήποτε ψηφιακά επεξεργασμένη εικόνα ή βίντεο που μπορεί να μοιάζει πειστικά αληθινό επινοήθηκε αρχικά για να αναφέρεται στην πορνογραφία, επισημαίνει ο Henry Ajder, ειδικός στα deepfakes και την τεχνητή νοημοσύνη, ο οποίος ερευνά το θέμα εδώ και χρόνια και έχει συμβουλεύσει τη βρετανική κυβέρνηση σχετικά με τη νομοθεσία.
Το 2017, χρήστες του Reddit τοποθετούσαν τα πρόσωπα γνωστών γυναικών σε πορνογραφικό υλικό. Ήταν η έρευνα του Ajder το 2019 που διαπίστωσε ότι σχεδόν όλο το περιεχόμενο deepfake ήταν πορνογραφικό και μέχρι το 2020 ανακάλυπτε κοινότητες στο Telegram «όπου δημιουργούνταν εκατοντάδες χιλιάδες τέτοιες εικόνες». Καθώς η τεχνητή νοημοσύνη αναπτύχθηκε γρήγορα, «άλλαξε το παιχνίδι για άλλη μια φορά». Οι άνθρωποι που χρησιμοποιούν λογισμικό ανοιχτού κώδικα σε αντίθεση με εργαλεία τεχνητής νοημοσύνης όπως το Dall-E 3 ή το Midjourney, τα οποία έχουν εκπαιδευτεί να απαγορεύουν το πορνογραφικό περιεχόμενο, μπορούν ουσιαστικά να δημιουργήσουν ό,τι τους αρέσει, το οποίο μπορεί να περιλαμβάνει ακραίες και βίαιες φαντασιώσεις που γίνονται πραγματικότητα.
Η Swift δεν είναι ένας νέος στόχος, λέει ο Ajder, ο οποίος θυμάται ότι πριν από πέντε χρόνια κυκλοφορούσαν ρητά πλάνα και εικόνες της. «Αυτό που είναι νέο σε αυτή την περίπτωση είναι ο τρόπος με τον οποίο αυτό το περιεχόμενο μπόρεσε να διαδοθεί σε μια ανοιχτή, δημοφιλή πλατφόρμα κοινωνικής δικτύωσης. Τα περισσότερα από αυτά τα πράγματα προηγουμένως μοιράζονταν σε μέρη όπως το 4chan, κοινότητες Discord ή σε ειδικούς ιστότοπους πορνογραφίας deepfake».
Ποιος είναι όμως ο σκοπός τους;
Τα τελευταία έξι χρόνια, ο Henry Ajder έχει περάσει πολύ χρόνο μελετώντας τις συμπεριφορές των ανθρώπων που φτάνουν σε αυτό το σημείο κακοποίησης και γνωρίζει αρκετά πράγματα για το προφίλ τους. «Είναι ασφαλές να υποθέσουμε ότι η συντριπτική, συντριπτική πλειοψηφία είναι άνδρες. Νομίζω ότι πολλοί άνθρωποι που στοχεύουν τις celebrities, το κάνουν για σεξουαλική ικανοποίηση. Συχνά συνοδεύεται από πολύ μισογυνιστική γλώσσα. Επομένως, μπορεί να πρόκειται για σεξουαλική ικανοποίηση, αλλά συνδυάζεται σε μεγάλο βαθμό με κάποιες πολύ απαίσιες απόψεις για τις γυναίκες».
Έχει δει να στοχοποιούνται και άνδρες, ιδίως σε χώρες όπου η ομοφυλοφιλία απαγορεύεται, αλλά τα θύματα είναι στη συντριπτική τους πλειοψηφία γυναίκες. Υπήρξαν περιπτώσεις, λέει, όπου οι εικόνες δημιουργήθηκαν ως Revenge Porn. «Έχει επίσης χρησιμοποιηθεί για να στοχοποιηθούν γυναίκες πολιτικοί ως ένας τρόπος να προσπαθήσουν να τις φιμώσουν και να τις εκφοβίσουν». Υπάρχει οικονομικό κίνητρο; «Ναι και όχι», λέει ο εμπειρογνώμονας σε θέματα deepfake για τη βρετανική κυβέρνηση. «Ορισμένοι ιστότοποι έχουν σίγουρα επωφεληθεί, είτε μέσω διαφημιστικών εσόδων είτε μέσω χρέωσης για τις εικόνες. Αλλά με τα άλματα προόδου στην τεχνολογία, η τεχνητή νοημοσύνη έχει γίνει πιο προσιτή από ποτέ. Αυτό που προηγουμένως μπορεί να ήταν υπολογιστικά πολύ εντατικό και δύσκολο, μπορεί τώρα να εκτελεστεί σε έναν υπολογιστή παιχνιδιών ή σε έναν φορητό υπολογιστή υψηλής ισχύος».
Ο Ajder πιστεύει ότι εκατομμύρια γυναίκες και κορίτσια έχουν πέσει θύματα αυτού του φαινομένου. «Το πλήθος των ανθρώπων που ακούω τώρα στα σχολεία και σε εργασιακά περιβάλλοντα, οι οποίοι πέφτουν θύματα αυτού του φαινομένου δεν προκαλεί έκπληξη, αλλά εξακολουθεί να είναι απίστευτα ανησυχητικό. Αν και είναι λυπηρό το γεγονός ότι χρειάστηκε να στοχοποιηθεί μία από τις μεγαλύτερες διασημότητες στον κόσμο για να αναγνωρίσει ο κόσμος πόσο μεγάλο πρόβλημα είναι αυτό, ελπίζω ότι αυτό μπορεί να αποτελέσει καταλύτη για ουσιαστική νομοθετική αλλαγή».
Η τεχνητή νοημοσύνη είναι σαφές ότι όσο περνούν τα χρόνια θα βελτιωθεί και θα γίνει πιο εύκολα διαθέσιμη, με τις ανησυχίες σχετικά με τις ψεύτικες ειδήσεις, τις απάτες και τις εκστρατείες παραπληροφόρησης που κλονίζουν τη δημοκρατία να επιβεβαιώνονται. Αλλά με την πορνογραφία deepfake, η ζημιά έχει ήδη γίνει.
Πώς μπορείς να προστατευτείς από τις deepfake φωτογραφίες
Προς το παρόν, οποιοσδήποτε αποτελεί στόχο του deepfake revenge porn έχει περιορισμένες δυνατότητες νομικής προσφυγής. Όπως μαθαίνουμε από το Law Support, δεν υπάρχει ευρωπαϊκή ή εθνική νομοθεσία που να ρυθμίζει και να αντιμετωπίζει την επικίνδυνη χρήση αυτής της τεχνικής. Μόνο ο Κώδικας Πρακτικής της Παραπληροφόρησης που παρουσιάστηκε αρχικά τον Απρίλιο του 2018, και ανανεώθηκε τον Ιούνιο του 2022 θέτει ένα ευρύ φάσμα δεσμεύσεων για το κλείσιμο ψεύτικων λογαριασμών και την απονομιμοποίηση των προμηθευτών παραπληροφόρησης.
Ωστόσο, βάσει αρ. 346 του Ελληνικού Ποινικού Κώδικα, η εκδικητική πορνογραφία θεωρείται αξιόποινη πράξη, όπου ουσιαστικά αποσκοπεί στην αντιμετώπιση του μη συναινετικού διαμοιρασμού υλικού που αφορά τη γενετήσια ζωή του εικονιζομένου. Επιπροσθέτως, η παραποίηση/αλλοίωση της εικόνας κάποιου φυσικού προσώπου, ενδέχεται να θεωρεί ως παραβίαση των προσωπικών δεδομένων του συγκεκριμένου φυσικού προσώπου με βάση το Ν. 4624/2019. Από την άλλη, ο εκβιασμός είναι βεβαίως έγκλημα και αν κάποιος σε εκβιάσει με ένα τέτοιο περιεχόμενο, μπορείς να λάβεις τα μέτρα σου. Αυτά είναι τα τρία βήματα που πρέπει να ακολουθήσεις σε περίπτωση που αντιληφθείς ότι deepfake περιεχόμενό σου κυκλοφορεί στο διαδίκτυο.
Μην απαντήσεις στον εκβιασμό. Εάν απαντήσεις, ο εκβιαστής σου μπορεί να θεωρήσει ότι είναι πιο πιθανό να πετύχει τον σκοπό του.
Αποθήκευσε όλα τα στοιχεία σχετικά με τον εκβιασμό. Αυτό περιλαμβάνει e-mails, μηνύματα κειμένου και οποιεσδήποτε άλλες επικοινωνίες που έχεις με τον εκβιαστή σου.
Ανάφερε τον εκβιασμό στην αστυνομία παραδίδοντας όλα τα αποδεικτικά στοιχεία (screenshots).