Τα fake news έχουν γίνει δυστυχώς εδώ και πολύ καιρό κομμάτι της καθημερινότητας, ένα – αρνητικό – σημάδι των καιρών, μία πρόκληση για τη δημοσιογραφία, την ενημέρωση, την ίδια την πραγματικότητα. Πολλοί θα πουν πως δεν είναι και τόσο δύσκολο να αναγνωρίσει κανείς μια ψεύτικη είδηση. Ή και να την ελέγξει μέσω της αξιοπιστίας των πηγών που την αναφέρουν. Κι όμως, όπως έχει αποδειχτεί τα fake news έχουν δύναμη σε πολύ μεγάλη μερίδα του κοινού κι έχουν σε συγκεκριμένες περιπτώσεις καταφέρει όχι μόνο να επηρεάσουν την κοινή γνώμη, αλλά και εκλογικά και πολιτικά αποτελέσματα έχοντας τελικά μετατραπεί σε ένα όπλο προπαγάνδας. 

Όντας σε καιρούς που η τεχνολογία είναι κυρίαρχη σε κάθε τομέα, φέρνοντας συνεχώς κάτι καινούργιο, τα fake news δεν σταμάτησαν στην διοχέτευση της ψεύτικης πληροφορίας. Και κάπου εκεί μπήκαν στη ζωή μας τα deepfakes. Τα βίντεο – και οι φωτογραφίες – που δημιουργούνται με την χρήση τεχνητής νοημοσύνης γίνονται όλο και πιο συνηθισμένα και πειστικά. Μπορούν να γίνουν και επικίνδυνα; 

Αν κάποιος έχει δει ένα βίντεο στο οποίο ο Τζον Σνόου ζητάει συγγνώμη από τους φαν του Game of Thrones για το απογοητευτικό τέλος της σειράς, τότε έχει δει ένα deepfake. Το ίδιο έχει συμβεί αν έχει δει τον Ομπάμα να αποκαλεί τον Τραμπ «ποταπό» ή τον Ζούκερμπεργκ να παραδέχεται με θράσος ότι το Facebook έχει τον πλήρη έλεγχο κλεμμένων δεδομένων δισεκατομμυρίων ανθρώπων. 

Deepfakes go viral

Αυτό που συμβαίνει είναι ότι στον 21ο αιώνα το photoshop για τη δημιουργία μιας fake φωτογραφίας έχει ξεπεραστεί. Πλέον υπάρχει μια μορφή τεχνητής νοημοσύνης – ονομάζεται deep learning (βαθιά μάθηση) – που χρησιμοποιείται για τη δημιουργία ψεύτικων εικόνων, βίντεο, ηχητικών και γεγονότων. Από αυτή την τεχνική πήραν το όνομά τους και τα deep fakes. 

Με την τεχνική αυτή μπορεί κανείς να βάλει στο στόμα κάποιου λέξεις που δεν είπε ποτέ, να κάνει τον εαυτό του πρωταγωνιστή στην αγαπημένη του ταινία και γενικώς να τοποθετήσει κάποιον, όπου θέλει και να τον βάλει να κάνει ότι θέλει. Ακούγεται κάπως δυστοπικό. Ίσως κάποιος θυμηθεί την ταινία Simone με τον Αλ Πατσίνο να δημιουργεί εκ του μηδενός την – ανύπαρκτη – μεγαλύτερη σταρ του πλανήτη που από ένα σημείο και μετά κάνει τα πάντα για να την εξευτελίσει και τελικά εξαφανίσει. Όμως τα deepfakes δεν είναι καθόλου ασυνήθιστα πια και ενδεχομένως σύντομα να αποκτήσουν viral διαστάσεις. 

Πολλά από τα deepfakes είναι πορνογραφικά. Η εταιρεία τεχνητής νοημοσύνης Deeptrace ανακάλυψε τον Σεπτέμβριο του 2019, 15.000 τέτοια βίντεο στο διαδίκτυο, διαπιστώνοντας παράλληλα ότι ο αριθμός τους είχε διπλασιαστεί μέσα σε εννέα μήνες. Από αυτά το 96% ήταν πορνογραφικά και στο 99% πρόσωπα γνωστών διάσημων γυναικών είχαν αντικαταστήσει αυτά των πορνοστάρ. 

Αυτό φυσικά δεν είναι καθόλου απλό ζήτημα. Ακόμη κι αν υποθέσουμε ότι ένα πορνογραφικό βίντεο με μια διάσημη ηθοποιό δεν γίνει πιστευτό ακριβώς γιατί η πρωταγωνίστρια είναι διάσημη – και χωρίς φυσικά αυτό να σημαίνει ότι δεν είναι μεμπτό – τι θα συμβεί στην περίπτωση που μια καθημερινή κοπέλα γίνει πρωταγωνίστρια εν αγνοία και παρά τη θέλησή της. 

Εν ολίγης, με δεδομένο ότι οι νέες τεχνικές επιτρέπουν στον οποιονδήποτε να δημιουργήσει μια ψεύτικη φωτογραφία ή ένα ψεύτικο βίντεο είναι σχεδόν βέβαιο ότι η τακτική αυτή θα εξαπλωθεί στην λεγόμενη «revenge pornography» (πορνογραφία εκδίκησης). Μάλιστα η Ντάνιελ Σίτρον, καθηγήτρια στο Πανεπιστήμιο της Βοστώνης, προειδοποιεί ότι τα deep fakes μπορούν να στραφούν ιδιαιτέρως κατά των γυναικών, των οποίων η θέση ακόμη και σημερινή κοινωνία είναι ιδιαζόντως ευάλωτη. «Η τεχνολογία των deepfake γίνεται όπλο κατά των γυναικών. Εκτός από το πορνό μπορεί να χρησιμοποιηθεί και για σάτιρα, παρωδία ή την πρόκληση ζημίας σε κάποιον», εξηγεί στον Guardian. 

Η τεχνολογία των deep fakes μπορεί να χρησιμοποιηθεί για να δημιουργήσει απίστευτα πειστικές αλλά εντελώς ψεύτικες φωτογραφίες και βίντεο. Εκτός αυτού έχει ήδη χρησιμοποιηθεί για να στηρίξει εντελώς ψεύτικα προφίλ. Για παράδειγμα στο Linkedln αλλά και το twitter έχουν διαπιστωθεί κατά καιρούς ψεύτικα προφίλ, όπως μια ανύπαρκτη δημοσιογράφος του Bloomberg Maisy Kinsley ή μια Katie Jones που δήλωνε ότι εργάζεται στο Κέντρο Στρατηγικών και Διεθνών Σπουδών, αλλά πιστεύεται ότι είναι ένα deepfake προφίλ που δημιουργήθηκε για μια ξένη επιχείρηση κατασκοπείας.

Τα deepfakes μπορούν να υπάρξουν και ως ηχητικά. Για παράδειγμα μπορεί κανείς να δημιουργήσει τον φωνητικό κλώνο ενός προσώπου. Μόλις τον περασμένο Μάρτιο, ο επικεφαλής μιας βρετανικής θυγατρικής εταιρείας που ανήκει σε μια γερμανική εταιρεία ενέργειας κατέβαλε σχεδόν 200.000 λίρες σε έναν τραπεζικό λογαριασμό της Ουγγαρίας αφού του τηλεφώνησε ένας απατεώνας που του μίλησε με τη φωνή του CEO της γερμανικής μητρικής. Η εταιρεία πιστεύει ότι η φωνή που χρησιμοποιήθηκε ήταν deepfake, αν και τα στοιχεία είναι κάπως ασαφή. Παρόμοιες απάτες έχουν γίνει πάντως με φωνητικά μηνύματα μέσω WhatsApp.

Η «γέννηση» των deepfakes

Τόσο ερευνητές στα πανεπιστήμια όσο και τα στούντιο των ειδικών εφέ εδώ και καιρό έχουν ξεπεράσει τα προηγούμενα όρια στη διαχείριση εικόνας και βίντεο. Αλλά αν πρέπει κανείς να προσδιορίσει τη γέννηση των deepfake τότε αυτή χρονικά τοποθετείται το 2017 όταν ένα χρήστης του Reddit δημοσιοποίησε πορνογραφικά βίντεο με τα πρόσωπα διασημοτήτων όπως η Gal Gadot, Taylor Swift, Scarlett Johansson.

Η τεχνολογία λειτουργεί περίπου ως εξής. Με τη βοήθεια ενός αλγόριθμου τεχνητής νοημοσύνης που ονομάζεται κωδικοποιητής ο χρήστης «τρέχει» χιλιάδες λήψεις των δυο προσώπων, αυτού που θες να αντικαταστήσεις και αυτού που θες να τοποθετήσεις στο βίντεο. Ο κωδικοποιητής ανακαλύπτει τις ομοιότητες των δυο προσώπων και τις μειώνει στα πιο κοινά χαρακτηριστικά τους, συμπιέζοντας τις εικόνες κατά τη διαδικασία. Ένας δεύτερος αλγόριθμος που ονομάζεται αποκωδικοποιητής στη συνέχεια ανακτά τα πρόσωπα από τις συμπιεσμένες εικόνες. Εδώ χρησιμοποιούνται δυο αποκωδικοποιητές. Ο ένας ανακτά το πρόσωπο πρώτου ατόμου και ο δεύτερος του δεύτερου. Κατόπιν για να γίνει η ανταλλαγή των προσώπων, πρέπει ο χρήστης να τροφοδοτήσει τις κωδικοποιημένες εικόνες στον «λάθος» αποκωδικοποιητή. Στο τέλος ο αποκωδικοποιητής ανασυνθέτει το πρόσωπο του δεύτερου προσώπου με τις εκφράσεις του πρώτου. Για να γίνει πειστικό το βίντεο αυτό γίνεται σε κάθε καρέ. 

Φυσικά είναι δύσκολο να φτιάξεις ένα καλό deepfake σε έναν απλό υπολογιστή. Αυτού του είδους τα βίντεο και οι εικόνες δημιουργούνται σε υπολογιστές υψηλών επιδόσεων με ισχυρές κάρτες γραφικών και με υπολογιστική ισχύ στο cloud. Αυτό μειώνει τον χρόνο επεξεργασίας των εικόνων από ημέρες και εβδομάδες σε ώρες. Χρειάζεται όμως και μια σχετική εμπειρογνωμοσύνη ούτε ώστε να φτιαχτεί ένα αψεγάδιαστο deepfake το οποίο θα πείσει αυτόν που το βλέπει για την αυθεντικότητά του. 

Πάντως όπως και κάθε τι στην τεχνολογία η διαδικασία όσο πάει και θα απλοποιείται. Ήδη υπάρχουν πολλά εργαλεία διαθέσιμα για να βοηθήσουν τον κόσμο να φτιάξει deepfake. Αρκετές εταιρείες θα το κάνουν για τους χρήστες πραγματοποιώντας την επεξεργασία στο cloud. Υπάρχει μάλιστα και μια εφαρμογή κινητού τηλεφώνου, η Zao που επιτρέπει στους χρήστες να βάλουν τα δικά τους πρόσωπα στη θέση ενός τηλεοπτικού ή κινηματογραφικού χαρακτήρα από προεπιλεγμένη λίστα στην οποία το σύστημα είναι εκπαιδευμένο. 

Πως μπορεί κανείς να εντοπίσει τα deepfakes;

Δυο σημαντικά ερωτήματα είναι τα εξής. Το πρώτο: Ποιος και γιατί θα φτιάξει ένα deepfake; Εντάξει, το να βάλει κανείς το δικό του πρόσωπο στη θέση του Di Caprio για να παίξει στο Inception δεν είναι δα και κανένα αδίκημα. Αλλά η δημιουργία ενός ψεύτικου πορνογραφικού βίντεο για εκδίκηση; Ένα βίντεο προπαγάνδας, πολιτικής, κοινωνικής, εταιρικής; Το δεύτερο: Πως καταλαβαίνει κανείς τα deepfakes; Εδώ η απάντηση είναι ότι όσο περισσότερο βελτιώνεται η τεχνολογία, τόσο πιο δύσκολα θα μπορεί κανείς να καταλάβει τα ψεγάδια. 

Τα κακής ποιότητας deep fakes είναι εύκολο να εντοπιστούν. Κακός συγχρονισμός χειλιών, ασαφής τόνος του δέρματος, τρεμόπαιγμα στο περίγραμμα του προσώπου, αντανακλάσεις στα μάτια, κακή τοποθέτηση αξεσουάρ. Το 2018, Αμερικανοί ερευνητές ανακάλυψαν ότι στα deepfakes τα πρόσωπα δεν ανοιγοκλείνουν τα μάτια τους κανονικά. Οι εικόνες δείχνουν τις περισσότερες φορές τους ανθρώπους με τα μάτια ανοιχτά, έτσι οι αλγόριθμοι δεν «μάθαιναν» να τα ανοιγοκλείνουν. Όταν όμως η έρευνα αυτή δημοσιεύτηκε, δεν πήρε καθόλου καιρό στους δημιουργούς των deepfakes να διορθώσουν το πρόβλημα. Αυτός εξάλλου είναι ο τρόπος που λειτουργεί η τεχνολογία, όταν ένα ψεγάδι εμφανίζεται, διορθώνεται. 

Κυβερνήσεις, πανεπιστήμια και εταιρείες τεχνολογίας χρηματοδοτούν έρευνες για την ανίχνευση των deepfakes. Τον περασμένο μήνα ξεκίνησε η πρώτη δοκιμή ανίχνευσης deepfakes με τη στήριξη της Microsoft, του Facebook και της Amazon. Θα υποστηρίζεται από ερευνητικές ομάδες σε όλο τον κόσμο. Μόλις την περασμένη εβδομάδα το Facebook απαγόρευσε κάποια τέτοια βίντεο τα οποία όπως σημείωσε «μπορεί να παραπλανήσουν το κοινό κάνοντάς το να νομίζει ότι κάποιος είπε λόγια που δεν έχει πει στην πραγματικότητα», κατά την προετοιμασία για τις αμερικανικές εκλογές του 2020 στις ΗΠΑ. Ωστόσο, αυτή η απαγόρευση καλύπτει μόνο την παραπληροφόρηση που παράγεται με τη χρήση τεχνητής νοημοσύνης που σημαίνει ότι τα shallowfakes – απλά fake βίντεο – εξακολουθούν να επιτρέπονται στην πλατφόρμα. 

Πόσο επικίνδυνα μπορεί να γίνουν τα deep fakes; 

Ενδεχομένως ένα deepfake όσο πειστικό και να είναι να μην μπορεί να προκαλέσει πόλεμο. Οι χώρες έχουν πάντα τα δικά τους αξιόπιστα συστήματα απεικόνισης ασφάλειας και επικοινωνίας. (Αν και ένα διπλωματικό επεισόδιο, μεταξύ δυο χωρών με όχι ιδιαίτερα καλές σχέσεις, ίσως δεν θα μπορούσε να αποκλειστεί). Όσον αφορά όμως το πεδίο της κακομεταχείρισης ή της στοχοποίησης ενός πρόσωπου ή μιας ομάδας θα μπορούσε να υπάρξει πεδίο δράσης λαμπρό. Το ίδιο θα μπορούσε να συμβεί και στα πεδία ή τα κοινά που ήδη τα fakenews τελεσφορούν (συνωμοσιολογίες, πολιτική, θρησκευτικό αίσθημα κλπ.). 

Ένας πολύ σημαντικός αντίκτυπος των deepfake είναι η δημιουργία μιας κοινωνίας μηδενικής εμπιστοσύνης, όπου οι άνθρωποι δεν μπορούν ή ακόμη χειρότερα δεν ενδιαφέρονται πλέον, να διακρίνουν την αλήθεια από το ψέμα. Ακόμη και ειδωμένο αντίστροφα. Για παράδειγμα. Ο Ντόναλντ Τραμπ παραδέχτηκε ότι καυχιόταν πως είχε παρενοχλήσει σεξουαλικά γυναίκες σε μια ηχογραφημένη συζήτηση και μετά υποστήριξε ότι το ηχητικό ήταν ψεύτικο. Όπως τονίζει, στον Guardian, η καθηγήτρια Λίλιαν Έντουαρντς, κορυφαία εμπειρογνώμονας στο δίκαιο του Διαδικτύου του Πανεπιστημίου του Νιούκαστλ, το μεγαλύτερο πρόβλημα είναι ότι «η πραγματικότητα καθίσταται αβέβαιη». 

Καθώς η τεχνολογία των deepfakes γίνεται όλο και πιο προσιτή, αυτά θα μπορούσαν να αποτελέσουν πρόβλημα ακόμη και στα δικαστήρια, όπου πλαστά γεγονότα θα μπορούσαν να εισαχθούν ως αποδεικτικά στοιχεία. Επιπλέον, τα deepfakes μιμούμενα τα βιομετρικά δεδομένα θα μπορούσαν να χρησιμοποιηθούν για απάτες συστημάτων που βασίζονται στην αναγνώριση προσώπου, φωνής κλπ. 

«Ομοιοπαθητική» με τεχνητή νοημοσύνη; 

Και ποια θα μπορούσε να είναι η απάντηση στα deepfakes; Οι εταιρείες τεχνολογίας υποστηρίζουν ότι είναι η ίδια η μήτρα που τα γεννά. Δηλαδή η τεχνητή νοημοσύνη. Ήδη βοηθάει στον να εντοπίζονται ψεύτικα βίντεο. Εδώ πάντως υπάρχει και πάλι ένα ψεγάδι. Ο εντοπισμός είναι πολύ πιο εύκολος όταν τα deepfakes αφορούν διάσημα πρόσωπα. Έτσι τώρα οι εταιρείες εργάζονται πάνω σε συστήματα ανίχνευσης που να μπορούν να εντοπίζουν τα ελαττώματα όπου και όποτε αυτά εμφανίζονται. Μια άλλη στρατηγική εντοπισμού επικεντρώνεται στις πηγές των deepfakes, ψάχνει δηλαδή για τη διαδρομή τους προσπαθώντας να εντοπίσεις αρχεία παραβίασης των βίντεο, των εικόνων και του ήχου έτσι ώστε να ελέγχει η προέλευσή τους.