Η τεχνητή νοημοσύνη μεταμορφώνει ραγδαία τον τρόπο με τον οποίο λειτουργεί το διαδίκτυο, όμως ταυτόχρονα ανοίγει τον δρόμο και για μια νέα γενιά ψηφιακών απατών. Τα λεγόμενα deepfakes — δηλαδή ψεύτικα βίντεο και ηχητικά που προσομοιάζουν με απόλυτη ακρίβεια πραγματικά πρόσωπα — χρησιμοποιούνται πλέον συστηματικά από επιτήδειους, δημιουργώντας ένα περιβάλλον όπου η διάκριση μεταξύ αληθινού και κατασκευασμένου γίνεται όλο και πιο δύσκολη.
Το φαινόμενο δεν περιορίζεται πλέον σε μεμονωμένα περιστατικά. Αντίθετα, έχει εξελιχθεί σε μια μορφή απάτης μαζικής κλίμακας, με τις οικονομικές απώλειες να αυξάνονται εκθετικά. Το 2025, οι ζημιές από deepfake scams εκτιμάται ότι ξεπέρασαν τα 1,1 δισ. δολάρια παγκοσμίως, επιβεβαιώνοντας ότι πρόκειται για μια ταχύτατα αναπτυσσόμενη «βιομηχανία» ψηφιακού εγκλήματος.
Η Ελλάδα δεν αποτελεί εξαίρεση. Τα πρώτα περιστατικά δείχνουν ότι η χώρα εντάσσεται πλέον στον χάρτη αυτών των επιθέσεων, με τους πολίτες να βρίσκονται αντιμέτωποι με μορφές απάτης που μέχρι πρόσφατα θεωρούνταν σενάρια επιστημονικής φαντασίας.
Η νέα μορφή απάτης
Σε αντίθεση με τις παραδοσιακές διαδικτυακές απάτες, που βασίζονταν κυρίως σε παραπλανητικά μηνύματα ή κακόβουλα emails, οι νέες επιθέσεις αξιοποιούν πλήρως τις δυνατότητες της τεχνητής νοημοσύνης. Οι δράστες δημιουργούν περιεχόμενο που μοιάζει απολύτως αυθεντικό, μιμούμενοι πρόσωπα με υψηλή αναγνωρισιμότητα ή ανθρώπους του στενού περιβάλλοντος των θυμάτων.
Σε πολλές περιπτώσεις, εμφανίζονται ψεύτικα βίντεο στα οποία γνωστά πρόσωπα φαίνεται να προωθούν επενδυτικές πλατφόρμες ή «σίγουρες» ευκαιρίες κέρδους. Αντίστοιχα περιστατικά έχουν καταγραφεί τόσο στην Ελλάδα, με deepfake υλικό που χρησιμοποιεί πρόσωπα της δημόσιας ζωής, όσο και στην υπόλοιπη Ευρώπη, όπου έχουν εμφανιστεί ψεύτικες δηλώσεις πολιτικών ηγετών που συνδέονται με οικονομικές απάτες. Το μοτίβο είναι επαναλαμβανόμενο: η μίμηση αξιοπιστίας οδηγεί στη δημιουργία εμπιστοσύνης και τελικά στην εξαπάτηση.
Σε πρόσφατες περιπτώσεις στην Ελλάδα, έχουν εμφανιστεί deepfake βίντεο που χρησιμοποιούν το πρόσωπο του διοικητή της Τράπεζας της Ελλάδος, Γιάννη Στουρνάρα, παρουσιάζοντάς τον να προωθεί επενδυτικά σχήματα. Αντίστοιχα, έχουν καταγραφεί περιστατικά με καλλιτέχνες όπως η Άλκηστις Πρωτοψάλτη, όπου ψεύτικο περιεχόμενο τους εμφάνιζε να συνδέονται με προϊόντα ή υπηρεσίες χωρίς καμία πραγματική εμπλοκή.
Το φαινόμενο βρίσκεται ακόμη σε αρχικό στάδιο, ωστόσο τα πρώτα περιστατικά δείχνουν ότι η εξάπλωσή του είναι θέμα χρόνου. Το κοινό δεν είναι πλήρως εξοικειωμένο με τέτοιες μορφές απάτης, ενώ οι μηχανισμοί προστασίας βρίσκονται ακόμη σε φάση προσαρμογής. Ταυτόχρονα, η ευρεία χρήση των κοινωνικών δικτύων στη χώρα ενισχύει τον κίνδυνο, καθώς διευκολύνει τη γρήγορη διάδοση παραπλανητικού περιεχομένου.
Καθοριστικό ρόλο στη διάδοση αυτών των απατών παίζουν οι πλατφόρμες κοινωνικής δικτύωσης. Πάνω από το 80% των συνολικών οικονομικών απωλειών που σχετίζονται με deepfake scams προέρχονται από τέτοιου είδους περιβάλλοντα, με εφαρμογές όπως Facebook, WhatsApp και Telegram να βρίσκονται στο επίκεντρο.
Η δομή των κοινωνικών δικτύων, που βασίζεται στην ταχύτητα και την ευκολία διάδοσης περιεχομένου, λειτουργεί ως ιδανικό περιβάλλον για τη διασπορά παραπλανητικού υλικού. Το αποτέλεσμα είναι η ταχεία αναπαραγωγή ψεύτικων πληροφοριών, συχνά πριν προλάβουν να εντοπιστούν και να αφαιρεθούν.
Από μεμονωμένα περιστατικά σε «βιομηχανία»
Οι ειδικοί επισημαίνουν ότι το φαινόμενο έχει πλέον πάρει διαστάσεις βιομηχανικής κλίμακας. Η ευρεία διάθεση εργαλείων τεχνητής νοημοσύνης έχει μειώσει δραστικά το κόστος παραγωγής τέτοιου περιεχομένου, καθιστώντας το προσβάσιμο ακόμη και σε άτομα χωρίς ιδιαίτερη τεχνική κατάρτιση.
Ταυτόχρονα, οι απατεώνες εξελίσσουν συνεχώς τις μεθόδους τους. Υπάρχουν ήδη καταγεγραμμένες περιπτώσεις όπου χρησιμοποιήθηκαν ψεύτικες βιντεοκλήσεις για την εξαπάτηση εργαζομένων, οδηγώντας σε μεταφορές μεγάλων χρηματικών ποσών. Η κλίμακα και η οργάνωση αυτών των επιθέσεων δείχνουν ότι δεν πρόκειται πλέον για μεμονωμένες ενέργειες, αλλά για συντονισμένη δραστηριότητα.
Η αποτελεσματικότητα των deepfake scams δεν βασίζεται μόνο στην τεχνολογία, αλλά και στην κατανόηση της ανθρώπινης συμπεριφοράς. Οι επιθέσεις αξιοποιούν ήδη γνωστά μοτίβα του διαδικτύου, όπως οι υποσχέσεις για γρήγορο και εύκολο κέρδος, τα οποία παρουσιάζονται πλέον με μεγαλύτερη πειστικότητα.
Η δημιουργία αίσθησης επείγοντος, σε συνδυασμό με την ψευδαίσθηση αξιοπιστίας, οδηγεί συχνά τα θύματα σε βιαστικές αποφάσεις, χωρίς τον απαραίτητο έλεγχο. Ιδιαίτερα ανησυχητική είναι η εξέλιξη της τεχνολογίας που επιτρέπει την αναπαραγωγή φωνών. Έχουν ήδη καταγραφεί περιπτώσεις όπου άτομα δέχονται τηλεφωνήματα από «γνωστούς» τους, των οποίων η φωνή έχει αναπαραχθεί με μεγάλη ακρίβεια. Η εξέλιξη αυτή ανατρέπει βασικούς κανόνες εμπιστοσύνης στην επικοινωνία. Η φωνή, που μέχρι πρότινος αποτελούσε στοιχείο ταυτοποίησης, δεν μπορεί πλέον να θεωρείται ασφαλής ένδειξη αυθεντικότητας.
Καθώς η τεχνολογία εξελίσσεται, τα deepfakes γίνονται όλο και πιο ρεαλιστικά. Μελέτες δείχνουν ότι ακόμη και έμπειροι χρήστες δυσκολεύονται να διακρίνουν το πραγματικό περιεχόμενο από το κατασκευασμένο, γεγονός που ενισχύει τον κίνδυνο εξαπάτησης. Η δυσκολία αυτή δημιουργεί ένα νέο επίπεδο απειλής, καθώς η παραπληροφόρηση δεν περιορίζεται πλέον σε κείμενο, αλλά επεκτείνεται σε εικόνα και ήχο.
Το μεγαλύτερο ρίσκο
Πέρα από τις οικονομικές απώλειες, το μεγαλύτερο ζήτημα αφορά την ίδια την εμπιστοσύνη στην πληροφορία. Η εξάπλωση των deepfakes απειλεί να διαβρώσει τη δυνατότητα των πολιτών να ξεχωρίζουν το αληθινό από το ψεύτικο, επηρεάζοντας όχι μόνο την καθημερινή επικοινωνία, αλλά και τη λειτουργία των θεσμών. Σε ένα τέτοιο περιβάλλον, η αξιοπιστία γίνεται ζητούμενο και όχι δεδομένο.
Καθώς η τεχνολογία συνεχίζει να εξελίσσεται, το ίδιο θα συμβαίνει και με τις μεθόδους εξαπάτησης. Το βασικό ερώτημα δεν είναι αν θα αυξηθούν οι επιθέσεις, αλλά πόσο γρήγορα θα προσαρμοστούν κοινωνία και θεσμοί στη νέα πραγματικότητα. Το βέβαιο είναι ότι το διαδίκτυο εισέρχεται σε μια φάση όπου η εμπιστοσύνη δεν μπορεί πλέον να θεωρείται αυτονόητη. Και αυτό αλλάζει τα πάντα.
