Οι επιθέσεις “κοινωνικού χαρακτήρα” έχουν εξελιχθεί σημαντικά με την πρόοδο της τεχνητής νοημοσύνης, καθιστώντας τις παραδοσιακές μεθόδους εξαπάτησης, όπως τα κακοφτιαγμένα emails, λιγότερο συνηθισμένες. Σήμερα, τα όσα μειλ στέλνονται με σκοπό να εξαπατήσουν μπορούν πολύ εύκολα να είναι ολόιδια με τα επίσημα. Ακόμα, έχει υπάρξει μια αύξηση στην χρήση της τεχνητής νοημοσύνης για την εξαπάτηση μέσω φωνής και βίντεο. Οι επιτιθέμενοι χρησιμοποιούν τεχνολογίες όπως τα deepfakes — ψευδή βίντεο και ήχους που δημιουργούνται με AI για να μιμηθούν γνωστά πρόσωπα — για να εξαπατήσουν τα θύματά τους. Δεν μπορείς, πλέον, να είσαι σίγουρος πως το πρόσωπο που φαίνεται στο βίντεο, στην κλήση ή την φωνή του οποίου ακούς είναι όντως υπαρκτό ή, σε δεύτερο επίπεδο, εκείνο που υποδύεται πως είναι.
Σήμερα, τα όσα μειλ στέλνονται με σκοπό να εξαπατήσουν μπορούν πολύ εύκολα να είναι ολόιδια με τα επίσημα.
Ένα χαρακτηριστικό παράδειγμα είναι η περίπτωση μιας εταιρείας στο Χονγκ Κονγκ, όπου απατεώνες χρησιμοποίησαν ένα deepfake βίντεο του διευθυντή οικονομικών για να ζητήσουν 25 εκατομμύρια. Και πέτυχε. Το βίντεο ήταν τόσο πειστικό που οι υπάλληλοι δεν αντιλήφθηκαν την απάτη μέχρι να είναι αργά. Αντίστοιχα παραδείγματα υπάρχουν σε πολλούς κλάδους: μόλις τον τελευταίο χρόνο βρέθηκαν σε
πολλά έργα λογισμικού υπάλληλοι που … δεν υπήρχαν. Δούλευαν απομακρυσμένα, και είχαν περάσει εκτενείς συνεντεύξεις και ελέγχους αλλά στην πραγματικότητα δεν ήταν παρά στοχευμένη χρήση τεχνητής νοημοσύνης από κακόβουλους παράγοντες. Τα “πειραγμένα” βιντεάκια της προεκλογικής περιόδου στις ΗΠΑ είναι ένα παράδειγμα που επίσης εύκολα έρχεται στο μυαλό.
Η χρήση των deepfakes καθιστά δύσκολη την αναγνώριση των επιθέσεων, καθώς τα βίντεο και οι ήχοι φαίνονται και ακούγονται αυθεντικοί. Αυτό σημαίνει ότι οι παραδοσιακές μέθοδοι ανίχνευσης, όπως η αναζήτηση για προφανή λάθη ή ασυνέπειες, δεν είναι πλέον αξιόπιστες. Οι επιτιθέμενοι μπορούν να δημιουργήσουν ψευδή περιεχόμενα που είναι σχεδόν αδύνατο να διακριθούν από το πραγματικό.
Για να προστατευθούν, οι οργανισμοί πρέπει να υιοθετήσουν πολυδιάστατες στρατηγικές ασφάλειας. Αυτό περιλαμβάνει την εκπαίδευση των υπαλλήλων να αναγνωρίζουν ύποπτες δραστηριότητες, την εφαρμογή ισχυρών διαδικασιών επαλήθευσης και την υιοθέτηση τεχνολογιών ανίχνευσης deepfake. Επιπλέον, η συνεργασία με ειδικούς στον τομέα της κυβερνοασφάλειας και η συνεχής παρακολούθηση των εξελίξεων στην τεχνολογία είναι κρίσιμης σημασίας.
Η πρόληψη των επιθέσεων κοινωνικής μηχανικής απαιτεί μια συνδυασμένη προσέγγιση που συνδυάζει τεχνολογικά εργαλεία, διαδικασίες και ανθρώπινη επιτήρηση. Η κατανόηση των σύγχρονων απειλών και η προσαρμογή στις νέες τεχνολογίες είναι απαραίτητες για την αποτελεσματική προστασία των οργανισμών.