Γιατί δεν πρέπει να ανεβάζουμε βίντεο με τη φωνή μας στο διαδίκτυο – Ο επικίνδυνος ρόλος της ΑΙ
Καμπανάκι κινδύνου για την χρήση της Τεχνητής Νοημοσύνης (ΑΙ) σε απάτες κρούει γνωστός ηθοποιός ο οποίος δέχθηκε να συμμετάσχει σε ειδική καμπάνια στη Βρετανία.
Το τηλέφωνο χτυπάει και είναι η χαρακτηριστική φωνή του βορειοϊρλανδού ηθοποιού Τζέιμς Νέσμπιτ στην άλλη άκρη της γραμμής, που φαίνεται να μιλάει στην κόρη του.
«Γεια σου Πέγκι, πηγαίνω σε ένα γύρισμα και προσπαθώ να σου στείλω κάποια χρήματα για το Σαββατοκύριακο.
«Μπορείς να μου στείλεις μια φωτογραφία της κάρτας σου για να έχω τα στοιχεία σου;». Ευχαριστώ, γλυκιά μου. Αντίο!»
Μόνο που ο Νέσμπιτ είναι αυτός που απάντησε στο τηλέφωνο και δεν είπε ποτέ αυτές τις λέξεις.
Οι απάτες μέσω της κλωνοποίησης φωνής είναι η πιο πρόσφατη, τρομακτική, χρήση της Τεχνητής Νοημοσύνης και θα μπορούσαν να πιάσουν εκατομμύρια Βρετανούς στον ύπνο φέτος φέτος, σύμφωνα με νέα έρευνα που δημοσίευσε η Starling Bank και στην οποία αναφέρεται το Skynews.
Η κλωνοποίηση φωνής, όπου οι απατεώνες χρησιμοποιούν τεχνολογία Τεχνητής Νοημοσύνης (AI) για να αντιγράψουν τη φωνή ενός φίλου ή μέλους της οικογένειας, μπορεί να γίνει από μόλις τρία δευτερόλεπτα ήχου – τα οποία μπορούν εύκολα να ληφθούν από ένα βίντεο που κάποιος έχει ανεβάσει στο διαδίκτυο ή στα μέσα κοινωνικής δικτύωσης.
Η καμπάνια με πρωταγωνιστή τον διάσημο ηθοποιό
Για την έναρξη της εκστρατείας, η Starling Bank επιστράτευσε τον κορυφαίο ηθοποιό Νέσμπιτ για να κλωνοποιήσει τη φωνή του από την τεχνολογία AI, αποδεικνύοντας πόσο εύκολο είναι για οποιονδήποτε να πέσει θύμα απάτης.
Η Starling Bank έχει ξεκινήσει την εκστρατεία «Ασφαλείς Φράσεις», για την υποστήριξη της κυβερνητικής εκστρατείας «Σταμάτα, σκέψου απάτη», ενθαρρύνοντας το κοινό να συμφωνήσει σε μια «ασφαλή φράση» με τους στενούς φίλους και την οικογένειά του, την οποία δεν γνωρίζει κανείς άλλος, ώστε να μπορούν να επαληθεύουν ότι πραγματικά τους μιλούν, σε μια προσπάθεια να προσπαθήσουν να πιάσουν τους απατεώνες.
«Νομίζω ότι έχω μια αρκετά χαρακτηριστική φωνή και είναι ο πυρήνας της καριέρας μου. Οπότε το να την ακούσω να κλωνοποιείται με τόση ακρίβεια ήταν ένα σοκ. Ακούς πολλά για την τεχνητή νοημοσύνη, αλλά αυτή η εμπειρία μου άνοιξε πραγματικά τα μάτια (και τα αυτιά) για το πόσο προηγμένη έχει γίνει η τεχνολογία και πόσο εύκολο είναι να χρησιμοποιηθεί για εγκληματικές δραστηριότητες, αν πέσει σε λάθος χέρια. Έχω κι εγώ παιδιά και η σκέψη ότι μπορεί να εξαπατηθούν με αυτόν τον τρόπο είναι πραγματικά τρομακτική», δήλωσε ο Νέσμπιτ.
Πόσο συχνές είναι οι απάτες μέσω Τεχνητής Νοημοσύνης
Τα στοιχεία της Starling Bank διαπίστωσαν ότι πάνω από το ένα τέταρτο (28%) των ενηλίκων του Ηνωμένου Βασιλείου δηλώνουν ότι έχουν γίνει στόχος απάτης κλωνοποίησης φωνής τεχνητής νοημοσύνης τουλάχιστον μία φορά τον τελευταίο χρόνο.
Ωστόσο, σχεδόν οι μισοί (46%) δεν έχουν καν ακούσει ποτέ για τέτοιου είδους απάτες.
Σχεδόν ένας στους δέκα ανθρώπους (8%) δήλωσε ότι θα έστελνε χρήματα σε κάποιον αν έπεφτε θύμα απάτης κλωνοποίησης φωνής, ακόμη και αν η κλήση του φαινόταν παράξενη.