I video (e non solo) falsi generati dall’intelligenza artificiale stanno diventando sempre più diffusi e convincenti. Difficile prevedere quale sarà l’impatto effettivo di queste tecnologie sui prossimi eventi anche politici. Lo “Sportello dei Diritti”: seguite i consigli della Polizia Postale
L’ultima allerta in ordine di tempo contro le truffe segnalata dalla Polizia Postale sulla sua pagina Facebook “Commissariato di PS Online – Italia” con un post riguarda la nuova tecnica del Deepfake a fini criminali cioè la sintesi dell’immagine umana basata sull’intelligenza artificiale che rappresenta senza dubbio una delle sfide più critiche per la società del prossimo futuro.
Nel messaggio della Polizia, viene evidenziato come sempre più spesso vengono usate illecitamente l’immagine di personaggi noti o simboli di aziende o istituzioni per pubblicizzare investimenti online o acquisti. Le tecniche utilizzate dai cybercriminali per la creazione di questi video rendono sempre più credibile l’immagine e la voce dei personaggi che ne sono protagonisti. Diffidare sempre di questi contenuti, verificando accuratamente attraverso un motore di ricerca la veridicità della notizia.
In ogni caso, mai cliccare su link allegati a email o sms o su banner pubblicitari che possono comparire durante la navigazione. Il deepfake (parola coniata nel 2017) è una tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico, conosciuta come rete antagonista generativa.
È stata anche usata per creare falsi video pornografici ritraenti celebrità e per il revenge porn, ma può anche essere usato per creare fake news, bufale e truffe, per compiere atti di cyberbullismo o altri crimini informatici di varia natura oppure per satira. Una grossa incognita è rappresentata anche dalla volontà per le grosse piattaforme che raccolgono contenuti user-generated (come i social networks) di dotarsi di tecnologie di identificazione. Si tratta di un’efficacie allerta che per Giovanni D’Agata, presidente dello “Sportello dei Diritti” può evitarci molti grattacapi.
Tuttavia la ricerca e lo sviluppo di metodologie e software di identificazione per limitare e contrastare questo fenomeno stanno crescendo, sebbene non siano ancora equiparabili ai software di creazione: per questa ragione la prima e più importante contromisura da attuare è quella di educare le persone sulla tematica dei deepfakes e sui potenziali rischi ad essi associati, per acquisire una maggiore consapevolezza in materia.
Nel caso siate comunque incappati in una frode di questo tipo potrete rivolgervi agli esperti della nostra associazione tramite i nostri contatti email info@sportellodeidiritti.org o segnalazioni@sportellodeidiritti.org per valutare immediatamente tutte le soluzioni del caso per evitare pregiudizi.