Skip to content

Deepfake: cosa sono e come difendersi

In un’era dove la manipolazione digitale è preponderante, l’ascesa della tecnologia dei deepfake ha dato vita ad una nuova frontiera dell’inganno. I deepfake confondono i confini tra realtà e finzione con una precisione senza precedenti, attraverso immagini, video e repliche di audio estremamente realistici.

Sebbene queste creazioni abbiano un potenziale di intrattenimento e di espressione artistica, rappresentano tuttavia una minaccia per la sicurezza aziendale e la sfera sociale. I deepfake possono scatenare ondate di frodi e minare il tessuto della fiducia organizzativa e interpersonale. Vediamo nello specifico di cosa si tratta e come difendersi.

Che cosa è un deepfake?

Con il termine deepfake si intende una forma di contenuto multimediale generato dall’intelligenza artificiale: nello specifico, la creazione di contenuti grafici e audiovisivi tramite funzionalità di deep learning. Se questa tecnologia nasce per un utilizzo creativo e non malevolo, allo stesso tempo può essere utilizzata in modo improprio per attacchi di ingegneria sociale.

Come sostiene Andrea Saturnino, Cyber Security Specialist di HWG Sababa, “gli algoritmi di deep learning utilizzano le reti neurali per simulare il funzionamento di una mente umana processando un’enorme mole di dati ma a velocità nettamente superiori”.

Questi algoritmi per la creazione di deepfake sono in grado di generare e manipolare contenuti audio e video in cui vengono alterate le sembianze e le movenze di una persona, ideando materiali realistici ma totalmente inventati. Ciò che caratterizza i deepfake è la loro capacità di replicare manierismi, espressioni facciali e schemi linguistici con sorprendente precisione, rendendo sempre più difficile la distinzione tra la realtà e la simulazione.

Tra il 2022 e il 2023 i deepfake sono incrementati di 10 volte a livello globale; l’Europa ha registrato un aumento del 780%, mentre nell’area Medio Oriente e Africa (MEA) si è registrato un picco del 450%. Sebbene sia stato rilevato un aumento di attacchi deepfake in tutti i settori, quelli maggiormente colpiti sono: i media online, i servizi professionali, la sanità, i trasporti e i videogiochi.

Perchè i deepfake sono pericolosi?

I deepfake rappresentano molto di più di una novità tecnologica; sono, infatti, potenti armi nell’arsenale di criminali informatici e attori malintenzionati. Sfruttando la loro capacità di sembrare autentici, nel panorama aziendale i deepfake sono diventati uno strumento per condurre frodi e attacchi di ingegneria sociale. Ipotizziamo alcuni scenari.

Frode del CEO: un deepfake particolarmente ingannevole potrebbe consistere in un video che impersona il CEO o il CFO di un’azienda che interagisce con i propri dipendenti e chiede di trasferire fondi su un conto fraudolento, mascherato però da transazione commerciale legittima.

Phishing Attack: i deepfake possono essere incorporati nelle e-mail di phishing portando dipendenti ignari a condividere informazioni sensibili o a fare clic su collegamenti pericolosi. “Per quanto sembri poco plausibile, ad inizio aprile un’azienda di Hong Kong ha perso 23 milioni di euro a causa di questo”, commenta Andrea Saturino.

Impersonificazione: attori malintenzionati possono utilizzare deepfake per fingersi figure chiave all’interno di un’organizzazione, come il personale delle risorse umane o del supporto IT e sfruttare la fiducia per ottenere l’accesso non autorizzato a sistemi o a dati sensibili.

Come riconoscere i deepfake?

Identificare i deepfake nel mare di contenuti digitali, richiede un occhio attento e una sana dose di scetticismo. Possiamo ricercare segnali rivelatori come anomalie visive, comportamenti innaturali o schemi di linguaggio e discrepanze nella qualità audio. Anche gli indizi contestuali e la verifica da fonti attendibili possono fungere da strumenti preziosi per discernere l’autenticità dei contenuti.

Tuttavia, consapevoli della possibilità di imbattersi in un deepfake, le aziende non possono fare affidamento esclusivamente sulla capacità delle persone di riconoscerli. Come riporta lo studio “Fooled twice” di N. C. Köbis, B. Doležalová e I. Soraperra, gli utenti riescono a distinguere i contenuti autentici dai deepfake con un livello di precisione del 57,6%. La situazione peggiora quando le persone tendono ad avere troppa fiducia nelle proprie capacità di riconoscere i contenuti veri da quelli falsi.

Come possono proteggersi le aziende?

Secondo i risultati di uno studio condotto dalla multinazionale americana di consulenza McKinsey, il 40% delle aziende prevede di aumentare gli investimenti nell’intelligenza artificiale e nella sicurezza informatica, mentre il 28% li sta già integrando nelle prossime strategie aziendali.

Man mano che il panorama delle minacce evolve, le aziende si trovano quindi costrette a rafforzare le proprie difese contro tali minacce.

Riportiamo di seguito alcune strategie per migliorare la postura di sicurezza aziendale:
Verifica delle procedure per stabilire protocolli rigorosi, l’autenticità delle richieste e delle comunicazioni, nello specifico quelle che coinvolgono informazioni sensibili o azioni ad alto rischio. Incoraggiare i dipendenti ad utilizzare vari canali per la verifica e a prestare attenzione quando si confrontano con contenuti non familiari o sospetti.
Definire o adeguare le politiche di sicurezza per rivedere e migliorare le proprie policy e le procedure di sicurezza esistenti per affrontare le nuove sfide poste dai deepfake. Incorporare linee guida per la gestione di file multimediali sintetici, applicare dei controlli di accesso e di risposta a sospetti episodi di frode o di ingegneria sociale.
Formazione dei dipendenti attraverso investimenti in programmi completi di training per sensibilizzarli in merito alla cybersecurity e per educarli sui rischi associati ai deepfake e sulle relative contromisure. L’obiettivo è quindi promuovere una cultura di vigilanza e responsabilità all’interno dell’organizzazione per far sì che i dipendenti possano fungere da prima linea di difesa contro gli attacchi.

In conclusione, le aziende si trovano oggi ad affrontare le complessità di un panorama digitale in rapida evoluzione. Per tale ragione, è fondamentale che queste forniscano ai propri dipendenti le conoscenze e gli strumenti per utilizzare in modo responsabile l’intelligenza artificiale generativa e difendersi da un suo potenziale uso improprio.

Related post

il futuro della cybersecurity webinar 2025

Nel 2025, il panorama della cybersecurity sarà segnato da una complessità senza precedenti, dove le tecnologie avanzate come l’intelligenza artificiale (IA) e l’automazione giocheranno un ruolo centrale. Tuttavia, queste stesse…

5 minuti
SIEM Cybersecurity

La crescente complessità delle minacce informatiche spinge sempre più organizzazioni a dotarsi di strumenti avanzati per proteggere i propri dati e infrastrutture. In questo contesto, i sistemi SIEM (Security Information…

6 minuti
addressing ot vulnerabilities challenges

Le minacce informatiche rivolte ai sistemi OT stanno aumentando ad un ritmo allarmante, con quasi il 73% delle organizzazioni che ha segnalato una violazione con impatto sui sistemi IT e…

4 minuti
Torna su