sabato 20 Aprile, 2024
15.1 C
Napoli
spot_img

Articoli Recenti

spot_img

IA: scontro digitale dei buoni contro i cattivi

L’IA, Intelligenza Artificiale, ha avuto negli ultimi anni un’evoluzione tale da essere, ad oggi, un’arma a doppio taglio. L’applicazione dell’IA infatti è divenuta strumento per compiere atti criminali.

Non solo una tecnologia per i buoni, come, ad esempio, aiuto alle forze dell’ordine per poter rintracciare terroristi e criminali in generale ma, una vera arma nelle mani di questi ultimi.

Uno studio condotto dall’University College di Londra è, infatti, riuscito ad identifica e classifica tutti gli ambiti nei quali l’IA potrebbe divenire strumento pericoloso nelle mani dei criminali nei prossimi 15 anni.

Lo studio è stato condotto con l’ausilio di diversi esperti tra cui criminologi, investigatori, legali, ufficiali di polizia, manager d’azienda. A questi esperti è stato chiesto di classificare le varie tipologie di reato perpetrabili attraverso l’utilizzo dell’IA, seguendo parametri come il danno provocato, il profitto ottenuto, la reale fattibilità e la possibilità di una difesa.

Lo studio ha analizzato i vari tipi di crimine che con l’IA sembrerebbero facilmente attuabili partendo dalla  contraffazione di denaro fino a reati più moderni a livello tecnologico. Tra questi vi è anche l’impegno di veicoli senza conducente che potrebbero essere utilizzati come autobomba.

Andando avanti, lo studio è riuscito anche ad individuare 18 tipologie di reato ed è emerso che tra questi, il più pericoloso sembra riguardare i Deepfake video.

Il Deepfake video è una tipologia di fake news, con cui vengono elaborati video con lo scopo di far circolare notizie fasulle o messaggi destabilizzanti.

La pericolosità di questa tipologia di reato che sfruttano l’IA per scopi malevoli sta nella sostituzione dei volti dei protagonisti o di parti di esso, portando a credere chi guarda che tutto ciò venga detto dalla persona nel video.

Fortunatamente ci sono metodi per ‘smascherare’ questo Deepfake video. In questo caso, tra le modalità di smascheramento, basta essere attenti al battito di ciglia dei protagonisti del video.

I ricercatori, autori dello studio, hanno dichiarato: “Gli esseri umani hanno una forte tendenza a credere ai loro occhi e alle loro orecchie, e quindi i video falsi possono ingannare con grande facilità.”

Questo reato è risultato essere ancor più pericoloso dell’utilizzo dei droni o robot militari o del ricatto digitale.