BRUXELLES – Nell’anno delle “super elezioni”, che vedrà recarsi alle urne circa due miliardi di cittadini in tutto il mondo, l’Alto rappresentante Ue Josep Borrell avverte che il voto sarà un “obiettivo primario” per Paesi come la Russia che cercano di diffondere disinformazione e minare la democrazia.
Il 2024 “sarà un anno cruciale per combattere” la manipolazione straniera, ha spiegato il capo della diplomazia europea presentando il secondo rapporto del Servizio europeo d’azione esterna (Seae) sulle minacce legate alla manipolazione e all’interferenza di informazioni straniere (Fimi). “La disinformazione pone un problema per la nostra sicurezza e dobbiamo rispondere a chi ci attacca”, ha sottolineato Borrell, che ha poi ricordato l’allarme del World Economic Forum, secondo cui la disinformazione è il secondo rischio più grande che dovremo affrontare quest’anno, anche a causa dell’intelligenza artificiale (IA) per il suo potenziale uso improprio nella produzione di contenuti fake.
“L’IA sta compiendo una vera e propria rivoluzione nel modo in cui è possibile manipolare le informazioni: oggi è molto più economico produrre e molto difficile individuare le informazioni, che sono completamente false”, ha spiegato.
Secondo il rapporto del Seae, tuttavia, l’IA “non è (ancora) la minaccia maggiore”. Sui 750 incidenti Fimi presi in analisi nel rapporto, registratisi in un arco di tempo che va da dicembre 2022 a novembre 2023, solo in una “minoranza” di casi “inferiore a 20” sono stati utilizzati “mezzi di comunicazione generati dall’IA”. Diversi gli esempi citati, tra cui il video alterato sinteticamente in cui il capo dell’esercito ucraino invocava un colpo di stato, e ancora l’audio, anche questo generato dall’IA e diffuso a soli due giorni dalle elezioni in Slovacchia, in cui si sentiva il candidato progressista Michal Simecka discutere con una giornalista della compravendita di voti della minoranza rom. Eppure, spiegano gli esperti, l’IA potrebbe essere anche una potente arma nel contrasto alla disinformazione.
“La crescita esplosiva e la disponibilità di strumenti di IA potrebbe addirittura portare più vantaggi ai difensori che agli aggressori”, si legge nel rapporto in cui si evidenzia la potenzialità della nuova tecnologia nella rilevazione e nel monitoraggio di contenuti falsi.