L’UE ha rivelato le direttive per rafforzare la sicurezza delle elezioni europee del 2024. Enfatizzando la moderazione dei contenuti e la lotta ai deepfake sulle piattaforme digitali.
Con l’avvicinarsi delle elezioni europee – 6-9 giugno 2024 -, l’Unione Europea ha annunciato un nuovo progetto normativo per sensibilizzare le principali piattaforme digitali riguardo a questo fondamentale appuntamento elettorale.
L’UE ha rivelato un progetto di direttive per garantire la sicurezza nelle elezioni, rivolto alle piattaforme digitali con almeno 45 milioni di utenti mensili attivi a livello regionale.
Queste piattaforme, regolate dal Digital Services Act (DSA), sono obbligate a contrastare rischi sistematici come la creazione di deepfake politici, garantendo allo stesso tempo i diritti fondamentali come la libertà di espressione e la privacy.
L’impatto del DSA sulle elezioni europee 2024
Le piattaforme coinvolte dal provvedimento comprendono Facebook, Google, Instagram, LinkedIn, TikTok, YouTube e X.
L’Unione Europea ha identificato le elezioni come un momento critico nell’ambito dell’applicazione del DSA per le grandi piattaforme online (VLOP) e i motori di ricerca online (VLOSE).
Queste aziende sono chiamate ad individuare e a limitare rischi sistematici, inclusa la manipolazione delle informazioni che potrebbero influenzare i processi democratici. Sempre nel rispetto dell’intera normativa sulla moderazione dei contenuti e sulla governance digitale.
Richiamo ai colossi tecnologici per i processi democratici
Secondo le direttive dell’UE sulla sicurezza elettorale, ci si aspetta che i colossi tecnologici rafforzino le loro misure di protezione dei processi democratici. Questo include l’impiego di risorse per la moderazione dei contenuti in tutte le lingue ufficiali dell’UE
Inoltre si richiede la disponibilità di personale sufficiente per rispondere efficacemente ai rischi emergenti dalle informazioni sulle loro piattaforme.
Oltre a rispondere alle segnalazioni dei fact-checker indipendenti.
In caso di mancato rispetto, potrebbero incorrere in ingenti sanzioni.
L’importanza della moderazione dei contenuti
Le piattaforme dovranno bilanciare attentamente la moderazione dei contenuti politici, distinguendo tra satira, che dovrebbe restare libera come forma di libertà di parola, e la disinformazione politica nociva, che potrebbe influenzare gli elettori e alterare il risultato delle elezioni.
I contenuti che rientrano nella categoria di rischio sistemico devono essere rapidamente identificati e mitigati. L’UE richiede misure di mitigazione “ragionevoli, proporzionate ed efficaci” per i rischi legati ai processi elettorali, nonché il rispetto di altre norme pertinenti.
Le linee guida, elaborate dalla Commissione e soggette a consultazione il mese scorso, rispondono all’urgenza delle imminenti elezioni del Parlamento europeo a giugno.
Stress test per le piattaforme digitali
È previsto uno stress-test sulle piattaforme il mese prossimo. Questo per dimostrare che l’UE non intende lasciare nulla al caso per ciò che riguarda la conformità delle piattaforme.
Uno degli aspetti chiave è la richiesta alle piattaforme di offrire agli utenti scelte significative riguardo ai sistemi di raccomandazione basati su algoritmi e intelligenza artificiale. Per consentire agli utenti di avere controllo sui contenuti visualizzati.
I sistemi di raccomandazione dovrebbero includere misure per limitare la disinformazione mirata alle elezioni e adottare misure di mitigazione contro la diffusione di disinformazione generata da intelligenza artificiale. Come sono appunto i deepfake a sfondo politico.
Cosa si intende per deepfake
Con deepfake si intende il risultato di tecniche avanzate di intelligenza artificiale e apprendimento automatico, in particolare le reti neurali generative avversarie (GANs).
Queste reti sono addestrate con ampi set di dati di immagini o video reali per produrre nuove immagini o video che sembrano realistici, ma sono in realtà artificiali.
In pratica, i deepfake sono spesso usati per sovrapporre il viso di una persona su un altro corpo in un video, o per manipolare l’audio e il video in modo che una persona sembri dire o fare qualcosa che non ha mai detto o fatto.
Innovazione e trasparenza
L’UE sottolinea l’importanza della trasparenza nella progettazione e nel funzionamento di questi sistemi. Raccomanda poi test di resistenza e simulazioni per aumentare l’efficacia nel rilevare e mitigare i rischi.
Inoltre, le piattaforme devono concentrare risorse interne su minacce elettorali specifiche, come i prossimi eventi elettorali, e dare vita a processi di condivisione delle informazioni. Oltre che procedere all’analisi sui rischi.
Le risorse devono possedere competenze locali per una moderazione dei contenuti efficace e una comprensione approfondita dei contesti nazionali e regionali.
Per ogni evento elettorale, si raccomanda la creazione di un team interno dedicato, con competenze locali e in settori rilevanti, come la moderazione dei contenuti e la verifica dei fatti.
Invito a collaborare tra le piattaforme
Le piattaforme sono invitate a collaborare con esperti esterni, come l’Osservatorio europeo sui media digitali (EDMO) e organizzazioni indipendenti di fact-checking.
Le piattaforme devono attivare misure di mitigazione attive da uno a sei mesi prima del periodo elettorale e continuarle per almeno un mese dopo le elezioni. Questo periodo è critico per affrontare rischi come la disinformazione mirata ai processi di voto.
L’UE consiglia anche alle piattaforme di ispirarsi ad altre linee guida esistenti, come il Codice di condotta sulla disinformazione e il codice sulla lotta all’incitamento all’odio, per identificare le migliori pratiche.
È fondamentale che gli utenti abbiano accesso a informazioni ufficiali sui processi elettorali e che le piattaforme contrastino contenuti illegali che possano influenzare il dibattito democratico.
Trasparenza verso la pubblicità politica
In termini di pubblicità politica, le piattaforme sono indirizzate verso le future norme di trasparenza in questo settore. Con l’invito a prepararsi adottando misure conformi ai requisiti previsti.
Le piattaforme sono inoltre invitate a collaborare con le autorità di controllo ed esperti della società civile. Oltre che a collaborare tra loro per condividere informazioni sui rischi per la sicurezza elettorale.
L’UE raccomanda inoltre di istituire meccanismi interni di risposta agli incidenti ad alto rischio e di condurre revisioni post-elettorali dei risultati.
Rischio di multe fino al 6% del fatturato
Sebbene le linee guida sulla sicurezza elettorale non siano obbligatorie, le piattaforme che scelgono un approccio diverso devono dimostrare che il loro metodo rispetta gli standard dell’UE.
In caso contrario, rischiano di essere considerate in violazione della DSA, con possibili sanzioni fino al 6% del fatturato annuo globale.
Le linee guida includono raccomandazioni specifiche per le prossime elezioni del Parlamento europeo e, sebbene al momento siano ancora una bozza, si prevede l’adozione formale da parte della Commissione ad aprile.