Romania, far vincere un candidato sconosciuto
La vicenda di Călin Georgescu in Romania ha ricordato come siano ancora in molti a non cogliere il potenziale impatto devastante della manipolazione elettorale. Un recente studio della Fondazione Olitec aiuta
Romania, far vincere un candidato sconosciuto
La vicenda di Călin Georgescu in Romania ha ricordato come siano ancora in molti a non cogliere il potenziale impatto devastante della manipolazione elettorale. Un recente studio della Fondazione Olitec aiuta
Romania, far vincere un candidato sconosciuto
La vicenda di Călin Georgescu in Romania ha ricordato come siano ancora in molti a non cogliere il potenziale impatto devastante della manipolazione elettorale. Un recente studio della Fondazione Olitec aiuta
La vicenda di Călin Georgescu – il filorusso candidato alle presidenziali in Romania, bloccato nella corsa elettorale per provate interferenze di Mosca – ha ricordato come siano ancora in molti a non cogliere il potenziale impatto devastante della manipolazione elettorale. E, soprattutto, a confonderla con la semplice comunicazione sui social. Un recentissimo studio della Fondazione Olitec può aiutare. Con metodo scientifico ha dimostrato che è possibile portare un emerito sconosciuto ad avere fino al 70% di probabilità di vittoria alle elezioni politiche. Avendo a disposizione un budget di partenza tutto sommato non ingente – circa tre milioni di euro – e competenze d’uso di algoritmi per la profilazione psicometrica.
La simulazione è stata fatta sull’Italia e a questa si riferiscono i numeri (sconcertanti) che seguono.
Georgescu in Romania e la prima fase dello studio italiano
La prima fase dello studio, condotta usando un mix di algoritmi predittivi e analisi demoscopiche, ha identificato gli account più vulnerabili tra quelli attivi sui principali social. Facebook, Instagram, X, TikTok, LinkedIn, Reddit, Telegram e YouTube. Gli account manipolabili in Italia sono risultati 85 milioni (gli utenti ne hanno spesso più di uno su diverse piattaforme) con queste percentuali. Il 60-80% lo è altamente, il 30-50% lo è moderatamente, il 10-30% lo è difficilmente e solo il 10% è resistente.
La seconda fase
La seconda fase è stata quella dell’engagement progressivo degli utenti. È stata simulata una campagna di massiccia disinformazione sui social, sfruttando reti neurali capaci di prevedere la propagazione delle idee. In poche parole, si è costruita da zero l’identità politica di un candidato del tutto sconosciuto. E si è misurato il cambiamento dell’opinione elettorale degli utenti influenzabili quando sono esposti in modo progressivo e ripetuto a contenuti specifici. Studiati ad hoc a seconda delle potenzialità di ciascuna piattaforma (per esempio Facebook e TikTok premiano l’interattività e i contenuti emozionali, mentre su X e LinkedIn funzionano le argomentazioni dettagliate). È importante evidenziare che questa fase è stata condotta in modo completamente automatizzato.
Alcuni software possono infatti identificare i punti deboli di ciascun utente, a livello emozionale e cognitivo. Come fanno? Scandagliano a fondo le sue tracce digitali, dal colore del cuoricino postato fino ai testi scritti dagli amici con cui sono collegati. Inoltre, sono state usate tecniche di manipolazione del consenso – come lo sfruttamento dell’effetto-gregge (l’appartenenza a un gruppo social rinforza la convinzione di avere ragione), la creazione di nemici comuni, l’uso di emozioni forti – che riducono il pensiero critico.
Il caso Romania e lo studio italiano. Il risultato della simulazione
Ecco il risultato della simulazione: con una campagna social a basso budget, uno sconosciuto ha tra il 5 e il 10% di probabilità di vincere. Ma coinvolgendo influencer e aumentando gli investimenti economici, le probabilità salgono fino al 70%. L’Osservatorio europeo dei media digitali (Edmo) ha rilevato che in occasione delle ultime elezioni europee, nel maggio 2024, la disinformazione digitale ha raggiunto il picco massimo dall’anno precedente. Siamo convinti che il web sia il regno della libera espressione. Invece rischia sempre più spesso di trasformarsi in una bolla che non riflette la realtà ma quella versione di realtà più funzionale a trattenerci online. Preoccupante, in un’epoca in cui i social e l’intelligenza artificiale hanno trasformato le campagne elettorali in operazioni di marketing evoluto, basato su analisi comportamentale e psicologia della persuasione.
di Nicoletta Prandi
La Ragione è anche su WhatsApp. Entra nel nostro canale per non perderti nulla!
Leggi anche