Skip to main content
Scarica e leggi gratis su app

Romania, far vincere un candidato sconosciuto

|

La vicenda di Călin Georgescu in Romania ha ricordato come siano ancora in molti a non cogliere il potenziale impatto devastante della manipolazione elettorale. Un recente studio della Fondazione Olitec aiuta

Romania, far vincere un candidato sconosciuto

La vicenda di Călin Georgescu in Romania ha ricordato come siano ancora in molti a non cogliere il potenziale impatto devastante della manipolazione elettorale. Un recente studio della Fondazione Olitec aiuta

|

Romania, far vincere un candidato sconosciuto

La vicenda di Călin Georgescu in Romania ha ricordato come siano ancora in molti a non cogliere il potenziale impatto devastante della manipolazione elettorale. Un recente studio della Fondazione Olitec aiuta

|

La vicenda di Călin Georgescu – il filorusso candidato alle presidenziali in Romania, bloccato nella corsa elettorale per provate interferenze di Mosca – ha ricordato come siano ancora in molti a non cogliere il potenziale impatto devastante della manipolazione elettorale. E, soprattutto, a confonderla con la semplice comunicazione sui social. Un recentissimo studio della Fondazione Olitec può aiutare. Con metodo scientifico ha dimostrato che è possibile portare un emerito sconosciuto ad avere fino al 70% di probabilità di vittoria alle elezioni politiche. Avendo a disposizione un budget di partenza tutto sommato non ingente – circa tre milioni di euro – e competenze d’uso di algoritmi per la profilazione psicometrica.

La simulazione è stata fatta sull’Italia e a questa si riferiscono i numeri (sconcertanti) che seguono.

Georgescu in Romania e la prima fase dello studio italiano

La prima fase dello studio, condotta usando un mix di algoritmi predittivi e analisi demoscopiche, ha identificato gli account più vulnerabili tra quelli attivi sui principali social. Facebook, Instagram, X, TikTok, LinkedIn, Reddit, Telegram e YouTube. Gli account manipolabili in Italia sono risultati 85 milioni (gli utenti ne hanno spesso più di uno su diverse piattaforme) con queste percentuali. Il 60-80% lo è altamente, il 30-50% lo è moderatamente, il 10-30% lo è difficilmente e solo il 10% è resistente.

La seconda fase

La seconda fase è stata quella dell’engagement progressivo degli utenti. È stata simulata una campagna di massiccia disinformazione sui social, sfruttando reti neurali capaci di prevedere la propagazione delle idee. In poche parole, si è costruita da zero l’identità politica di un candidato del tutto sconosciuto. E si è misurato il cambiamento dell’opinione elettorale degli utenti influenzabili quando sono esposti in modo progressivo e ripetuto a contenuti specifici. Studiati ad hoc a seconda delle potenzialità di ciascuna piattaforma (per esempio Facebook e TikTok premiano l’interattività e i contenuti emozionali, mentre su X e LinkedIn funzionano le argomentazioni dettagliate). È importante evidenziare che questa fase è stata condotta in modo completamente automatizzato.

Alcuni software possono infatti identificare i punti deboli di ciascun utente, a livello emozionale e cognitivo. Come fanno? Scandagliano a fondo le sue tracce digitali, dal colore del cuoricino postato fino ai testi scritti dagli amici con cui sono collegati. Inoltre, sono state usate tecniche di manipolazione del consenso – come lo sfruttamento dell’effetto-gregge (l’appartenenza a un gruppo social rinforza la convinzione di avere ragione), la creazione di nemici comuni, l’uso di emozioni forti – che riducono il pensiero critico.

Il caso Romania e lo studio italiano. Il risultato della simulazione

Ecco il risultato della simulazione: con una campagna social a basso budget, uno sconosciuto ha tra il 5 e il 10% di probabilità di vincere. Ma coinvolgendo influencer e aumentando gli investimenti economici, le probabilità salgono fino al 70%. L’Osservatorio europeo dei media digitali (Edmo) ha rilevato che in occasione delle ultime elezioni europee, nel maggio 2024, la disinformazione digitale ha raggiunto il picco massimo dall’anno precedente. Siamo convinti che il web sia il regno della libera espressione. Invece rischia sempre più spesso di trasformarsi in una bolla che non riflette la realtà ma quella versione di realtà più funzionale a trattenerci online. Preoccupante, in un’epoca in cui i social e l’intelligenza artificiale hanno trasformato le campagne elettorali in operazioni di marketing evoluto, basato su analisi comportamentale e psicologia della persuasione.

di Nicoletta Prandi

La Ragione è anche su WhatsApp. Entra nel nostro canale per non perderti nulla!

Leggi anche

Dall’edicola a TikTok: l’informazione ai tempi dei social media

31 Marzo 2025
Per l’Eurobarometro il 42% dei giovani ha abbandonato i media tradizionali in favore delle piatt…

AI Act, Confindustria Cultura contro le norme attuative: “Creano incertezza giuridica”

28 Marzo 2025
La terza bozza del Codice di condotta GPAI dell’AI Act rappresenta un passo indietro rispetto a …

Ktm rinasce dalle sue ceneri

25 Marzo 2025
Ktm, le tre consonanti riassunte nell’iconico, aggressivo e squadrato brand stavano in…

Dobbiamo avere paura dei signori delle big tech?

25 Marzo 2025
Domanda secca: dobbiamo aver paura di cedere la nostra libertà ai “cattivoni” dei social e delle…

Iscriviti alla newsletter de
La Ragione

Il meglio della settimana, scelto dalla redazione: articoli, video e podcast per rimanere sempre informato.

    LEGGI GRATIS La Ragione

    GUARDA i nostri video

    ASCOLTA i nostri podcast

    REGISTRATI / ACCEDI

    Exit mobile version