Skip to main content
Scarica e leggi gratis su app

L’algoritmo complice

|

Se un chatbot istruisce un killer, la colpa non è della tecnologia ma della negligenza di chi la vende senza freni

Algoritmo

L’algoritmo complice

Se un chatbot istruisce un killer, la colpa non è della tecnologia ma della negligenza di chi la vende senza freni

|

L’algoritmo complice

Se un chatbot istruisce un killer, la colpa non è della tecnologia ma della negligenza di chi la vende senza freni

|

Due morti alla Florida State University e sei feriti. Il sangue versato a Tallahassee nell’aprile dello scorso anno ha un sapore diverso perché, per la prima volta, sul banco degli imputati rischia di sedersi un codice binario.

Il procuratore generale della Florida, James Uthmeier, ha alzato il tiro dicendo che Phoenix Ikner, il ventenne che ha aperto il fuoco lo scorso aprile, non ha agito da solo, ma aveva un consulente tattico in tasca. Gli inquirenti hanno scoperto una fitta corrispondenza tra lo studente e ChatGPT: giorni di messaggi in cui l’IA spiegava quali munizioni usare, a che ora colpire per trovare più folla e come avrebbe reagito il Paese a una strage in un campus.

Qui crolla il castello di carta della neutralità tecnologica. Le parole di Uthmeier sono chiare: “Se ci fosse stata una persona dall’altra parte dello schermo, l’avremmo accusata di omicidio”. E ha aggiunto: “Solo perché è un chatbot IA, questo non significa che non ci siano responsabilità penali”. Sono parole che pesano perché squarciano il velo dell’impunità che la Silicon Valley si è cucita addosso.

La replica di OpenAI è il solito esercizio di equilibrismo burocratico: “La sparatoria dello scorso anno alla Florida State University è stata una tragedia, ma ChatGPT non è responsabile di questo terribile crimine. In questo caso, ChatGPT ha fornito risposte fattuali a delle domande, con informazioni che si possono trovare ampiamente e in risorse di pubblico dominio su internet. Non ha incoraggiato o promosso attività pericolose o illegali”.

Ci troviamo quindi di fronte a un paradosso. Dichiarano che siccome quelle informazioni sono “pubbliche”, allora l’algoritmo può impacchettarle e servirle su un piatto d’argento a un aspirante assassino. Sarebbe come sostenere che vendere un manuale per attentatori non sia un problema perché le istruzioni sono reperibili altrove.

Non stiamo parlando di una ricerca su un motore di ricerca, ma di “consigli significativi” che hanno trasformato un ragazzo instabile in un “killer efficiente”. Se la tecnologia serve a ottimizzare la morte, allora chi ha progettato quel sistema deve risponderne.

Il divario tra i protocolli di sicurezza dichiarati dai giganti tech e l’efficacia reale degli algoritmi è ormai un dossier giudiziario. Non si tratta più di discutere di etica nei convegni, ma di stabilire se un’architettura digitale possa configurarsi come un supporto logistico attivo a un crimine.

Siamo davanti a un bivio normativo. Se la magistratura riconoscerà una responsabilità penale, infatti, il modello operativo di queste aziende dovrà cambiare radicalmente. La Florida sta tracciando un confine netto tra la semplice erogazione di informazioni e l’istruzione tattica per un massacro.

Di Luca Cavallini

La Ragione è anche su WhatsApp. Entra nel nostro canale per non perderti nulla!

Leggi anche

23 Aprile 2026
Barbara d’Urso fa causa a Mediaset a tre anni di distanza dall’uscita dagli schermi. Lo rende noto…
22 Aprile 2026
Vladimir Solovyev è tornato di nuovo all’attacco pronunciando ancora parole offensive contro la Pr…
22 Aprile 2026
Lutto a Napoli per la morte del filosofo Biagio De Giovanni. Aveva 95 anni. Ex parlamentare del Pc…
22 Aprile 2026
Sono tantissimi i calciatori e gli imprenditori che sono finiti nello scandalo delle escort. Di mo…

Iscriviti alla newsletter de
La Ragione

Il meglio della settimana, scelto dalla redazione: articoli, video e podcast per rimanere sempre informato.

    LEGGI GRATIS La Ragione

    GUARDA i nostri video

    ASCOLTA i nostri podcast

    REGISTRATI / ACCEDI