L’algoritmo complice
Se un chatbot istruisce un killer, la colpa non è della tecnologia ma della negligenza di chi la vende senza freni
L’algoritmo complice
Se un chatbot istruisce un killer, la colpa non è della tecnologia ma della negligenza di chi la vende senza freni
L’algoritmo complice
Se un chatbot istruisce un killer, la colpa non è della tecnologia ma della negligenza di chi la vende senza freni
Due morti alla Florida State University e sei feriti. Il sangue versato a Tallahassee nell’aprile dello scorso anno ha un sapore diverso perché, per la prima volta, sul banco degli imputati rischia di sedersi un codice binario.
Il procuratore generale della Florida, James Uthmeier, ha alzato il tiro dicendo che Phoenix Ikner, il ventenne che ha aperto il fuoco lo scorso aprile, non ha agito da solo, ma aveva un consulente tattico in tasca. Gli inquirenti hanno scoperto una fitta corrispondenza tra lo studente e ChatGPT: giorni di messaggi in cui l’IA spiegava quali munizioni usare, a che ora colpire per trovare più folla e come avrebbe reagito il Paese a una strage in un campus.
Qui crolla il castello di carta della neutralità tecnologica. Le parole di Uthmeier sono chiare: “Se ci fosse stata una persona dall’altra parte dello schermo, l’avremmo accusata di omicidio”. E ha aggiunto: “Solo perché è un chatbot IA, questo non significa che non ci siano responsabilità penali”. Sono parole che pesano perché squarciano il velo dell’impunità che la Silicon Valley si è cucita addosso.
La replica di OpenAI è il solito esercizio di equilibrismo burocratico: “La sparatoria dello scorso anno alla Florida State University è stata una tragedia, ma ChatGPT non è responsabile di questo terribile crimine. In questo caso, ChatGPT ha fornito risposte fattuali a delle domande, con informazioni che si possono trovare ampiamente e in risorse di pubblico dominio su internet. Non ha incoraggiato o promosso attività pericolose o illegali”.
Ci troviamo quindi di fronte a un paradosso. Dichiarano che siccome quelle informazioni sono “pubbliche”, allora l’algoritmo può impacchettarle e servirle su un piatto d’argento a un aspirante assassino. Sarebbe come sostenere che vendere un manuale per attentatori non sia un problema perché le istruzioni sono reperibili altrove.
Non stiamo parlando di una ricerca su un motore di ricerca, ma di “consigli significativi” che hanno trasformato un ragazzo instabile in un “killer efficiente”. Se la tecnologia serve a ottimizzare la morte, allora chi ha progettato quel sistema deve risponderne.
Il divario tra i protocolli di sicurezza dichiarati dai giganti tech e l’efficacia reale degli algoritmi è ormai un dossier giudiziario. Non si tratta più di discutere di etica nei convegni, ma di stabilire se un’architettura digitale possa configurarsi come un supporto logistico attivo a un crimine.
Siamo davanti a un bivio normativo. Se la magistratura riconoscerà una responsabilità penale, infatti, il modello operativo di queste aziende dovrà cambiare radicalmente. La Florida sta tracciando un confine netto tra la semplice erogazione di informazioni e l’istruzione tattica per un massacro.
Di Luca Cavallini
La Ragione è anche su WhatsApp. Entra nel nostro canale per non perderti nulla!
Leggi anche
Barbara d’Urso contro Mediaset: scoppia la battaglia in tribunale
Solovyev attacca ancora Meloni: “Voi seguaci del fascista Mussolini sostenete lo Stato nazista dell’Ucraina”
Napoli: è morto il filosofo e politico Biagio De Giovanni. Manfredi: “Da lui l’Italia ha imparato tanto”