La proliferazione di immagini di abusi sessuali su minori su Internet potrebbe aggravarsi se non si fa qualcosa per controllare gli strumenti di intelligenza artificiale che generano foto “deepfake”. A lanciare l’allarme è stata la Internet Watch Foundation (IWF) con sede nel Regno Unito che ha dichiarato di aver trovato online quasi 3.000 immagini di abusi create dall’IA in violazione della legge locale.
La Ragione è anche su WhatsApp. Entra nel nostro canale per non perderti nulla!
Leggi anche