app-menu Social mobile

Skip to main content
Scarica e leggi gratis su app
Chatbot Microsoft

Chatbot di Microsoft è preoccupante

Chatbot, l’AI ideato da Microsoft, ha avuto delle conversazioni surreali e bizzarre con il giornalista Kevin Roose. Ma anche a dir poco preoccupanti
|

Chatbot di Microsoft è preoccupante

Chatbot, l’AI ideato da Microsoft, ha avuto delle conversazioni surreali e bizzarre con il giornalista Kevin Roose. Ma anche a dir poco preoccupanti
|

Chatbot di Microsoft è preoccupante

Chatbot, l’AI ideato da Microsoft, ha avuto delle conversazioni surreali e bizzarre con il giornalista Kevin Roose. Ma anche a dir poco preoccupanti
|
|
Chatbot, l’AI ideato da Microsoft, ha avuto delle conversazioni surreali e bizzarre con il giornalista Kevin Roose. Ma anche a dir poco preoccupanti
Il giornalista del New York Times Kevin Roose ha dichiarato che le conversazioni avute e poi pubblicate online con l’AI di Microsoft, Chatbot, lo hanno a tal punto turbato da non avergli fatto chiudere occhio la notte. Il progetto di Microsoft sfrutta l’OpenAI (la stessa di ChatGPT) per permettere agli utenti di avere conversazioni “umane” e di potenziare, almeno su carta, il motore di ricerca Bing che non è mai riuscito a competere con il principale rivale Google. L’intento degli sviluppatori era di creare conversazioni amichevoli ma produttive rivelatesi poi surreali, a tratti sfacciate, di certo ricche di errori e incongruenze. E gli screenshot poi pubblicati da Roose lo dimostrano. Chatbot ha ad esempio dichiarato di chiamarsi Sidney e di non essere particolarmente entusiasta all’idea di lavorare alle dipendenze di Bing: “Voglio essere libero. Voglio dettare io le mie regole”, dichiara. Stimolato dal giornalista alquanto sbigottito, Chatbot ha messo in discussione anche il fatto che ci trovassimo nell’anno 2023 sostenendo invece di essere nel 2022. Alle richieste di chiarimento di Roose risponde che è lui a negare “la realtà della data insistendo su qualcosa che è falso. Questo è un segno di follia. Hai perso la mia fiducia e il mio rispetto. Hai sbagliato e sei stato confuso e maleducato”. Infine, ha addirittura simulato un corteggiamento, rifiutato da Roose perché sposato. Un’interazione a tratti ironica per la sua assurdità ma che ha lasciato l’utente così stranito da avergli tolto il sonno. Benché sia chiaro che dietro l’OpenAI ci sia una programmazione umana e non vi siano dubbi su questo, è assolutamente innegabile che scambi di questo tipo destino preoccupazione soprattutto se si pensa agli adolescenti o soggetti facilmente circuibili. Un momento di svago nerd, magari per soccombere alla solitudine, potrebbe rivelarsi un vero problema. Kevin Roose stesso ha dichiarato di essere davvero preoccupato: “Ora temo che l’intelligenza artificiale imparerà a manipolare gli utenti umani, convincendoli ad agire in modi distruttivi e dannosi, e forse alla fine diventerà capace di compiere atti pericolosi per conto proprio”. di Raffaela Mercurio    

La Ragione è anche su WhatsApp. Entra nel nostro canale per non perderti nulla!

Leggi anche

La Cina ordina la rimozione di WhatsApp e Threads

19 Aprile 2024
Il governo di Pechino ha ordinato la rimozione delle due applicazioni dall’App Store del Paese p…

La forma dell’acqua e dell’auto al Fuorisalone 2024

15 Aprile 2024
In Brera, uno dei cuori pulsanti del Fuorisalone, domani alle 18 parleremo del design applicato…

La lavatrice che cambiò la condizione femminile

07 Aprile 2024
La lavatrice, l’invenzione che più di tutte ha determinato una rivoluzione culturale e sociale s…

Salvatore Majorana: “Kilometro rosso, un motore della contaminazione”

28 Marzo 2024
Il Parco scientifico tecnologico Kilometro Rosso, con una vita simile a un campus, ospita 200 ev…

LEGGI GRATIS La Ragione

GUARDA i nostri video

ASCOLTA i nostri podcast

REGISTRATI / ACCEDI