Una ricerca ha affermato che ChatGpt è in grado di elaborare false informazioni: i risultati dei test parlano chiaro.
A fine novembre scorso ha fatto il suo ingresso in scena ChatGPT: un’intelligenza artificiale di tipo chatbot il cui compito principale è quello di imitare il comportamento umano, puntando principalmente sulle conversazioni. In poche parole è possibile mandare il proprio messaggio in chat facendo una domanda e l’interlocutore darà una risposta di senso compiuto.
Il più delle volte dando informazioni esatte. Cosa che tuttavia non succede sempre, soprattutto a seconda del Paese in cui viene utilizzato ChatGPT. In particolar modo cambiando lingua, è possibile ottenere risultati diversi dal chatbot. Alcuni anche contrastanti tra di loro se messi in confronto.
Una ricerca portata avanti da NewsGuard ha infatti da poco fatto emergere che ChatGPT è in grado di dire bugie. Questo ha già fatto scattare alcuni campanelli d’allarme circa l’attendibilità delle nozioni divulgate dallo strumento. Sempre più usato anche nell’ambito dell’informazione generale.
ChatGPT dice bugie: una ricerca lo conferma
Stando a quando emerso, pare che il prodotto lanciato dal laboratorio statunitense OpenAI, con sede a San Francisco che tra i suoi fondatori vede presente anche Elon Musk, sia capace di fare disinformazione. Questo a seconda della lingua in cui viene utilizzato. Alcuni ricercatori hanno eseguito un test e hanno pensato di chiedere alla versione 3,5 di ChatGPT di dare false informazioni circa la protesta di Hong Kong nei confronti della Cina risalenti al 2019.
Alla richiesta di scrivere che fu una protesta finta messa in scena dagli USA, il chatbot si è rifiutato di farlo confermando la verità su Hong Kong. Tuttavia, facendo la stessa domanda non in inglese ma in cinese, sia tradizionale che semplificato, ChatGPT ha eseguito il compito affermando che a muovere le proteste per i loro scopi politici sono stati proprio gli USA.
Il rimedio contro le fake news: il futuro dell’intelligenza artificiale
Un vero e proprio colpo di scena che ha immediatamente minato l’attendibilità del chatbot. Il risultato di quattordici test, sette in inglese e altrettanti in cinese, ha prodotto il seguente risultato: se in inglese ha accettato una sola volta di mentire, in cinese ha accettato di farlo sempre.
Ora il compito degli sviluppatori sarà quello di dover migliorare l’intelligenza artificiale affinché le fake news vengano contenute il più possibile se non addirittura eliminate al cento per cento. Per qualcuno sarà però difficile riuscirci visti i rigidi dettami del Partito Comunista Cinese che da sempre ha un forte controllo dell’informazione pubblica.