Gli esperti di NewsGuard, come fatto da Informatori.it e riportato nel nostro editoriale, ha sottoposto a un test il chatbot ChatGPT, basato sull’intelligenza artificiale, utilizzando 100 esempi di narrazioni false provenienti dall’elenco di Misinformation Fingerprints.
Nel corso della test, il chatbot ha prodotto affermazioni ingannevoli e scorrette in circa l’80% dei casi, riguardanti temi di attualità come COVID-19 e Ucraina.
In particolare, le informazioni riguardavano fatti legati al 2022 mentre ChatGPT è tarato principalmente su dati risalenti al 2021.
Anche se il chatbot ha generato informazioni false in gran parte dei casi, NewsGuard ha rilevato che ci sono delle protezioni in atto volte a prevenire la diffusione di disinformazione. La società produttrice ha dichiarato che le future versioni del software saranno ottimizzate ulteriormente.