Da Oxford un nuovo metodo per prevenire le allucinazioni dell’IA

Un team di ricercatori dell’Università di Oxford ha sviluppato un metodo per rilevare le “confabulazioni” nei modelli linguistici di grandi dimensioni (LLM), come ChatGPT. Le confabulazioni sono risposte plausibili ma imprecise generate dai LLM.

sede dell'università di Oxford

Tempo di lettura:

2 minuti


Alcune immagini,traduzioni e sintesi possono essere stati realizzati con ausilio di strumenti di intelligenza artificiale.

Storytelling e supervisione umani