L’AI soffre di allucinazioni: come possono essere curate e da chi?

L’AI soffre di allucinazioni: come possono essere curate e da chi?

0

I chatbot basati su AI come ChatGPT possono dare informazioni completamente false a causa di allucinazioni. Questo problema è evidenziato da una ricerca di Vectara sulla percentuale di allucinazioni in modelli come GPT-4 e Claude 2. Questo limite impatta settori fondamentali come sanità, istruzione e giornalismo, dove l’accuratezza è vitale. NeMo Guardrails di Nvidia e il Rlhf sono proposti come soluzioni per correggere le risposte errate dei chatbot. CriticGPT, affiancando i revisionatori umani, ha dimostrato di individuare efficacemente i bug nei modelli linguistici. Tuttavia, il ricercatore Ziwei Xu afferma che le allucinazioni rimarranno un problema intrinseco in questi sistemi AI.

Le allucinazioni nell’Intelligenza Artificiale: una sfida da affrontare

Le allucinazioni nell’Intelligenza Artificiale (AI) rappresentano una sfida significativa da affrontare. ChatGPT e altri chatbot basati su AI possono dare risposte dettagliate e convincenti, ma possono anche fornire informazioni completamente errate. Questo fenomeno dimostra che l’AI può soffrire di allucinazioni.

Una ricerca condotta da Vectara ha evidenziato che modelli avanzati come GPT-4, Claude 2 di Anthropic e Palm di Google (ora superato da Gemini) presentano un tasso di allucinazioni che varia dal 3% al 27%. Questo fenomeno rappresenta un ostacolo significativo per i large language model (LLM), soprattutto in settori cruciali come la sanità, l’istruzione e il giornalismo.

Le cause di queste allucinazioni possono essere attribuite al fatto che i modelli AI sono progettati per generare risposte basate su probabilità statistiche e coerenza con i dati precedenti. Per affrontare questo problema, Nvidia ha introdotto NeMo Guardrails, un software open-source che mira a prevenire la generazione di informazioni false dai chatbot.

Anche il metodo del reinforcement learning from human feedback (RLHF) è stato proposto come soluzione. Questo approccio prevede che gli esseri umani valutino le risposte dell’AI e correggano eventuali errori. Tuttavia, il ricercatore Nat McAleese ha sottolineato che più l’AI diventa intelligente, più diventa complesso il lavoro degli esseri umani.

Le allucinazioni nei chatbot basati su AI

È comune che i chatbot virtuali come ChatGPT, alimentati da Intelligenza Artificiale, forniscono risposte dettagliate ma talvolta del tutto false. Questo fenomeno è indicativo di un problema di allucinazioni nell’AI.

Una ricerca condotta da Vectara ha rivelato che GPT-4, Claude 2 di Anthropic e alcune versioni di Palm di Google presentano tassi variabili di allucinazioni, con percentuali che vanno dal 3% al 27% dei casi.

Questi episodi di allucinazione rappresentano una significativa limitazione per i large language model (LLM) nei settori critici come la sanità, l’istruzione e il giornalismo, dove l’accuratezza delle informazioni è fondamentale.

Le cause di queste allucinazioni risiedono nella natura stessa dei modelli basati su AI, progettati per prevedere statisticamente le risposte più coerenti con il contesto. Questo ha spinto Nvidia a sviluppare NeMo Guardrails, un software che impedisce ai chatbot di generare affermazioni false, ma limitato a utilizzi specifici.

Non perderti tutte le notizie al femminile sul canale Donna di Blog.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

error: Content is protected !!