allucinazione intelligenza artificiale allucinazione intelligenza artificiale

Intelligenza Artificiale: cosa sono le allucinazioni

Cosa sono le allucinazioni dell’intelligenza artificiale: perché si verificano, alcuni esempi e come vengono gestite nei modelli di AI.

Le allucinazioni dell’Intelligenza Artificiale sono riferite a quelle situazioni in cui i modelli di AI, come i sistemi di apprendimento automatico e i modelli di deep learning, generano risposte, output o interpretazioni errate o non corrispondenti alla realtà. Questo fenomeno può verificarsi in vari contesti, da sistemi di visione artificiale a generatori di testo come i modelli di linguaggio.

Perché si verificano le allucinazioni

Le allucinazioni AI possono essere causate da diversi fattori:

  1. Dati di addestramento scorretti o incompleti: Se un modello è addestrato su dati che non sono rappresentativi o che contengono errori, può imparare pattern errati e quindi generare output sbagliati.
  2. Overfitting: Quando un modello è troppo complesso rispetto alla quantità e alla varietà dei dati di addestramento, potrebbe “imparare a memoria” i dati piuttosto che generalizzare da essi, portando a risposte inesatte quando incontra nuove situazioni.
  3. Ambiguità nel task o nei dati: Alcuni compiti possono essere intrinsecamente ambigui o i dati possono contenere contraddizioni che confondono il modello.
  4. Bias nei dati: Se i dati di addestramento sono distorti o prevenuti, il modello potrebbe sviluppare bias che si riflettono negli output, che possono sembrare non sensati o inappropriate.

Esempi di allucinazioni

  • In un sistema di visione artificiale, l’AI potrebbe “vedere” un oggetto in un’immagine che non esiste effettivamente.
  • Nei modelli di linguaggio, l’AI potrebbe generare testi che includono fatti falsi, interpretazioni errate o connessioni inesistenti tra concetti.
  • Esempi pratici e noti: errori biografici (Hillary Clinton sarebbe la prima presidente donna degli USA), scientifici (che hanno causato il precoce spegnimento di Galactica, il chatbot scientifico di Meta), politici e di altro tipo.

Secondo una ricerca condotta da Vectara a fine del 2023 queste solo le percentuali di allucinazioni dei modelli principali di AI:

  • GPT-4 che alimenta un modello avanzato di ChatGPT, soffre di allucinazioni nel 3% dei casi;
  • GPT3.5 arriva al 3,5% di allucinazioni;
  • Llama 2 supera il 5%;
  • Cohere arriva all’8,5%;
  • Claude 2 di Anthropic arriva all’8,5%;

Ovvio che si tratta di vecchie versioni, Claude ad esempio ha fatto un grosso passo in avanti con l’ultima versione. Questo per dire che dobbiamo fare attenzione alle risposte e verificare per bene prima di prendere un risposta AI per “oro colato”.

Gestione delle allucinazioni

Gli sviluppatori e i ricercatori adottano diverse strategie per mitigare il problema delle allucinazioni AI, come l’uso di set di dati più ampi e vari, l’applicazione di tecniche di regolarizzazione per prevenire l’overfitting, e la conduzione di test approfonditi per identificare e correggere gli errori prima che i modelli vengano messi in produzione. Inoltre, l’interpretazione e la spiegazione dei modelli AI possono aiutare a comprendere meglio quando e perché si verificano queste allucinazioni, permettendo di intervenire in modo più mirato.

Cosa ne “pensano” ChatGPT, Claude e Copilot?

Per avere un quadro completo abbiamo chiesto a ChatGPT e Claude “hai ancora le allucinazioni?”

ChatGPT

“Come modello linguistico, non “vedo” né “sento” come un essere umano, quindi non posso realmente provare allucinazioni in senso clinico o sensoriale. Tuttavia, in ambito di intelligenza artificiale, si usa spesso il termine “allucinazione” per descrivere quando un modello genera informazioni inesatte o inventate. Questo può accadere quando cerco di fornire una risposta anche in mancanza di dati concreti: in tali casi potrei “immaginare” dettagli inesistenti pur di completare il discorso. Non si tratta di vere e proprie allucinazioni umane, ma piuttosto di errori di generazione del testo. Con la continua evoluzione dei modelli linguistici, cerco di ridurre questi errori e fornire risposte sempre più affidabili. Se noti qualcosa di poco chiaro o sbagliato in una mia risposta, puoi sempre chiedere chiarimenti o segnalarmelo, così da aiutarmi a migliorare.”

Claude

“Sì, come tutti i modelli di intelligenza artificiale, posso avere delle allucinazioni – ovvero generare informazioni non accurate o inventate, specialmente quando si tratta di dati molto specifici o oscuri. Per questo cerco sempre di essere trasparente quando non sono sicuro di qualcosa e di segnalare quando le informazioni che fornisco potrebbero non essere completamente affidabili. Ti suggerisco di verificare sempre le informazioni importanti che ti fornisco, specialmente se si tratta di dati molto specifici o poco comuni.”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *