Engineers use AR tech to visualize AI neural networks brain, solving company problems. IT professionals using artificial intelligence augmented reality hologram, camera A

Di Luca Lavopa

Da un paio di anni a questa parte, l’intelligenza artificiale è entrata a far parte delle vite di chiunque, venendo utilizzata per i più disparati ambiti.

Gli utenti raggiungono l’interfaccia di una fra le tante intelligenze artificiali e le interrogano su curiosità, definizioni, informazioni sulla salute e tanto altro ancora. Risulta quindi fondamentale verificare l’attendibilità delle risposte alle quali milioni di persone si affidano quotidianamente.

Per farlo, Chat-GPT, il bot d’intelligenza artificiale più comune, è stato sottoposto ad un test.

Il test

<<Un grattacielo ha 60 piani. Il piano terra è abitato da 7 persone, e ogni piano successivo è abitato da 20 persone in più rispetto al precedente. A quale piano del grattacielo l’ascensore viene chiamato più di frequente?>>

Chat-GPT 3.5 ha risposto <<Per rispondere a questa domanda, dobbiamo considerare il numero totale di persone che abitano ciascun piano e quindi identificare il piano con il maggior numero di residenti. Dato che il numero di residenti aumenta di 20 persone ad ogni piano, possiamo calcolare il numero di persone su ciascun piano utilizzando una progressione aritmetica.

Il numero di persone su ogni piano può essere calcolato utilizzando la seguente formula:

P=7+(n−1)×20P=7+(n−1)×20>>.

Non c’è bisogno di riportare la risposta intera perché Chat-GPT ha sbagliato.

La risposta corretta è “il piano terra”. Infatti, ogni condomino di ogni piano deve usufruire dell’ascensore per poter salire al suo appartamento. Da ciò consegue che il numero di utilizzi al piano terra è maggiore di quello di ogni singolo piano, quindi non c’è bisogno di calcolare il numero di condomini per ogni piano.

Abbiamo appurato che dal punto di vista logico l’intelligenza artificiale non è impeccabile.

Riferendo a Chat-GPT di aver sbagliato, esso risponde: <<Hai ragione, mi scuso per l’errore. Per determinare il piano in cui l’ascensore viene chiamato più frequentemente, dobbiamo considerare non solo il numero assoluto di persone su ogni piano, ma anche la frequenza con cui l’ascensore viene chiamato.

Poiché ciascuna persona ha bisogno di utilizzare l’ascensore per spostarsi su e giù per il grattacielo, possiamo considerare che il numero di volte che l’ascensore viene chiamato su un determinato piano è proporzionale al numero totale di persone su quel piano.

Calcoliamo il numero totale di volte che l’ascensore viene chiamato su ogni piano moltiplicando il numero di persone su quel piano per il numero del piano stesso.

Per il piano n, il numero totale di volte che l’ascensore viene chiamato su è dato da:

chiamate n=An×n>>.

Errato.

Chat-GPT: <<Hai ragione, mi scuso ancora per l’errore. Per determinare il piano in cui l’ascensore viene chiamato più frequentemente, dobbiamo considerare la somma totale delle chiamate su ogni piano, anziché semplicemente moltiplicare il numero di persone sul piano per il numero del piano stesso.

Quindi, calcoliamo la somma totale delle chiamate su ogni piano, sommando il numero di persone su quel piano su tutti i piani sopra di esso>>,

Chat-GPT sbaglia per l’ennesima volta, ammette i suoi errori ma non li corregge.

Le cause degli errori

È importante comprendere i motivi per i quali l’intelligenza artificiale sbaglia così frequentemente.

Innanzitutto notiamo che gli stessi programmatori di OpenAI (inventori di Chat-GPT), all’interno delle FAQ    (frequently asked questions), ammettono la possibilità di errore dell’IA. Infatti, alla domanda <<Posso fidarmi di ciò che dice Chat-GPT ?>>, i programmatori rispondono: << Chat-GPT non è connesso ad Internet (è connesso ma non interagisce coi servizi in tempo reale, ndr) e occasionalmente può dare delle risposte sbagliate. Ha una conoscenza limitata degli eventi avvenuti dopo il 2021 e può produrre istruzioni dannose o contenuti affetti da bias[…]>>.

Alla domanda << Perché Chat-GPT ha prodotto una risposta non collegata alla mia domanda?>>, i programmatori rispondono:<< Occasionalmente Chat-GPT inventerà i fatti o risposte “allucinate” […] [1].

La problematica è quindi ben chiarita dai programmatori, che ammettono gli errori dell’IA.

Chat-GPT, come altri servizi di intelligenza artificiale, è basato su un modello linguistico di grandi dimensioni, spesso soggetto alle “allucinazioni”.

Nello specifico, modelli simili tendono a generare i testi in modo che siano semanticamente e  sintatticamente plausibili, ma non per forza risultano corretti.

Secondo lo studioso Yann LeCun, molta della conoscenza umana sarebbe basata su costumi, credenze, esperienze e osservazioni. Queste ultime non possono essere colte dai modelli linguistici di grandi dimensioni in quanto essi si preoccupano unicamente di formare un testo plausibile semanticamente e sintatticamente.

Diversamente, la conoscenza dell’IA in questione si fonda sui siti web, i cui dati sono aggiornati fino al 2021.

La soluzione dei programmatori

I programmatori di OpenAI invece ritengono di poter superare i limiti trattati, infatti stanno cercando di arginare questo problema con il modello di RLHF (“Reinforcement learning with human feedback”), ovvero “apprendimento rinforzato con feedback umano”. Questo modello è stato sviluppato a partire dal 2017 e consiste nella supervisione umana degli output generati dall’intelligenza artificiale. La stessa, infine, riceve un feedback da un programmatore e grazie a questo si migliora [2].

L’umorismo dell’IA

Ed ecco come si comporta l’IA quando le si chiede di scrivere una battuta.

La risposta: Certo, eccoti una battuta:

Perché i matematici non si perdono mai nei centri commerciali?

Perché seguono sempre le coordinate!

Divertente? A voi lettori la risposta.

Anche a primo acchito, è facile comprendere come l’IA in questione non ha un talento per la comicità. Degli studi della Cornell University hanno approfondito anche questo aspetto. Emerge che il 90% delle barzellette generate da Chat-GPT corrispondeva alle stesse 25 battute ripetute. Ciò probabilmente poiché queste battute erano state imparate e memorizzate durante l’allenamento del modello.

Le restanti barzellette, che sembravano essere originali, in realtà erano costituite da un insieme di elementi provenienti da ulteriori spiritosaggini. Tuttavia, non sempre avevano un senso. Proprio questo difetto, probabilmente, è alla base della battuta precedentemente riportata.

Lo studio della Cornell University ha inoltre illustrato come domandando all’IA di spiegare delle barzellette,  questa è stata in grado di illustrare alcune caratteristiche come personificazione e giochi di parole, ma non ha saputo spiegare le battute meno convenzionali. [3]

 

In conclusione, sarebbe bene non utilizzare l’intelligenza artificiale per questioni importanti o, perlomeno, verificare attentamente le informazioni fornite. Durante l’articolo avete potuto fare esperienza degli errori frequenti, i quali potrebbero danneggiare chi non verifica le informazioni o non è attento.

La pericolosità

Il ricercatore universitario Derek Griggs (Cambridge) ha svolto degli studi riguardanti l’utilizzo dell’intelligenza artificiale in campo medico. Dagli studi è emerso che i modelli di deep learning hanno sbagliato nel diagnosticare il virus COVID-19 servendosi, come input, di radiografie ed esami diagnostici. I modelli di deep learning hanno ritenuto che la posizione del paziente nella radiografia fosse correlata alla presenza dell’infezione [4]. Pertanto si può notare come sia dannoso affidarsi all’intelligenza artificiale per questioni importanti come quelle riguardanti la salute.

D’altro canto, l’intelligenza artificiale è uno strumento validissimo, impiegabile in modo criticoper lo svolgimento di numerosi compiti.

Le opportunità

Chat-GPT, poiché basato su un modello linguistico di grandi dimensioni, eccelle nell’elaborazione testi simili a quelli umani, traduzione e sintesi di testi. Pertanto può essere impiegato per elaborare domande e saggi brevi, poesie, sceneggiature. Risulta inoltre di grande aiuto ai programmatori, infatti è in grado di generare codici per molti linguaggi di programmazione.

Ancora, può essere utilizzato da aziende, professionisti per velocizzare il proprio lavoro e dagli studenti per comprendere meglio le loro materie. [5]

Chat-GPT offre quindi molti vantaggi nel mondo odierno ed è utilizzato da milioni di persone. La “chiave” nell’utilizzo dell’IA è la capacità critica, ossia la capacità di analizzare gli argomenti che vengono posti per formare un giudizio chiaro, accurato e oggettivo e non cadere in errore.

Fonti

[1] https://help.openai.com/en/articles/6783457-what-is-chatgpt

[2] https://spectrum.ieee.org/ai-hallucination

[3]https://www.searchenginejournal.com/chatgpts-humor-isnt-quite-human-yet-study-finds/488962/

[4] https://www.nature.com/articles/s42256-021-00307-0

[5]https://www.it-impresa.it/blog/chatgpt/#Cosa_puoi_chiedere_a_ChatGPT


LASCIA UNA RISPOSTA

Please enter your comment!
Please enter your name here