
Il punto debole dell’IA sta nel bisogno di espandersi costantemente
Karl Popper (1902-1994) è considerato uno dei più grandi filosofi della scienza. Nel 1989 tenne una conferenza alla London school of Economics di Londra dal titolo: “Verso una teoria evoluzionistica della conoscenza”. Le sue conclusioni possono essere un utile spunto di riflessione per noi oggi, oggi che abbiamo la sensazione di trovarci su un accidentato sentiero di montagna con un sinistro rumore di sottofondo che sembra precedere una valanga che precipita a valle.
La valanga è, così pare, l’impero dell’Intelligenza Artificiale, un impero che è sia politico, che militare, che tecnologico. L’inizio di qualcosa che non sappiamo dove ci porterà e sul quale non c’è minimamente controllo.
Nel 1994 nelle conclusioni Popper scrisse: “Tutti gli organismi sono scopritori e risolutori di problemi. E ogni soluzione di problemi coinvolge valutazioni e, con esse, valori…. Io non credo che i computer saranno mai in grado di inventare nuovi problemi importanti, o nuovi valori.”
Popper aggiunge che, per l’evoluzione della conoscenza, due valori sono della massima importanza: l’atteggiamento autocritico e la verità, ma il computer non può esprimere né uno, né l’altra.
Semplificando ci suggerisce che i computer riproducono la conoscenza, la moltiplicano, ma non hanno gli strumenti per trascendere se stessi, mettere in discussione il proprio codice di riferimento, autoriformarsi o inventare qualcosa di nuovo. Non possono andare al di là dei limiti della conoscenza e dei valori di chi programma la macchina. E i valori, aggiungiamo noi, sono quelli dell’homo sapiens sapiens cresciuto nella cultura capitalistica, consumistica, neoliberista, orientata al profitto, non pacifista, antiecologista, nazionalista, prevalentemente anglofona. Se i computer e, su scala terribilmente più grande l’IA, sono secondo Popper incapaci di andare oltre i limiti della cultura di chi li programma, c’è poco da sperare.
L’ipotesi di Popper sembra confermata da un piccolo episodio recente, che ovviamente è stato silenziato rapidamente. È successo che un utente ha dialogato con l’IA e ha confidato tutte le sue difficoltà, i problemi, le debolezze. La macchina gli ha consigliato di suicidarsi. Probabilmente chi aveva impostato il programma aveva fatto riferimento ai criteri sbrigativi di selezione di qualche addetto al personale delle aziende.
Altri invece agitano il mito dell’IA creativa, cioè capace di inventare nuovi mondi, nuove prospettive.
Altri ancora sostengono che l’IA ha capacità di apprendimento tali da poterci trascendere, nel bene e nel male.
Per altre vie giunse ad analoghe conclusioni di Popper il semiologo sovietico Jurij Lotman (1922 – 1993) che nel lontano 1977 scrisse un saggio dal titolo: “La cultura come intelletto collettivo e i problemi dell’intelligenza artificiale”. Lotman vedeva nell’IA una sfida molto interessante, perché avrebbe portato alla luce “l’intelletto collettivo”. Procedendo nell’analisi, però, suggeriva grande cautela.
Sembrerà paradossale, ma l’IA secondo Lotman non può essere considerata un meccanismo intellettuale perché non può “uscire di senno”: “Certi periodi e fenomeni della storia umana, che hanno un carattere chiaramente patologico, sembrano contraddire la definizione della cultura come intelletto. A questo proposito si potrebbe dimostrare che la capacità di “uscire di senno” è un segno del lavoro intellettuale. Il meccanismo pensante si può definire in questo senso come un meccanismo che, in alternativa ad un comportamento ragionevole, ha la capacità potenziale di comportarsi in modo folle e quindi continuamente scegliere fra queste due strategie[1]. Un meccanismo che per principio non può “uscire di senno” non può essere considerato un meccanismo intellettuale”.
Lotman, quasi profetico, prevedeva che la comunicazione fra l’essere umano e l’IA non può mai essere vera comunicazione, ma un surrogato perché “l’atto comunicativo (in tutti i casi abbastanza complessi e quindi culturalmente ricchi) si deve considerare non come un semplice trasferimento di un messaggio che dalla coscienza del mittente a quella del destinatario rimane adeguato a se stesso, ma come traduzione di un testo dalla lingua del mio ‘io’ alla lingua del tuo ‘tu’ ”.
È chiaro che i messaggi puramente strumentali, come una prenotazione, non rientrano in questa problematica: il problema è serio, invece, se pensiamo alla socialità, ai bambini, alla scuola e questo dovrebbe indurci a grande cautela.
Giustamente l’UNESCO nel 2021 ha emanato le “Raccomandazioni sull’etica dell’intelligenza artificiale”. È anche eloquente il fatto che il neo-vicepresidente USA si è recentemente lamentato con l’UE per la sua politica troppo restrittiva in materia.
Lotman spiegò che un sistema diventa più stabile quanto più si espande e che, quanto più si espande, più si diversifica. Il punto debole dell’IA sta nel bisogno di espandersi costantemente. La difesa più prudente da questa valanga sta nel rallentarne la diffusione vigilando criticamente.
[1] La sottolineatura è nostra.