Come orientarsi nella folta ‘foresta delle macchine autonome’

Di fronte al bisogno oggettivo di salvaguardare la salute pubblica, una strategia avanzata  è quella finalizzata a tracciare i non lineari percorsi del Covid-19 e da più parti si stanno mettendo in atto delle App per cellulare in grado di seguire i movimenti ed i contatti tra cittadini (Contact Tracing App); ma come tutti i prodotti tecnologici degli ultimi anni che investono sempre di più la vita umana, innesca una serie di nuovi interrogativi di natura etica sino a richiedere   una vera e propria  ‘etica delle macchine’, come ci suggerisce il recente lavoro di Guglielmo Tamburrini, Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale (Roma, Carocci 2020), impegnato da anni nell’ambito della filosofia della tecnologia nelle sue diverse e inedite articolazioni.

All’interno di tale settore di indagine ormai consolidatosi a livello mondiale, a partire dal primo decennio del XXI secolo ha preso piede anche la cosiddetta ‘tecnoetica’ dove si stanno sviluppando percorsi più specifici come la roboetica, l’etica dell’Intelligenza Artificiale (IA), l’etica delle macchine intelligenti e autonome; queste ultime su cui si sofferma principalmente Tamburrini e frutto dell’incrocio tra robotica e IA, hanno delle particolarità di carattere etico al loro interno che vengono analizzate partendo dalle  finalità e dalle conseguenze che ne derivano dal loro uso, fra l’altro oggetto di recenti dibattiti politici e giuridici a livello internazionale.

I vari capitoli prendono in esame le ‘regole morali’ e ‘le politiche etiche per veicoli autonomi e per le armi autonome’, per fornire ad istituzioni pubbliche e private degli strumenti indispensabili per orientarsi più responsabilmente in tale strategico campo per i diversi risvolti sociali ed economici; il problema di fondo è innanzi è di capire le logiche che portano tali tecnologie che si basano sull’apprendimento automatico ad assumere dei ruoli sostitutivi  rispetto alla decisioni umane. Per questo viene dedicato molto spazio da Tamburrini all’analisi dei concetti di ‘autonomia’ e di ‘decisione’ che i vari sistemi o quella che chiama ‘foresta delle macchine autonome’ mettono in atto a livello operativo, anche perché negli ultimi tempi stanno emergendo sistemi tecnologici  ‘ad autonomia crescente’, come ad esempio gli assistenti robotici per la chirurgia, sistemi per la sorveglianza degli utenti di sistemi informatici, di supporto per la diagnosi medica e per l’avanzamento della carriera.

Tutto questo, ‘nell’interfaccia uomo-macchina’, sta creando diverse difficoltà per gli operatori umani che Tamburrini analizza e ritenute fondamentali per il controllo di tali tecnologie: ‘quella di interpretare le informazioni che inducono la macchina a prendere una certa decisione o a compiere una determinata azione; e quella di ottenere  delle spiegazioni, così da formarsi un giudizio ponderato sulla bontà delle proposte e delle decisioni della macchina stessa’. Quindi se da un lato le loro  prestazioni si rivelano ‘eccellenti’, dall’altro non permettono una adeguata ‘leggibilità dei processi di informazione mediante i quali vengono ottenuti’, anche perché sono frutto di altri più sofisticati sistemi dove si applicano le cosiddette tecnologie dell’apprendimento profondo (deep learning), che si basano su reti neurali artificiali per elaborare informazioni  però in ‘forma subsimbolica’ senza cioè ricorrere ad enunciati linguistici di cui sono in possesso gli esseri umani. Ma viene anche analizzato  un altro nuovo settore di ricerca nato per far fronte a tali difficoltà e cioè quello relativo ‘all’intelligenza artificiale spiegabile’ (XAI, 2019),  che cerca di fornire appunto le spiegazioni delle loro azioni; in tal modo gli operatori umani sono più in grado di valutare le scelte automatiche grazie al livello di possibilità interpretative, senza le quali non si può verificare l’attendibilità di un sistema di IA che apprende.

Per tutte queste motivazioni, Tamburrini ci offre una dettagliata analisi e quasi uno scavo profondo nella ‘foresta delle macchine autonome’,  ormai un vero e proprio reale storico-sociale con le sue specifiche rugosità,  dove i problemi e i ‘dilemmi etici’ che le investono sono loro ‘soggiacenti’ e non derivano da presupposti esterni al loro sviluppo, ma nascono negli stessi processi messi in atto col dare maggiore responsabilità al soggetto umano che conserva la sua indispensabilità nello stabilire le varie forme di controllo, problema etico, sociale e politico; vengono pertanto analizzati gli ‘scopi e strumenti, le aspettative e i problemi di fondo’ delle macchine ad autonomia sempre più crescente con le varie proposte  messe in campo come quelle sul controllo delle armi automatiche, su come ‘sorvegliare, educare  e punire al tempo dell’intelligenza artificiale’, su come ‘sorvegliare al tempo dei droni’, sull’attività del ‘chirurgo e il suo robot ad autonomia crescente’ e sui ‘diritti del lavoratori’.

La folta ‘foresta delle macchine autonome’, di fronte all’enorme ‘repertorio’ di compiti che esse sono in grado di assolvere senza più l’intervento umano, richiede espressamente una adeguata riflessione etica, ‘un’etica applicata’ per poter arrivare a concepire delle ‘politiche etiche uniformi’ e nello stesso tempo ‘politiche etiche differenziate e prudenziali’; per questo Tamburrini arriva ad articolarla in ‘due fasi principali: analisi dei problemi morali emergenti sull’autonomia di sistemi che si trovano alla confluenza di robotica e IA; sviluppo di politiche etiche conseguenti’.  Questi due momenti sono ritenuti complementari e intrecciati fra di loro per poter arrivare ad avere delle indicazioni ‘sui modi di indirizzare l’agire individuale e collettivo’ e per poter prendere delle decisioni adeguate a livello pubblico, problematiche che si scontrano con vari ‘ostacoli’ relativi al ‘pluralismo dell’etica normativa’ e alla stessa ‘organizzazione sociale della ricerca scientifica e tecnologica’.

Ritornano così attuali le osservazioni di Aristotele, presenti nell’Etica Nicomachea, dove si fa riferimento a Protagora  che diceva, sulla scia di Eschilo,  che la civiltà tecnica  è ‘dono di Prometeo’, per il fatto che aveva permesso l’irruzione dell’umanità nella storia,  ma essa da sola  non basta in quanto può portare alla rovina se Zeus non avesse conferito agli uomini anche il senso del giusto e della legge; per questo una etica delle macchine deve diventare sempre più un problema della intera comunità umana che deve coinvolgere i diversi operatori in campo e non a caso da più parti si parla della necessità di un ‘nuovo umanesimo tecnologico’, progetto teorico-esistenziale a cui siamo invitati a dare un contributo sia individualmente, prendendo coscienza della complessità crescente delle macchine, e sia collettivamente per indirizzarle in più ‘giuste’ direzioni con ‘politiche etiche’ più condivise.

TRA LA RUGOSITÀ DEL REALE

LEGGI GLI ALTRI ARTICOLI


Fontehttps://it.m.wikipedia.org/wiki/File:Nao_robot,_Jaume_University.jpg
Articolo precedenteIn ricordo di una pagella, tanto per sorridere
Articolo successivoLa tempesta di un virus invisibile
Mario Castellana, già docente di Filosofia della scienza presso l’Università del Salento e di Introduzione generale alla filosofia presso la Facoltà Teologica Pugliese di Bari, è da anni impegnato nel valorizzare la dimensione culturale del pensiero scientifico attraverso l’analisi di alcune figure della filosofia della scienza francese ed italiana del ‘900. Oltre ad essere autore di diverse monografie e di diversi saggi su tali figure, ha allargato i suoi interessi ai rapporti fra scienza e fede, scienza ed etica, scienza e democrazia, al ruolo di alcune figure femminili nel pensiero contemporaneo come Simone Weil e Hélène Metzger. Collaboratore della storica rivista francese "Revue de synthèse", è attualmente direttore scientifico di "Idee", rivista di filosofia e scienze dell’uomo nonché direttore della Collana Internazionale "Pensée des sciences", Pensa Multimedia, Lecce; come nello spirito di "Odysseo" è un umile navigatore nelle acque sempre più insicure della conoscenza.