Skip to main content

L’ urgenza di un nuovo Umanesimo

Brevi note a: Massimo Chiriatti, Incoscienza artificiale, ed. Luiss University Press, Roma, 2021

di Manuela Bianchi


Usare l’Intelligenza Artificiale per identificare la risposta più probabile è un po’ come usare una macchina del tempo: grazie alla velocità di trasformazione efficiente di dati in informazioni, azzeriamo la distanza tra noi e la risposta alla domanda. (…) Sta a noi guidare e dirigere questa macchina del tempo, la cui velocità aumenterà ancora in futuro, lasciando all’umanità il compito sempre più importante di decidere in quale direzione muoversi.

Così si legge nella prefazione di Luciano Floridi all’interessante libro di Massimo Chiriatti, Incoscienza artificiale, edito da Luiss University Press negli ultimi mesi dello scorso anno. Chiriatti, come studioso e addetto ai lavori, da lungo tempo si occupa di Intelligenza Artificiale (IA) e, in particolare, del suo impatto e delle sue implicazioni nella continua e sempre più profonda interazione con l’uomo.

Il libro è una composita riflessione su chi e come debba prendere le decisioni, tra l’essere umano e la macchina, e sulla relazione che si instaura tra i due, “con la consapevolezza delle forze e debolezze reciproche”. Presupposto dell’intera riflessione che occupa questo lavoro è che bisogna avere sempre ben presente che le previsioni delle macchine producono out-put, a cui deve essere aggiunto il giudizio esclusivamente umano. Viviamo, ormai è risaputo, in una società algoritmica, pertanto dobbiamo conoscere molto bene il modus operandi delle macchine e quale aiuto possono fornirci nell’hic et nunc, avendo sempre presente che le macchine non sono intelligenti, ma incoscienti (da qui, il titolo dell’opera).

Proprio questo, secondo l’Autore, è il discrimine tra la macchina e l’uomo: l’esistenza della coscienza, da intendersi come la funzione della mente umana che percepisce i pensieri su noi stessi e su ciò che ci circonda, ovvero quel che sentiamo mentre stiamo pensando. Le macchine, sebbene sempre più sofisticate, veloci e precise, sono meri calcolatori di simboli, mentre l’uomo ha sì la capacità di calcolo e di elaborazione (ma non veloce tanto quanto quella dell’IA, in grado di elaborare immense quantità di dati nel minor tempo possibile), ma ha anche la coscienza, che si porta dietro un tempo lento, che ci dà la possibilità di farci domande, sollevare dubbi, chiederci che cosa sentiamo e valutare l’impatto che l’azione o la decisione che prenderemo avrà su chi e cosa ci circonda.

Chiriatti ricorda che negli ultimi venti anni la capacità di elaborazione dei dati da parte delle macchine ha fatto passi da gigante, facilitando sicuramente la vita dell’uomo fornendogli previsioni quasi immediate, ma non bisogna confondere la previsione con la decisione. Solo in non frequenti contesti ottimali, ovvero situazioni in cui sono note tutte le variabili, previsione e decisione possono corrispondere, nel senso che la previsione elaborata in base all’analisi dei dati coincide con la decisione che deve/può essere presa. Diversamente, ovvero in contesti che non hanno le predette caratteristiche, la previsione dell’IA non può e non deve essere la decisione finale, che necessita per forza del giudizio soggettivo dell’essere umano. Ne deriva che nella maggior parte dei casi la decisione è presa in base alla previsione fatta dall’IA, ma valutata con la consapevolezza e la coscienza umana che considera elementi e variabili che l’IA non è in grado di considerare  perché non ha alcuna comprensione e coscienza di ciò che sta facendo. (“Una previsione non è una decisione. Per prendere una decisione è necessario applicare il giudizio a una previsione e poi agire.”). Il computer non comprende il linguaggio umano, si limita ad analizzare formalmente le strutture sintattiche, quindi sa leggere e scrivere correttamente, ma non capisce il significato di quel che legge e scrive: è in grado solo di calcolare e non anche di pensare, posto che per calcolare basta una sintassi, ovvero l’esperienza di processi formali e simbolici, mentre per pensare è necessario un contenuto semantico, nel senso di essere in grado di riempire di significato le forme e i simboli. Questo evoca la differenza linguistica/semiologica definita da F. De Seassure tra significante e significato, dove significante è il segno usato per esprimere un concetto e il significato è ciò che tale segno esprime, il messaggio che si vuole trasmettere per mezzo di quel segno. Ebbene, l’IA si ferma al significante e non è in grado di concepire il significato e non comprendendo non può fare esperienze soggettive intenzionali. Non solo, essa sebbene in grado di produrre una risposta appropriata alla nostra domanda, non è in grado di porci a sua volta domande per chiarire ciò che è stato chiesto. Ad oggi, possiamo concretamente parlare, in quanto esistenti, di IA debole, che corrisponde alla percezione aumentata ed è al servizio dell’essere umano, e IA forte, che corrisponde alla cognizione aumentata ed è appena paragonabile all’essere umano. L’IA generale, che corrisponde a un essere umano aumentato, al momento è utopistica.

Tutto questo discorso è necessariamente collegato al ruolo giocato dai bias cognitivi nel processo di apprendimento dell’IA. A questo argomento l’Autore dedica molte pagine del libro, con richiami e collegamenti filosofici e scientifici, spiegando altresì la fondamentale differenza tra la correlazione, individuabile dalla macchina che si concentra sul legame tra i dati e sull’automazione delle decisione, e il rapporto causa-effetto, individuabile solo dall’uomo e irrinunciabile per prendere delle decisioni. La macchina potrà fare il salto logico, avvicinandosi all’uomo, solo nel momento in cui capirà la relazione causale e quel momento non è ancora arrivato.

In definitiva, la tesi di Chiriatti è che, come umanità, deleghiamo la nostra fiducia e le nostre decisioni a un’entità che non è in grado di comprendere le implicazioni delle sue azioni e, pertanto, non può esserne responsabile. D’altro canto, accettando questa delega in favore della macchina, noi ci stiamo deresponsabilizzando proprio quando invece dovremmo essere ancora più responsabili e attenti. E poi, pensare che delegare la decisione all’IA ci assolva da responsabilità è un grave errore, basato su principi etici, morali, filosofici e giuridici sbagliati. La scienza dell’informazione è una scienza umanistica, complessa e composita, che unisce scienza, informatica, diritto, filosofia: dobbiamo quindi pensare a un nuovo Umanesimo, che riporti al centro l’uomo come autore e responsabile delle proprie scelte, fatte sulla base di valori forti e profondi. Altrimenti ridurremo sempre di più lo spazio delle nostre scelte, mettendole in mano a una macchina che non (ri)conosce i nostri valori.


Autrice:

Manuela Bianchi

en_US