In un mondo che, dalla pandemia di Covid in poi, è sempre più agitato, il World Economic Forum 2024, svoltosi a Davos lo scorso gennaio, ha trattato molteplici temi interessanti. Non c’è dubbio, però, che quello dell’intelligenza artificiale (AI), con l’intervento di Sam Altman (CEO di OpenAI, l’azienda che ha realizzato ChatGPT), abbia catalizzato più degli altri la curiosità del grande pubblico. 

L’AI è, infatti,  passata in modo velocissimo da argomento preferito di libri, film e telefilm di fantascienza, ai dipartimenti delle più prestigiose università e ai laboratori delle aziende hi-tech per poi, infine, approdare nelle agende delle agenzie politiche di tutto il mondo. Segno sia dell’incredibile sviluppo delle tecnologie informatiche nel campo, sia di un aumento delle preoccupazioni sul suo utilizzo e sui cambiamenti che una sua implementazione su larga scala avrà nel prossimo futuro. 

Siamo, in effetti, sull’orlo di un cambiamento straordinario che al contempo stupisce e spaventa. Sebbene il confronto possa a prima vista sembrare azzardato, il cambiamento in atto è paragonabile a quanto accaduto all’umanità quando, inventando la scrittura, è passata dal poter disporre di pochissime informazioni certe (con un limite temporale di poche generazioni, prima che il resto si perdesse nel mito), alla raccolta, conservazione condivisione ed elaborazione di informazioni su una distanza spaziale e temporale precedentemente inimmaginabile. Non deve stupire perciò se, per comprendere possibilità e rischi dell’AI, si decide qui di partire da una suggestione offerta da Platone sul tema della scrittura. 

Nel Fedro, Platone racconta un mito secondo cui, in tempi remoti, il dio egiziano Theuth avrebbe fatto per primo dono al faraone Thamus della scrittura, sostenendo che grazie ad essa l’uomo avrebbe potenziato le sue doti, aumentando la memoria e la conoscenza. Il faraone – che parrebbe presentare con le sue parole il punto di vista proprio di Platone e del suo maestro Socrate – ringrazia il dio ma teme il dono, che non avrebbe a suo parere offerto sapienza, bensì solo l’apparenza della sapienza, portando alla diminuzione delle doti mnemoniche degli uomini, che ora non avrebbero più avuto bisogno di tenere a mente gli insegnamenti dei loro maestri, potendoli mettere per iscritto. 

Pensare al ruolo che la scrittura ha avuto nelle società antiche ci permette di mettere a fuoco alcune questioni che entrano in gioco quando parliamo oggi di AI. La prima rappresenta il tema centrale del mito narrato da Platone: se posso appuntare qualcosa non ho più bisogno di ricordarla. Non avrò più bisogno di sviluppare tecniche atte a memorizzare in maniera efficace le informazioni, che possono sempre essere recuperate dal foglio in un secondo momento. È la preoccupante questione  di ciò che oggi, con parola inglese, viene chiamato deskilling. Un’altra questione appare sullo sfondo del mito narrato: il suo contesto sacrale/aristocratico. La scrittura, dono di un dio ad un faraone, possesso esclusivo di una classe sacerdotale e/o degli aristocratici che si possono permettere di apprenderla, ha un grande effetto non solo sulle capacità di ricordare, ma anche nel controllo di quella maggioranza che continua a non accedervi e a non comprenderla. 

Evidenziati questi due problemi capitali, non si può comunque tacere l’ironia di una critica della scrittura (e dei problemi da essa creati) che è potuta giungere fino a noi proprio perché il filosofo ateniese ha deciso di utilizzare questo ‘dono avvelenato’ e di mettere per iscritto il mito di Theuth. Questa è un’ambiguità con cui si deve necessariamente fare i conti, anche parlando di AI. Una ambiguità che si estende anche alla tendenziale equivalenza tra naturale come “buono” e artificiale come “artificioso” (quindi sbagliato, cattivo). 

Non dimentichiamolo: l’uomo è naturalmente un produttore di tecnologia. Non esiste storia umana che non sia al contempo storia dell’uomo e delle tecnologie da lui inventate ed usate. La presenza di miti quali quelli di Prometeo nel mondo greco (che paga con una terribile pena la consegna all’uomo del fuoco) o della torre di Babele nella tradizione giudeo-cristiana (dove il tentativo di costruire una torre che arrivasse al cielo porta alla dispersione dell’umanità sulla terra) descrivono un timore ancestrale verso le conseguenze che una nuova tecnologia può avere sugli uomini e le loro società. L’AI tocca un elemento fondamentale dell’autorappresentazione che l’umanità ha di sé: noi siamo gli unici esseri intelligenti, capaci di pensiero astratto. Già questo giustifica di per sé l’attenzione che le è rivolta e le pubblicazioni e gli interventi connessi all’etica dell’AI germogliati negli ultimi anni. 

Il prof. Luciano Floridi, in un testo ben documentato, riporta come negli ultimi anni think tank di varia affiliazione (istituzioni europee, università, governi nazionali, ricercatori) hanno stilato cataloghi di comportamento, che nella loro molteplicità potrebbero confondere i non addetti. Allo scopo di mettere ordine, Floridi ha letto sinotticamente questi documenti individuando i principi comuni che li ispirano, e che non sono alla fine molto diversi da quelli presentati, al sorgere del problema bioetico, da Beauchamp e Childress nel loro celebre volume Principi di etica biomedica. Questi principi sono: la beneficenza, la non maleficenza, l’autonomia, la giustizia. Ad essi, per la particolarità dell’oggetto in questione, Floridi aggiunge l’esplicabilità.  

Si tratta di principi ispiranti norme connesse alla governance e al design delle AI, a cui guardano da una prospettiva istituzionale: richiedono cioè che della loro vigilanza ed implementazione si occupino governi ed enti internazionali con la forza e l’autorità di farli rispettare, o quantomeno attuati per via di autoregolamentazione dalle aziende del settore. Ci sarebbe dunque da chiedersi cosa possiamo fare noi cittadini comuni, che si trovano sempre più immersi nell’uso diretto o indiretto dell’intelligenza artificiale, per non lasciarci sommergere da questa nuova era tecnologica. 

La riflessione sulla scrittura da cui siamo partiti ci può in questo essere di aiuto, proprio grazie al confronto tra una “tecnologia” ormai ben nota e la novità rappresentata dall’AI. Ciò che resta nelle nostre possibilità è, infatti, evitare che l’AI riduca (invece di migliorare) le nostre capacità; impedire che ne siamo dominati per ignoranza del suo funzionamento. 

Chi lavora nella scuola oggi ha ben presente il problema, e anche quanto sia difficile farci i conti o rendere consapevoli gli studenti stessi del rischio di deskilling a cui vanno incontro. Sebbene nella vita comune tutti noi facciamo uso di calcolatrici, traduttori automatici, audiolibri e gps per orientarci in luoghi che non conosciamo, questi strumenti restano un potenziamento delle nostre capacità solo fino a quando non perdiamo l’abilità di fare di conto, cogliere ad occhio il significato di un testo in una lingua appresa, sappiamo interpretare una cartina e gustarci un libro muovendo i nostri occhi tra le parole e il loro significato. 

La scolarizzazione di massa, obiettivo di molti stati del mondo da un secolo e mezzo in qua, mira proprio a questo: a far sì che abilità considerate fondamentali per capire il mondo e agire consapevolmente nelle nostre società non restino appannaggio di pochi privilegiati. L’invasività dei nuovi strumenti tecnologici pone oggi all’insegnamento problemi inattesi; sono in molti a riflettere sui cambiamenti didattici necessari per mantenere efficace l’apprendimento di queste competenze fondamentali, mentre sociologi e ricerche ci parlano dell’analfabetismo di ritorno, di doti matematiche in regressione, di difficoltà nella comprensione di testi complessi. 

Se pensiamo a quanto sia recente l’intelligenza artificiale, al fatto che neanche sia oggetto di studio nelle scuole e che i software AI sono presenti in molti oggetti di uso quotidiano, ci diventa chiaro quanto sia fondamentale per ciascuno di noi essere proattivi nell’’acquisire quantomeno i rudimenti del funzionamento dell’AI e, se non vogliamo renderla una conoscenza di pochi guru ai quali sottostare, capire cosa si intenda per programmazione e quali siano i principali problemi etici dell’AI. 

Farlo non è difficile come potrebbe sembrare: volumi, corsi e piattaforme che ci insegnano a programmare senza conoscere linguaggi di codifica (attraverso un modello detto di no coding e low coding) sono già disponibili; e disponibili sono vari testi pensati per non specialisti che raccontano la storia di questa tecnologia, i suoi grandi fallimenti e i suoi successi, che ci spiegano cosa sia una rete neurale profonda, l’addestramento necessario a rendere un programma AI capace di svolgere il suo compito e chiariscono i nodi etici e tecnologici connessi all’AI. 

Nonostante le sue enormi potenzialità, non bisogna dimenticare che l’AI resta una tecnologia tra altre, l’ultima delle tante partorite dall’uomo durante la sua plurimillenaria storia. Farla divenire un potere accessibile e comprensibile a pochi (delegandole ogni nostra attività) o renderla uno strumento che migliori la nostra esistenza e le nostre società (comprendendone il funzionamento e facendone un uso consapevole) è una decisione che, in fondo, resta completamente nelle nostre mani. 

Emanuele Murra

Per approfondire: 

Tremola, “Low Code o No Code? La programmazione per tutti conquista aziende e metaversi”, Il Sole 24 ore, 29 maggio 2022. 

Mitchell, L’intelligenza artificiale. Una guida per esseri umani pensanti, Einaudi, 2022

Floridi, Etica dell’intelligenza artificiale, Raffaello Cortina, 2022

Floridi, F. Cabitza, Intelligenza artificiale. L’uso delle nuove macchine, Bompiani, 2021

Post recenti

Condividi!