L’ultima frontiera
Date 18-04-2024
Come affrontare la sfida globale dell’Intelligenza Artificiale? Ne parliamo con Paolo Benanti e Marco Landi, ospiti dell’Università del Dialogo Sermig.
Paolo Benanti è un francescano, teologo, presidente della Commissione AI per l’Informazione, nonché unico membro italiano del Comitato sull’AI delle Nazioni Unite.
Marco Landi è l’unico manager italiano ad essere stato ai vertici di Apple, come direttore generale dell’azienda a metà degli anni ’90. Ebbe un ruolo cruciale nel riportare Steve Jobs all’interno del gruppo.
Nulla sarà come prima.
E forse già lo è. L’Intelligenza Artificiale (AI) segna un punto di passaggio epocale: applicazioni infinite, opportunità, la possibilità di avere a che fare con sistemi in grado di risolvere problemi, efficientare il lavoro, offrire soluzioni rapide. Ma anche sfide etiche decisive: l’impatto sulle relazioni, gli interessi economici in ballo, la riduzione dei posti di lavoro tradizionali, la necessità di mettere sempre e comunque la persona al centro. Paolo Benanti e Marco Landi sono due numeri uno in materia. Il primo, frate e teologo, presidente della commissione italiana su AI e informazione e membro della commissione di saggi dell’Onu sull’intelligenza artificiale. Il secondo, manager di successo, già alla guida di Apple negli anni ’90 e artefice del ritorno di Steve Jobs nel gruppo. Le loro parole d’ordine sono “fiducia”, ma anche “regole”. «È come successo con l’invenzione dell’automobile, – spiega Benanti – sono state costruite autostrade, definite regole, introdotti i guardrail, i semafori, le rotonde. Questo non ha significato limitare lo sviluppo di una tecnologia. Dobbiamo fare altrettanto».
«Non dobbiamo avere paura dell’innovazione, – aggiunge Landi – l’intelligenza artificiale non è altro che una novità che permette di accedere a una grande mole di dati per elaborare risposte e definire problemi. L’AI è la continuazione della filosofia in altri termini. I nostri filosofi si ponevano grandi questioni sull’uomo e sull’universo. Oggi ci poniamo la domanda su come è fatto il nostro cervello. La sua conoscenza è fondamentale per determinare il funzionamento dell’AI. Ci sono opportunità, ma è importante determinare delle regole».
Partiamo dalle opportunità…
Benanti: Pensiamo alla medicina, un esempio interessante che unisce aspetti umanistici come la cura e scientifici come la diagnosi. Oggi viviamo in un paradosso: la medicina ha raggiunto frontiere e traguardi inimmaginabili, ma questo non vale per tutti. Nel mondo ci sono situazioni differenti. In Africa, per esempio, quando va bene abbiamo un medico ogni tremila persone, ma si tratta di medici generali. Avere visite specialistiche è quasi impossibile. Pensiamo a cosa potrebbe accadere se questi medici avessero uno smartphone con telecamera capaci di fare una diagnosi e suggerire cosa fare, come interpretare un caso. E pensiamo a cosa potrebbe accadere se questi medici fossero collegati a un grande centro medico centrale in grado di supportare e indirizzare. Da questo punto di vista, l’intelligenza artificiale può amplificare le capacità umane, globalizzare la conoscenza e aiutarci a distribuire risorse scarse. E questo è solo un settore…
Parlando di rischi, invece, viene subito in mente la perdita di molti posti di lavoro…
Landi: La questione è complessa. Parto da un esempio. Ho visitato le acciaierie Danieli di Udine poco tempo fa, dopo 20 anni. All’epoca rimasi colpito dalle condizioni di lavoro durissime, in un calore insopportabile. Oggi c’è una sala di controllo computerizzata in cui viene controllato l’intero processo produttivo. È vero, rispetto a 20 anni fa ci sono meno posti di lavoro, ma ci sono condizioni ambientali migliori e stipendi più alti. Uso questo esempio per dire che certamente ci sarà una riduzione dei posti di lavoro, ma possiamo dotarci di strumenti per affrontare questa situazione. Io credo servano tre direttrici: ridurre l’orario di lavoro, investire sulla formazione e su nuovi profili professionali, prevedere forme di assistenza sociale per chi non potrà rendersi disponibile ai nuovi profili. Entro il 2030 ci saranno trasformazioni enormi, dobbiamo prepararci ora.
B.: La storia della tecnologia ci dice che l’innovazione cambia la natura dei prodotti e contrae il numero degli operatori del mercato. L’industria sarà toccata dall’intelligenza artificiale, è inevitabile. In Italia dobbiamo chiederci come reagiremo visto che abbiamo un tessuto produttivo fatto di piccole e medie aziende. Al tempo stesso l’AI andrà a colpire i ceti lavorativi medio-alti e un domani potremmo avere meno colletti bianchi. Sono d’accordo che dobbiamo accompagnare questo processo con regole solide. Se non lo faremo, la transizione sarà un problema.
Che impatto ci sarà invece sulle relazioni sociali?
B.: Se lo chiedeva già Alan Turing. Negli anni’ 50, lui diceva che una macchina sarebbe stata intelligente quando avrebbe potuto essere scambiata per un essere umano. Ma può bastare? Dobbiamo tornare a Platone, al mito della caverna: non accontentarci delle ombre e scambiarle con la realtà. Non ci può bastare una macchina che mostri amore come un essere umano. Dobbiamo capire che cosa c’è dietro, l’origine delle ombre. Perché l’ombra non è reale, è appunto immagine della realtà. Un altro esempio. Eraclito nel frammento 63 denuncia la pretesa dei suoi contemporanei di scoprire la verità attraverso gli oracoli. Oggi non siamo tanti lontani da questa situazione: ci sarà qualcuno che vedrà nell’AI una sorta di funzione oracolare. Ci sarà qualcuno che si affiderà alle grandi aziende come un tempo ci si affidava agli dei. Non sarà Afrodite ma Tinder, non sarà Mercurio ma Amazon, non sarà Atena ma Google. Una volta sacrificavano un pollo. Oggi sacrifichiamo i nostri dati. Però potremo come Eraclito usare sempre la nostra ragione.
È un problema culturale, di risorse, di iniziativa?
L.: Non possiamo lasciare solo l’iniziativa alle Big Tech, ai giganti tecnologici che stanno investendo miliardi di dollari. L’Europa deve mettere in campo una propria proposta per l’intelligenza artificiale. Bisogna però fare informazione e formazione per vincere disinformazione e paura. Le università dovrebbero formare esperti di dati che poi però dovrebbero lavorare in imprese europee. Altrimenti faremmo il gioco delle Big Tech. Dico di più: l’educazione è fondamentale sin dalla più tenera età, dalle elementari. In Francia ho creato un luogo, una casa della tecnologia, per aiutare i giovani a conoscere le applicazioni concrete dell’intelligenza artificiale. C’è necessità di preparare i ragazzi, ma anche un sistema dove le nostre eccellenze possano portare il loro contributo.
L’AI di fatto elabora dati e conoscenza già disponibili. Vuol dire che l’apporto e l’originalità del pensiero umano serviranno ancora. Il rischio però non è che una tecnologia così potente limiti lo sviluppo e anche la nascita di nuove idee? Avremmo una intelligenza artificiale molto efficiente, ma poco originale?
Landi.: Questo è verissimo, ma c’è qualcosa di più. Prendiamo l’esempio di motori scacchistici che hanno vinto appunto agli scacchi. Le loro mosse sono il frutto di una mole impressionante di dati disponibili. Tuttavia, a un certo punto la macchina ha deciso di sacrificare la regina una mossa che molto probabilmente un giocatore umano non avrebbe fatto. Vuol dire che la macchina ha proposto una logica propria. Oppure, pensiamo a quanto avvenuto al MIT, con un super-antibiotico creato dall’intelligenza artificiale: anche in questo caso la macchina ha utilizzato un suo modo di procedere che l’uomo non avrebbe mai messo in campo. Questi esempi ci invitano a interrogarci sugli sviluppi dell’AI. La verità è che la tecnologia sta andando a una velocità esponenziale e l’industria non riesce a starci dietro. Noi non possiamo rimanere fermi e soprattutto dobbiamo essere noi attori principali dello sviluppo tecnologico. Serve un piano europeo.
Una delle sfide più grandi è anche il rimescolamento del confine tra ciò che è vero e falso. Pensiamo alle foto e ai video generate dall’AI. Come ci si difende?
B.: La grande sfida per una società democratica è l’informazione. Creare contenuti simili alla realtà non è una novità. La tecnologia ha sempre un doppio uso possibile: uno stesso utensile può essere usato come arma o come strumento di lavoro. La domanda è come rendere l’AI uno strumento utile alla democrazia e alla comunicazione. Un’idea è mettere una sorta di targa per identificare il prodotto di una macchina. È come quando usiamo sostanze pericolose secondo procedure standardizzate. Allo stesso modo dobbiamo fare con l’intelligenza artificiale. In questo caso, la difficoltà è definire le procedure e le norme. Credo che serva anche una nuova responsabilità dei gestori dei social.
In che senso?
B.: Negli anni ’90 con la nascita di Internet, sotto la spinta dell’amministrazione americana, è stato deciso che i gestori di Internet non siano responsabili dei contenuti pubblicati. Ora questa norma non funziona più. Ce ne siamo accorti in questi venti anni. All’inizio, sembrava che internet aprisse le porte alla libertà. Pensiamo al ruolo svolto da Twitter o dai social nelle primavere arabe. Ma dieci anni dopo quegli stessi strumenti hanno favorito con le fake news l’assalto a Capitol Hill. Questo mi fa dire che se vogliamo che la macchina vada dritta occorre mettere i guardrail per non sbandare e anche le grandi aziende social devono prendersi le loro responsabilità. Le principali aziende sono americane e sono senza regole. Hanno cominciato ad autoregolamentarsi certamente, però secondo criteri soggettivi e coerenti con gli interessi di mercato.
Ma chi può fare le regole e soprattutto farle rispettare?
B.: C’è sempre qualcuno che pensa che le regole uccideranno l’innovazione. Non è così. Tornando alla metafora dell’auto, il codice della strada non interrompe la mobilità, ma vuole ridurre gli incidenti. In Europa siamo avanti in tema di regole sull’utilizzo dei dati, però c’è bisogno di altro. Ci vuole una governance globale e questa è un’idea condivisa anche in ambito di Nazioni Unite. Il problema è capire quali possono essere le regole. Ci muoviamo in un contesto difficile che influisce sulle riflessioni e discussioni.
L’intelligenza artificiale può diventare strumento per costruire società più coese e fraterne?
B.: Dipende dall’uso umano che se ne fa. I primi computer sono serviti per la guerra: calcolavano la quantità di uranio necessaria per le bombe nucleari. Nell’interazione tra la macchina e l’uomo, il problema è sempre l’uomo. La storia della tecnologia recente mostra il tentativo di rendere sempre più immediato il contatto uomo-macchina. Perché non pensare che queste tecnologie possano aiutare gli uomini a conoscersi meglio e superare sempre di più barriere? A noi la scelta.
Qual è il modo migliore per affrontare il futuro e non averne paura?
B.: Il futuro non ci deve fare paura. Steve Jobs diceva sempre che ci vuole una visione, che dobbiamo avere chiaro che cosa vogliamo fare di noi e della nostra vita. Un’altra cosa che mi ha trasmesso è la curiosità. Un invito che faccio mio: siate curiosi!
L.: La rivoluzione industriale del secolo scorso ha creato nuovi posti di lavoro ma ha inculcato nel nostro modo di pensare anche l’idea che solo il lavoro conta e che questa è la ragione della nostra esistenza. Sembra che questa sia l’unica base della nostra vita, del nostro sostegno e del nostro modo di svilupparci. Penso che con l’intelligenza artificiale sia giunta l’occasione per ridefinire le nostre priorità, di rivedere il nostro modo di trascorrere il tempo con la famiglia, con gli amici, con la natura. Quando moriremo non rimpiangeremo di aver lavorato poco, ma di non aver dato l’amore ai nostri figli, agli amici, alla famiglia. L’amore è la nostra ragione di esistere.
Matteo Spicuglia
NPFOCUS
NP marzo 2024