Sfide, opportunità e insidie dell'IA: verso il Digital Twin, Alfio Quarteroni

Appunti ricavati dalla Lettura Corsiniana del socio Alfio Quarteroni
domenica 6 ottobre, ore 12 Sala delle Scienze Fisiche, Accademia dei Lincei, via della Lungara 10, Roma

Sfide, opportunità e insidie dell'IA: verso il Digital Twin

Cos'è l'Intelligenza Artificiale?

L'intelligenza artificiale (IA) è uno dei campi più discussi e in rapida evoluzione della tecnologia moderna. Da decenni, studiosi e ingegneri tentano di definire l'IA, con varie prospettive che riflettono la sua complessità. Vediamo alcune delle definizioni storiche e più recenti.
John McCarthy, che nel 1955 fu il primo a coniare il termine "intelligenza artificiale", la definisce come "la scienza e l'ingegneria che creano macchine intelligenti".
Larry Tesler, nel 1970, affermava provocatoriamente che "l'IA è qualsiasi cosa che non è ancora stata fatta",
mentre Marvin Minsky, nel 1985, la descrive come "la scienza di far fare alle macchine cose che richiederebbero intelligenza se fatte dagli uomini".
Altre definizioni includono quella dell'Oxford English Dictionary, che parla di "capacità dei computer o di altre macchine di esibire o simulare comportamenti intelligenti", e quella della Commissione Europea, che la descrive come un sistema in grado di analizzare il proprio ambiente e prendere decisioni autonome per raggiungere obiettivi specifici.

Schema delle profondità dell'IA


Le origini dell'Intelligenza Artificiale

Anche se McCarthy è il padre del termine, il vero pioniere della riflessione su una "macchina intelligente" è stato Alan Turing nel 1950. Turing propose il famoso Test di Turing, un esperimento che mira a verificare se una macchina può imitare il comportamento umano a tal punto da ingannare un interlocutore. L'esperimento funziona così: un interrogatore pone domande a due soggetti, uno dei quali è una macchina, senza sapere chi sia chi. Se l'interrogatore non riesce a distinguere le risposte della macchina da quelle dell'essere umano, allora la macchina può essere considerata "intelligente". Questo test ha gettato le basi per molte discussioni sull'IA.

I Tre Pilastri dell'IA: Dati, Algoritmi e Computer

Ma di cosa parliamo concretamente quando ci riferiamo all'IA? Ci sono tre elementi fondamentali che alimentano lo sviluppo dell'IA moderna: dati, algoritmi e computer.
  1. Dati: Sono il "carburante" dell'IA. Si stima che entro il 2025 si genereranno fino a 175 zetabyte di dati, una quantità immensa che equivale a circa 36 milioni di anni di video in HD. Questi dati sono fondamentali per addestrare i sistemi di IA.
  2. Algoritmi: Gli algoritmi sono le istruzioni che permettono ai computer di elaborare dati e prendere decisioni. Gli ultimi sviluppi, come le reti neurali convoluzionali e i modelli transformer (utilizzati, ad esempio, da ChatGPT), hanno rivoluzionato l'IA, rendendola più avanzata e capace di gestire compiti complessi.
  3. Computer: L'IA richiede una potenza di calcolo enorme, fornita dai cosiddetti supercomputer, come Frontier, che sono in grado di elaborare quantità enormi di dati in tempi rapidi.

Il Machine Learning: L'Apprendimento Automatico

Un aspetto distintivo dell'IA moderna è il Machine Learning (ML), o apprendimento automatico. L'OCSE (OECD) definisce il ML come la "capacità di apprendere autonomamente, cioè senza l'intervento diretto degli esseri umani, migliorando le proprie prestazioni con l'esperienza."
Secondo M.I. Jordan e T.M. Mitchell, "l'apprendimento è il processo di trasformare l'informazione in conoscenza". Mitchell, già nel 1997, spiegava che "un programma informatico impara dall'esperienza E con riferimento a un compito T e a una misura di prestazione P se la sua prestazione su T, misurata con P, migliora con l'esperienza E".

Un esempio pratico di ML può essere il riconoscimento delle immagini: un programma è addestrato a distinguere un cane da un non-cane analizzando un grande insieme di immagini etichettate come "cane" o "non cane". Il modello viene ottimizzato attraverso una serie di algoritmi fino a migliorare la sua precisione di riconoscimento:
data un'immagine xx, scrivi un programma che restituisca y=1 se è un cane, altrimenti y=1.
Con una soluzione di programmazione tradizionale: scrivi un programma che implementa delle regole decisionali stabilite dal programmatore.
La soluzione del Machine Learning:
  1. Raccogliere un set di dati di addestramento (xi,yi) peri=1,,ni=1, \dots, n (esperienza E);
  2. Selezionare un insieme di modelli candidati y=f(x;μ)y = f(x; \mu) (Modello M);
  3. Addestrare il modello (μM)min½ ∑d(yi,f(xi;μ))²+regularization (Misura delle prestazioni P)

I Modelli di IA e il Digital Twin

Nel panorama dell'IA, le reti neurali giocano un ruolo chiave. Funzionano in modo simile al cervello umano, attraverso nodi chiamati "neuroni" che trasmettono informazioni. Un esempio è il MLP (Multilayer Perceptron), che è uno dei modelli di rete neurale più avanzati. Tuttavia, nonostante il grande potenziale dell'IA, ci sono delle limitazioni legate a tempo, costi e impatto ambientale.
Un campo emergente che sfrutta l'IA è il concetto di Digital Twin. Questo concetto, introdotto da John Vickers della NASA nel 2010, descrive un modello virtuale di un sistema fisico che può aggiornarsi in tempo reale grazie ai dati che riceve dal sistema fisico stesso. Il Digital Twin è utilizzato per monitorare e migliorare le prestazioni, prevedere guasti e ottimizzare l'operatività di macchine o processi, rappresentando un'evoluzione significativa nella gestione tecnologica.

Le Tre Tipologie di Intelligenza Artificiale

Quando si parla di IA, è importante distinguere tre categorie principali:

  1. IA Debole: Questa è l'IA che utilizziamo attualmente. È progettata per eseguire compiti specifici, come riconoscere immagini o elaborare linguaggi naturali, ma non ha consapevolezza o capacità di ragionamento generale.

  2. IA Forte: È un concetto teorico di una IA in grado di eseguire qualsiasi compito intellettuale che un essere umano può fare, ma al momento non esiste.

  3. Superintelligenza Artificiale: Questa è ancora più avanzata della IA forte, ipotizzando un'intelligenza che superi di gran lunga quella umana in tutti i campi. È un concetto ancora molto lontano dalla realtà.

Possiamo affermare senza tema di smentita che oggi siamo ben lontani dall'avere un'intelligenza artificiale di livello umano.
I modelli LLM (Large Language Models) sono addestrati su 2 x 10^13 byte (o parole). Ci vorrebbero 170.000 anni per un essere umano per leggere tutte queste informazioni (al ritmo di 8 ore al giorno, 250 parole al minuto). Eppure, un bambino che abbia guardato 300 ore di filmati su Youtube (2 milioni di fibre ottiche nervose, trasportanti circa 10 byte al secondo ciascuna) ha visto 10^15 byte, 50 volte più dati rispetto a un LLM e riesce a comprendere quello che ha visto!
Continuiamo a imbatterci nel cosiddetto paradosso di Moravec: contrariamente alle ipotesi tradizionali, il ragionamento di alto livello richiede pochissimo calcolo, ma le capacità sensomotorie di basso livello richiedono enormi risorse computazionali. Il principio è stato delineato negli anni Ottanta da Hans Moravec, Rodney Brooks, Marvin Minsky e altri. Moravec osserva che "è relativamente semplice far sì che i computer raggiungano prestazioni di livello adulto nei test di intelligenza o nel gioco della dama, ma molto difficile o addirittura impossibile dotarli delle capacità di un bambino di un anno in termini di percezione e mobilità".
Analogamente, Minsky ha evidenziato che le capacità umane più complesse da codificare sono quelle inconsce. "In generale, siamo meno consapevoli di ciò che le nostre menti fanno meglio", ha scritto, aggiungendo: "Siamo più consapevoli dei processi semplici che non funzionano correttamente rispetto a quelli complessi che funzionano perfettamente. Ovvero, semplificando:

Le cose facili per gli esseri umani sono difficili per l'Al e viceversa."

Etica, Rischi e Futuro dell'IA

L'uso dell'IA solleva anche numerose questioni etiche, legate alla privacy, all'impatto economico, all'inquinamento e alla democratizzazione della tecnologia. È cruciale valutare l'uso dell'IA nel contesto appropriato per evitare minacce o problemi non ancora del tutto compresi. L'IA rappresenta un potentissimo strumento, specialmente per la ricerca scientifica, ma richiede una regolamentazione e una governance accurata per gestirne i rischi.

ChatGPT: Un Caso di Studio

Un esempio attuale di IA è ChatGPT, un modello linguistico avanzato che può generare testi, rispondere a domande e anche creare contenuti in modo creativo. Tuttavia, ChatGPT può commettere errori, detti "allucinazioni", poiché è progettato per generare contenuti piuttosto che apprendere la verità dei fatti storici. Questo lo rende un ottimo strumento creativo, ma meno affidabile per lo studio della storia o la consultazione di dati reali.


M. I. Jordan and T. M. Mitchell, Machine Learning: trends, perspectives, and prospects, in: Science 349.6245, luglio 2015, pp. 255-260
Hans P. Moravec, Mind children: the future of robot and human intelligence, Cambridge, Harvard University Press, 1988
Marvin Minsky, The society of mind, New York, Simon & Schuster, 1986

Commenti

  1. Grazie un utilissimo compendio! Immagino anche che stare all'Accademia dei Lincei accanto agli esperti in materia sia stato molto utile. Mi domando quale sia la fonte del grafico o so lo ha fatto lei. Lo scriva in ogni caso. Grazie dell'utile post

    RispondiElimina

Posta un commento

Post popolari in questo blog

L0 Prolusione: L'Information Technology come Crisi e come Sfida

L1: Una definizione di Informazione, il mistero dello O