Intelligenza umana, intelligenza artificiale

Come il machine learning sta cambiando il mondo

[Luisa Simone per scienceground.it]

Gli algoritmi di intelligenza artificiale (IA) ormai occupano tutte le ore della nostra giornata. Non solo hanno un ruolo rilevante nella scelta del nostro prossimo acquisto, del film che guarderemo questa sera o di tantissimi altri aspetti della nostra vita quotidiana, ma stanno soprattutto acquisendo una posizione sempre più influente in campi come la medicina, la finanza, l’istruzione.

Quando nel 1956 venne coniata l’espressione “intelligenza artificiale” durante una conferenza al Dartmouth College, John McCarthy, che l’aveva organizzata, disse che il gruppo di scienziati che aveva convocato sarebbe riuscito a emulare ogni aspetto dell’intelligenza umana in soli due mesi. Sessant’anni dopo, questo non è ancora successo: le macchine sono in grado di superarci in molte sfide, ma sempre una sfida alla volta. Un’intelligenza universale, così come lo è quella umana, in grado potenzialmente di risolvere ogni tipo di problema, ancora non esiste e non siamo neppure in grado di prevedere se esisterà mai. Gli algoritmi sono specifici, vengono addestrati esattamente per il compito che devono svolgere. Essi hanno potenzialità, rischi, vantaggi e svantaggi, ed è anche su questi e il loro funzionamento che la piccola comunità ExTemporanea di studiosi, ricercatori, dottorandi e appassionati si è interrogata a Scienceground.

Come? Attraverso una contaminazione, quattro lavagne e un laboratorio estemporaneo, nato proprio durante i giorni del Festival. È questo evento improvviso e particolare che racchiude l’essenza del progetto di Scienceground: mentre si cercava di istruire una “macchina”, composta da una serie di scatole, a giocare al gioco matematico del NIM, è nata l’idea di farne un laboratorio; esso è poi sfociato in vari esperimenti, volti (con successo!) a individuare una formula che calcolasse il numero di scatole necessarie per aggiungere una riga al gioco, totalmente interattivi e coinvolgenti tra i ragazzi del progetto e i partecipanti al laboratorio stesso.

Le lavagne, invece, sono state tenute da degli esperti di machine learning che hanno affrontato dapprima una spiegazione del suo funzionamento e successivamente le implicazioni filosofiche, sociali e morali che vi sono dietro. Per quanto riguarda il funzionamento di una IA, essa si ispira al modello biologico delle reti neurali umane. Il sistema nervoso è composto da tanti neuroni che agiscono contemporaneamente, dando luogo a un processo multiplo ed elaborato, non sequenziale. Allo stesso modo, ci si è convinti che la strada per la creazione di una macchina intelligente fosse imitare il comportamento dei neuroni umani, al quale ci si ispira ma da cui ci si è poi distaccati: così tanti neuroni artificiali ricevono un segnale di input, effettuano i loro calcoli e restituiscono un segnale di output, creando una vastissima rete che può risolvere problemi via via più complessi.

Mattia Galeotti ha discusso nella sua lavagna dei problemi di discriminazione che gli algoritmi possono ereditare da noi o crearsi da soli se il dataset, l’archivio di dati usato per “allenarli”, non è ben calibrato. Nel 1934 gli Stati Uniti decisero di mappare le città per individuare le zone più sicure e quelle meno sicure, in modo da consigliare agli istituti di credito come fare i propri investimenti. Il risultato fu che le zone considerate meno sicure erano ovviamente le zone più povere, che tendevano ad avere una più alta concentrazione di abitanti di colore. L’algoritmo accusava quindi le persone di colore di rendere le zone meno sicure, quando in realtà avrebbe dovuto tenere conto di tutto il contesto in cui vivevano. Mattia ha trattato di tutto questo da un punto di vista puramente matematico, illustrando una formula che potesse collegare due diverse definizioni di equità algoritmica. Meno matematica e più filosofica è stata la lavagna di venerdì di Carlotta Orsenigo, che ha esposto una posizione molto positiva nei confronti delle intelligenze artificiali, evidenziando il modo in cui esse migliorano la nostra vita e non possono che essere un supporto alle attività umane. Per quanto le macchine possano diventare intelligenti, c’è una qualità umana che non potranno mai avere: la sensibilità. Questa racchiude l’intuizione, la speranza, la riconoscenza, e perfino quelle caratteristiche negative come il cinismo o la distruttività, che comunque ci distinguono e ci rendono umani. È questo il motivo per cui non dobbiamo aver paura delle macchine e non dobbiamo temere che sostituiscano l’uomo: non potranno mai farlo del tutto e, se saremo in grado di utilizzarle nel modo giusto, non faranno altro che rendere alcune operazioni un po’ più semplici. Non è stato della stessa opinione, invece, Marco Gori, secondo il quale il motivo per cui parliamo in questo modo dell’argomento è che ancora siamo agli inizi: non è ancora avvenuto il cambiamento di paradigma che, stando a Thomas Kuhn, segna l’inizio di una rivoluzione scientifica. Ed è stata quest’assenza di comprensione e di leggi che ha permesso ai grandi colossi, come Amazon e Facebook, di arricchirsi sfruttando la nuova tecnologia. Tuttavia, poiché è l’uomo stesso a essere al centro della trasformazione, è lui che ha il potere di controllarla: uno sviluppo guidato delle tecnologie può servire a migliorare la vita delle persone, sfruttando i guadagni che si potrebbe ricavare da una tassazione più severa sull’uso della IA. Infine, Dino Pedreschi ha riportato il dibattito prolungatosi attraverso queste lavagne su un’accezione positiva. L’IA deve costituire una sorta di intelligenza delle folle, fatta di “compagni” meccanici che possono aiutarci a risolvere i problemi più complicati. Non c’è motivo di averne paura perché essi derivano da noi e da noi ricavano i loro limiti e i loro pregiudizi: è per questo che il rapporto tra l’uomo e l’IA deve essere “a carte scoperte”, così che l’uomo possa mettere a disposizione sia i propri limiti che i propri valori e l’IA, invece, mostri in che modo ha lavorato. Il motivo per cui vogliamo una IA umana è che vogliamo che sia al nostro servizio, che ci supporti nel nostro lavoro; essi sono degli esoscheletri per la mente: costituiscono una struttura esterna che può migliorare le nostre capacità. Ecco perché l’Italia e l’Europa devono mobilitarsi per sviluppare queste tecnologie, affinché non rimaniamo indietro sul panorama mondiale.

L’IA ha contaminato Scienceground già il giovedì, quando i ragazzi di ExTemporanea hanno inaugurato la discussione su questo attualissimo argomento insieme a Mattia Galeotti e Massimiano Bucchi, sociologo della scienza che ha giocato a fare l’ospite a sorpresa. La contaminazione è stata un dibattito tra i ragazzi di Scienceground e un pubblico molto coinvolto e si è articolata su vari argomenti, alcuni dei quali poi approfonditi nei giorni successivi da ospiti del Festival. Si è parlato di antibiotico-resistenza e di come la si può combattere con l’IA, del ruolo che questa tecnologia sta avendo in altri e molti campi della medicina, dei clamorosi errori che ha fatto in passato nel tentativo di predire i picchi influenzali. Le scoperte e gli sviluppi si inseguono e si susseguono, portando a novità che per alcuni sono sensazionali e ad altri fanno ancora un po’ paura. L’IA è, ovviamente, uno strumento potente. È un nuovo modo di vedere la tecnologia, la società e il mondo. Se usato in modo inappropriato potrebbe, probabilmente e a lungo andare, costituire una catastrofe per l’umanità; ma le sue potenzialità sono infinite e, se la usiamo nel modo giusto, può contribuire ad affrontare problemi, difficoltà e perfino malattie molto più efficientemente. È tutta, ancora una volta, come lo è stato per tutte le grandi innovazioni scientifiche, una responsabilità umana.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

undici + due =

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.