saverioriotto.it

Intelligenza artificiale più smart grazie a un vecchio teorema matematico

Si può “insegnare” alle macchine a riconoscere immagini complesse in maniera estremamente veloce usando un modello matematico sviluppato 25 anni fa.Oggi è stato migliorato e utilizzato nel campo dell’intelligenza artificiale per potenziare la capacità dei computer di risolvere problemi complessi, in particolare nell’analisi dei big data e nel riconoscimento delle immagini.

Intelligenza artificiale più smart grazie a un vecchio teorema matematico

 Lo studio è stato condotto da quattro ricercatori italiani, affiliati a diversi istituti (il Dipartimento di matematica e lo Advanced Research Center on Electronic Systems “Ercole de Castro” dell’Università di Bologna, l’Istituto di scienze e tecnologie dell’informazione “Alessandro Faedo” del Cnr di Pisa e lo Champalimaud Center for the Unknown di Lisbona),  e pubblicato sulla rivista Nature Machine Intelligence.

Potenziare l’intelligenza artificiale

“Abbiamo messo a punto una teoria matematica che permette di estrarre le informazioni più importanti a partire dal grande universo di quelle disponibili”, spiega Patrizio Frosinidel Dipartimento di matematica dell’Università di Bologna e coautore del lavoro. Nato nel campo della topologia computazionale (un’area di ricerca che unisce matematica e informatica), lo studio presenta un modello scientifico in grado di descrivere come il mondo dei dati viene filtrato trasformato: “Gli elementi fondamentali del modello”, dice ancora Frosini, “sono macchine che trasformano le informazioni, chiamate ‘operatori’, che possono essere combinate in reti molto complesse. Studiare le proprietà di questi operatori ci permette di comprendere meglio il loro funzionamento e rendere quindi più efficienti i sistemi di elaborazione dei dati”. 

Leggere la scrittura a mano, come facciamo noi

I ricercatori, in particolare, hanno utilizzato il loro modello per “insegnare” a una rete neurale a riconoscere immagini di cifre scritte a mano. Un compito facile per gli esseri umani, ma difficile per i computer: la stessa cifra scritta con grafie diverse viene facilmente interpretata come cifre differenti, o, viceversa, due numeri diversi scritti con la stessa grafia possono essere interpretati come lo stesso numero.

Per addestrare i computer a riconoscere stili di scrittura diversi, gli scienziati hanno dovuto “forzare” l’apprendimento, insegnando alla macchina a riconoscere i tratti salienti delle immagini e a trascurare quelli che invece non avevano rilevanza ai fini del riconoscimento. La prova si è conclusa con successo: il tempo richiesto alla rete neurale per distinguere, per esempio, un 5 da un 7 si è ridotto, con il nuovo approccio, di un fattore 50, il che vuol dire che il modello consente al computer di imparare in modo molto più efficiente e veloce.

I ricercatori, ora, vogliono alzare ulteriormente l’asticella: “Questi sistemi”, conclude Frosini, “sono in grado di produrre sintesi significative di grandi basi di dati e si spera possano arrivare in futuro a riconoscere somiglianze tra due forme con la stessa abilità di un essere umano: una capacità che potrebbe essere applicata, per esempio, per interpretare in modo corretto i sintomi di una malattia”.




Commenti
* Obbligatorio