Il professore Giovanni Stilo dell’Università di L’Aquila, parteciperà alla conferenza sulle intelligenze artificiali di Vancouver, organizzata dalla Association for the Advancement of Artificial Intelligence (AAAI).
Le intelligenze artificiali sono tra i mezzi più discussi dell’ultimo periodo. Negli ultimi anni infatti, molti software dotati di intelligenze artificiali, sono stati lanciati sul mercato, diventando alla portata di tutti. Si tratta di IA che possono coprire le più disparate esigenze, dalla scrittura di testi creativi alla relazione di tesi, esami, fino all’utilizzo in campi artistici come il disegno digitale o la musica.
Si tratta di mezzi estremamente potenti che, proprio perché alla portata di tutti, hanno bisogno di continuo controllo e regolamentazione. Le menti più eminenti del pianeta, nel campo delle intelligenze artificiali, si sono riunite a Vancouver in occasione della 38esima edizione della conferenza organizzata dalla Association for the Advancement of Artificial Intelligence. Tra queste, anche Giovanni Stilo, professore dell’università di L’Aquila.
Il progetto presentato da Stilo
Giovanni Stilo, professore di Computer e Data Science al dipartimento di Ingegneria e scienze dell’informazione e matematica (DISIM) dell’Università dell’Aquila, ha preso parte alla conferenza di Vancoucer indetta dalla Association for the Advancement of Artificial Intelligence, azienda californiana impegnata nella promozione e nel miglioramento delle intelligenze artificiali.
Alla conferenza, giunta alla sua 38esima edizione, tenutasi tra il 20 e il 27 febbraio, il professor Stilo, che oltre a essere presidente del consiglio di area didattica (CAD) della laurea magistrale in Data Science è anche componente del progetto PNRR SoBigData.it, ha presentato un paper redatto assieme ai ricercatori, Mario Alfonso
Prado-Romero e Bardh Prenkaj, intitolato “Robust Stochastic Graph Generator for Counterfactual Explanations”.
Il fine della ricerca portata avanti dai tre ricercatori, è quello di utilizzare dei sistemi come l’approccio delle “spiegazioni controfattuali” (che descrivono scenari che sarebbero potuti verificarsi al variare di alcune condizioni) e la teoria dei grafi (oggetti in grado di schematizzare una vasta gamma di situazioni), per tentare di risolvere il problema della “scatola nera” delle intelligenze artificiali. Le IA a “scatola nera” sono quelle che funzionano senza che se ne comprenda realmente il meccanismo, per certe operazioni.
Il fine della ricerca è dunque quello di rendere più trasparenti alcuni processi delle intelligenze artificiali. Quando un’IA deve prendere una decisione, si affida a dei meccanismi che non sempre appaiono chiarissimi. Renderli più chiari è necessario, visto quanto velocemente progrediscono i percorsi di “machine learning” che le IA utilizzano per “apprendere” e diventare, nella capacità decisionale, sempre più vicini agli esseri umani.