Categorie
conferenze

eXplainable AI

Come dimostrare che un modello di Intelligenza Artificiale sta funzionando come vorremmo? Come controllare quale parametro sta influenzando nel bene e nel male il risultato? La eXplainable AI si occupa proprio di questo. Andare oltre il luogo comune che sia tutto una blackbox.

Mauro Bennici tra gli speaker del Codemotion Workfest 2023 per parlare di eXplainable AI
Mauro Bennici tra gli speaker del Codemotion Workfest 2023

Al Codemotion Workfest 2023, un mia sessione sul come occorre partire perché un modello sia “spiegabile”. Altri piccoli passi insieme a quelli per assicurarsi che un modello sia esportabile in ONNX, o ancora che ci si ponga le domande etiche a partire dall’analisi.

SHAP, esempio di sentiment analysis
SHAP, esempio di sentiment analysis

Inoltre non dimentichiamo che la eXplainable AI è un tassello base per la Responsible AI, e in generale per poter discutere sui temi della Etica della AI.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *