Come dimostrare che un modello di Intelligenza Artificiale sta funzionando come vorremmo? Come controllare quale parametro sta influenzando nel bene e nel male il risultato? La eXplainable AI si occupa proprio di questo. Andare oltre il luogo comune che sia tutto una blackbox.
![Mauro Bennici tra gli speaker del Codemotion Workfest 2023 per parlare di eXplainable AI](https://intelligenzaetica.it/wp-content/uploads/2023/04/Screenshot-2023-04-18-110245-1024x351.png)
Al Codemotion Workfest 2023, un mia sessione sul come occorre partire perché un modello sia “spiegabile”. Altri piccoli passi insieme a quelli per assicurarsi che un modello sia esportabile in ONNX, o ancora che ci si ponga le domande etiche a partire dall’analisi.
![SHAP, esempio di sentiment analysis](https://shap.readthedocs.io/en/latest/_images/example_notebooks_text_examples_sentiment_analysis_Emotion_classification_multiclass_example_14_0.png)
Inoltre non dimentichiamo che la eXplainable AI è un tassello base per la Responsible AI, e in generale per poter discutere sui temi della Etica della AI.