Vous vous posez des questions sur la validité des IA ? Vous vous heurtez à des difficultés pour convaincre de leur fiabilité, ou plus généralement pour les faire accepter ?
La validation d'une IA est en effet une étape sensible du processus de développement ou d'intégration dans un système. Il est difficile, et c'est bien naturel, de faire confiance à un outil lorsque nous n'avons pas les clefs pour comprendre son fonctionnement, d'autant plus qu'il n'existe aujourd'hui aucune certification ou norme pour l'encadrer. La puissance de calcul disponible offre désormais l'opportunité d'atteindre de très hauts niveaux de performances. Toutefois, cette mesure ne suffit souvent pas à mettre en production une IA, et avec raison. Il est naturel de chercher à valider également le fonctionnement intrinsèque de l'IA, afin de s'assurer que les décisions prises par cet IA le sont pour des raisons valables et de pouvoir appréhender ainsi quelles peuvent être ses limites. Ces considérations sont autant pertinentes pour le développeur, qui cherche à valider en première approche et à améliorer son modèle, qu'au décideur qui va prendre la responsabilité de mettre à disposition ainsi qu'à l'utilisateur final qui doit accepter d'utiliser l'outil.
Pour cela, des méthodes d'explicabilité des algorithmes d'IA voient le jour ces dernière années. Elles peuvent permettent de mettre en lumière certains mécanismes du modèle et bien souvent, d'indiquer les facteurs importants pour la prise de décision.
Venez découvrir un rapide panorama de ces méthodes ponctué d'exemples, avec un focus concret sur un sujet de maintenance prédictive à partir de capteurs vibratoires. Nous montrerons comment des clefs compréhensibles par des experts métiers ont pu être développées afin d'expliquer le fonctionnement d'un modèle d'IA de détection d'anomalies sur une pompe.