L’explicabilité de l’intelligence artificielle, possibilité ou illusion ?

Dernière mise à jour : 31 octobre 2022

Dans cet article, je vous propose de découvrir le concept d'interprétabilité de modèles qui permet de détecter et résoudre les biais, dérives et autres écarts liés aux données et modèles d'Intelligence Artificielle.

Qu’est-ce-que l’explicabilité d’un modèle ?

En Intelligence Artificielle, l’explicabilité ou l’interprétabilité est un concept selon lequel les prédictions issues d’un modèle peuvent être expliquées à quelqu’un. Il s’agit de comprendre pourquoi un modèle propose une prédiction, plutôt qu’une autre. Netflix, par exemple, vous présente des séries ou des films en vous précisant que les différentes suggestions ont été réalisées sur la base de ce que vous avez pu voir par le passé. Chacun pourra alors constater la qualité de l’Algorithme et éventuellement trouver des astuces pour le biaiser.

Pour des modèles qui semblent plus complexes ou moins intuitifs, le Data Scientist doit pouvoir s’appuyer sur un ensemble d’outils et de frameworks qui lui permettront de mieux comprendre les résultats, identifier puis corriger les différents biais qui s’y sont glissés. Il pourra ainsi s’assurer qu’ils ne se reproduiront plus et pleinement satisfaire au cahier des charges qu’il a reçu.

Pourquoi l’explicabilité ?

Il est souvent dit que les modèles d’Intelligence Artificielle sont des boites noires que même leurs concepteurs ne parviennent pas à pleinement expliquer. Comment pourrions-nous alors faire confiance à des systèmes intelligents alors que les prédictions réalisées par certains modèles semblent parfois échapper aux Data Scientists eux-mêmes ?

Soyons conscients que l’Intelligence Artificielle est désormais beaucoup plus présente dans nos vies qu’aucun ne peut véritablement l’imaginer. Pour certains chercheurs, il semble donc important de prendre du recul, de s’attarder sur la sécurité des systèmes intelligents et sur la sécurisation des modèles. L’explicabilité est un des moyens nous permettant de sécuriser les modèles d’IA.

Pourquoi devrions-nous accepter qu’une voiture autonome accélère alors qu’elle aurait probablement dû freiner ? A-t-on l’assurance qu’une recommandation soit éthique ? L’explicabilité nous conduit à mieux comprendre et ainsi accepter ces décisions.

Comment pouvons-nous être certains qu’une erreur commise par un modèle n’ait pas d’incidence néfaste pour un individu et ce même au profit du plus grand nombre ? Que faire si un modèle se trompe sur le diagnostic d’un patient ? L’explicabilité doit permettre d’encadrer les pratiques pour que chacun puisse sélectionner des modèles de confiance.

Comment peut-on expliquer les prédictions d’un modèle ?

Il existe aujourd’hui plusieurs méthodes, qui combinées, peuvent apporter l’éclairage nécessaire à une meilleure compréhension des résultats et des biais. Un effort considérable est en train d’être déployé dans le monde de la recherche pour trouver des méthodes de plus en plus efficaces et de moins en moins coûteuses. Plusieurs entreprises se penchent actuellement sur le sujet et certaines fournissent d’ores-et-déjà les outils qui permettront de démocratiser cette pratique. Parmi elles, Google avec Vertex Explanable, IBM avec AI Explainability 360 ou Seldon avec Alibi.

Ces solutions viennent compléter une palette d’outils d’ores-et-déjà très riche permettant aux Data Scientists de conserver une trace de l’ensemble des paramètres, configuration, données d’entraînement et de test ayant permis de concevoir un modèle. Ces outils, parmi lesquels MLflow, Kubeflow ou VertexAI pour la gestion du cycle de vie de l’apprentissage automatique, DVC ou Pachyderm pour le versioning des données facilitent ainsi le rejeu des expériences et donc la compréhension des résultats.

Les limites de l’explicabilité vues par les chercheurs

Pouvons-nous vraiment expliquer l’Intelligence Artificielle ? Ne sommes-nous pas en train de dénaturer le concept même d’une “super-intelligence” qui surpassera un jour l’intelligence humaine ? Ne touchons-nous pas du doigt les limites de notre propre intelligence ? C’est le point de vue de plusieurs chercheurs qui pensent qu’à trop vouloir expliquer l’IA, nous freinons son évolution. Pour eux, notre but premier devrait être la recherche de la performance car à trop vouloir expliquer les modèles, nous courrons le risque de trop simplifier et déformer les systèmes complexes.

D’autres chercheurs, quant à eux, soutiennent que des modèles opaques devraient être évalués par des tests rigoureux et en particulier dans le domaine médical en privilégiant les essais cliniques.

Notre point de vue

Malgré les limites de l’explicabilité de modèles, en particulier sur des questions d’ordre éthiques et médicales, il nous paraît évident qu’elle a un rôle à jouer dans la sécurisation des modèles d’IA. De notre point de vue, les méthodes d’interprétabilité sont extrêmement utiles au débogage de modèles et à l’audit de systèmes intelligents. Ces techniques peuvent être utilisées pour améliorer les performances des modèles et identifier leurs biais.

Nous souhaitons donc encourager l’utilisation de ces outils chez nos clients. Parce que « c’est plus marrant ! (peut-être) » mais surtout parce que nous pouvons remarquer une plus grande confiance des métiers dans les prédictions réalisées. Dans les faits, ceci se traduit par une plus grande réutilisabilité des modèles, une meilleure productivité et une industrialisation de la chaine de valeur.

Pour aller plus loin