A l’heure où les systèmes d’IA assurent de nombreux processus de la bancassurance, répondre à cette simple question peut s’avérer très compliqué. Face à la complexité des modèles mis en oeuvre pour aboutir à ce résultat, votre gestionnaire sera bien emprunté pour vous fournir une explication cohérente et convaincante. C’est là qu’intervient la notion d’IA explicable ou IAX, une IA capable d’expliquer sur quelle base et par quels mécanismes elle produit ses résultats de manière à contrer l’effet « boîte noire ».
L’IAX a vocation à créer de la confiance pour les professionnels qui doivent l’utiliser et pour les consommateurs/usagers finaux qui en subissent les effets.
Trois raisons militent en faveur de l’IAX :
Si le modèle est défaillant ou produit un résultat aberrant, il faut pouvoir expliquer rapidement au public pourquoi il a failli et comment il va être corrigé. Dans le cas contraire, la confiance sera rompue et il sera très difficile de remonter la pente.
La montée des préoccupations éthiques concernant l’IA et les biais de discrimination qu’elle est susceptible de produire.
L’IAX est une manière de répondre à la montée en puissance d’une régulation de l’IA (RGPD, California Consumer Privacy Act, projet de régulation de l’IA de la Commission européenne).
Problème : personne ne sait dire précisément ce qu’est une IA explicable. S’agit-il :
d’être transparent sur les données utilisées pour entraîner le modèle et le nourrir ? (pre-modeling)
d’intégrer nativement dans l’architecture du système une capacité à fournir des explications sur ses décisions ? (explainable modeling)
de pouvoir fournir a posteriori des explications sur les comportements du système (post-modeling) ?
Un des premiers obstacles à la construction d’une IAX est le manque de consensus sur sa définition même. Un deuxième est le risque de simplifier outrageusement des systèmes complexes au point que ladite explication n’aurait en fait aucune valeur et s’apparenterait à une manipulation du public. Une troisième relève de la psychologie sociale : l’explicabilité peut certes produire une meilleure compréhension des sous-jacents de l’IA, mais cela suffira-t-il à créer de la confiance chez des publics non experts ?
A l’heure où les systèmes d’IA assurent de nombreux processus de la bancassurance, répondre à cette simple question peut s’avérer très compliqué. Face à la complexité des modèles mis en oeuvre pour aboutir à ce résultat, votre gestionnaire sera bien emprunté pour vous fournir une explication cohérente et convaincante. C’est là qu’intervient la notion d’IA explicable ou IAX, une IA capable d’expliquer sur quelle base et par quels mécanismes elle produit ses résultats de manière à contrer l’effet « boîte noire ».
L’IAX a vocation à créer de la confiance pour les professionnels qui doivent l’utiliser et pour les consommateurs/usagers finaux qui en subissent les effets.
Trois raisons militent en faveur de l’IAX :
Problème : personne ne sait dire précisément ce qu’est une IA explicable. S’agit-il :
Un des premiers obstacles à la construction d’une IAX est le manque de consensus sur sa définition même.
Un deuxième est le risque de simplifier outrageusement des systèmes complexes au point que ladite explication n’aurait en fait aucune valeur et s’apparenterait à une manipulation du public. Une troisième relève de la psychologie sociale : l’explicabilité peut certes produire une meilleure compréhension des sous-jacents de l’IA, mais cela suffira-t-il à créer de la confiance chez des publics non experts ?
L’article de Violet Turri de Carnegie Mellon University Mellon est un remarquable exemple de vulgarisation intelligente.
David Cortés Astrid Bertrand Winston Maxwell Télécom Paris David Bounie Accuracy
#artificialintelligence #algorithms #psychologie #neuralnetworks #privacy #technology