Intelligence artificielle : revendications d'explicabilité

« Il faut relativiser le pouvoir de production de corrélations de faits, car il ne s'agit pas de production de connaissance », martelait Laurence Devillers, lors de la dernière édition du Forum du GFII, en décembre dernier, au cours d'un débat consacré aux agents intelligents et aux travailleurs de la connaissance.

Pour la chercheuse au laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur (Limsi) du CNRS, également auteure du livre Des Robots et des Hommes (Plon, 2017), l'on attribue aussi, notamment dans les médias, trop de capacités aux systèmes d'intelligence artificielle (IA).

« J'ai des assistants vocaux personnels chez moi et le dialogue avec eux n'est pas énorme, remarquait-elle. C'est encore très rudimentaire. Ils se souviennent de ce que j'ai dit un tour ou deux tours avant, et encore si ce n'est pas compliqué... »

Co-fondateur de l'éditeur de logiciels d'intelligence artificielle Yseop, Alain Kaeser tenait quant à lui un peu le discours inverse, estimant que, dans le domaine de l'IA, l'on parle trop de Poc (Proof of concept).

« Un Poc, c'est quand on est très en amont de la maturité de l'entreprise, expliquait-il. Pour notre part, nous refusons de faire des Poc. Nous délivrons des applications opérationnelles car les cas d'usage sont assez matures. Dans l'esprit des gens, l'IA fait fantasmer et apparaît comme non opérationnelle. Mais des domaines entiers d'usage le sont. »

« La data intelligence, c'est bien beau, mais c'est quand même l'humain qui manipule derrière»

Tout en pointant des fantasmes opposés, les deux orateurs se retrouvaient cependant sur un point, celui de l'explicabilité. « Le problème en IA, que la machine produise une note avec un système de scoring traditionnel ou qu'elle prenne une décision en s'appuyant sur des outils de Machine Learning ou d'autres technologies, c'est comment expliquer le pourquoi du résultat », remarquait ainsi Alain Kaeser.

Pour répondre à cette problématique, la solution de l'éditeur propose notamment une technologie de rédaction automatique capable d'expliquer les raisonnements qui ont conduit l'intelligence artificielle à un résultat, ou encore d'interpréter des résultats obtenus avec des outils de Business Intelligence.

« La data intelligence, c'est bien beau, mais c'est quand même l'humain qui manipule derrière, remarquait quant à elle Laurence Devillers. Le Machine Learning, les réseaux de neurones, ce n'est pas nouveau. Mais la complexité des systèmes actuels, c'est qu'ils hybrident un tas de techniques opaques et ce manque de visibilité sur le raisonnement est effrayant. Il faut de la transparence, de l'explication. Et pas seulement pour les experts. »

Si l'IA agite beaucoup et à juste raison les esprits autour des problématiques d'éthique dans l'utilisation des données ou même d'emploi, la revendication d'explicabilité de ses raisonnements devrait continuer de prendre de l'ampleur à mesure que les entreprises déploient davantage ces technologies.

Promo Newsletter