Cette entrevue avec Olivier Blais a été rédigée par Les Affaires et reproduite sur ce site avec la permission du journal.
Vaut-il mieux travailler avec un modèle statistique performant sans être capable d’expliquer chacun des résultats qui en ressortent? Ou d’opter pour un modèle moins performant dont il est possible d’interpréter aisément les réponses? « Et si on pouvait combiner les deux? », suggère Olivier Blais, chef sciences des données chez Moov AI.
Olivier Blais sera l’un des invités de la conférence Sciences de données, présenté par les Événements Les Affaires, le 12 février prochain, à Montréal.
Quelle est votre solution?
Olivier Blais : D’abord, les organisations doivent s’assurer que leurs modèles de prédiction ne deviennent pas des boîtes noires. Elles doivent faire en sorte que leurs modèles statistiques demeurent justes et bons, et non discriminatoires, envers la population.
Que voulez-vous dire par boîte noire?
O.B. : Il existe de plus en plus d’exemples de modèles statistiques dont les bâtisseurs ne sont pas en mesure d’expliquer les résultats. Quels sont les algorithmes qui influencent les réponses obtenues? C’est ce qu’on appelle dans notre jargon le phénomène boîte noire.
Prenez, par exemple, le domaine financier qui peaufine ces systèmes de prédiction depuis une bonne dizaine d’années. Qu’est-ce qui fait que le système d’une institution bancaire accorde un prêt ou non à un client? Est-ce que le conseiller ou la conseillère est en mesure d’expliquer correctement aux clients pourquoi son institution propose le prêt ou le refuse?
Si oui, tant mieux, sinon, ça devient des cas de boîte noire.
Comment éviter ce phénomène de la boîte noire?
O. B. : Une des bonnes pratiques est de soulever tous les résultats qui paraissent aberrants. Que ce soit pour une analyse complexe ou simple, il ne faut pas accepter systématiquement toutes les réponses que nous fournissent les systèmes.
Beaucoup d’entre eux reposent encore sur des données du passé. Prenez un processus qui est historiquement biaisé par la discrimination envers les genres ou certaines ethnies. Dans ces cas-là, il est fort possible que cette discrimination soit implicite dans les prédictions générées par un algorithme.
Dans ces cas-là, le fait que le modèle soit très précis ne veut pas dire qu’il n’est pas biaisé. L’essentiel, j’insiste, est d’être capable d’expliquer et de comprendre les résultats, quels qu’ils soient, en toute circonstance.
Vous estimez que nous sommes à la croisée des chemins, pourquoi?
O.B. : Il y a de nombreuses entreprises qui stagnent en affaires parce qu’elles s’obstinent à vouloir utiliser des modèles statistiques moins performants, des modèles dont elles peuvent expliquer les résultats en tout temps. Ce qui les empêche d’être plus efficaces, d’être plus productives, d’être plus rentables.
L’objectif n’est pas d’informatiser l’humain. Travailler avec des algorithmes doit demeurer un complément de la tâche à accomplir. La machine sert à simplifier le travail, l’humain, plus intuitif, doit, pour sa part, en garder le contrôle.
Que suggérez-vous?
O.B. : On se dirige vers une utilisation plus responsable des algorithmes. Reprenons l’exemple de la banque et son modèle statistique de prêts.
Le système peut donner une réponse, mais rien ne devrait empêcher l’institution, en l’occurrence le conseiller, de s’ajuster.
Pour en savoir plus, Olivier Blais a animé le webinaire Développez une communauté agile pour la science des données et déployez de l’intelligence artificielle dans votre organisation, offert gracieusement par les Événements Les Affaires.
Olivier est cofondateur et VP science de la décision chez Moov AI. Il est éditeur de la norme ISO internationale qui définit la qualité des systèmes d’intelligence artificielle où il mène une équipe de 50 professionnels de l’IA de partout dans le monde. Ses connaissances de pointe en IA et en apprentissage machine l’ont amené diriger la mise en oeuvre d’une culture des données dans différentes industries.