Comment exploiter sans dérive les solutions d’intelligence artificielle générative en entreprise
Avec l’avènement de ChatGPT et d’autres outils de génération de texte et d’image, les solutions d’intelligence artificielle (IA) générative offrent des perspectives littéralement révolutionnaires pour votre entreprise. Les solutions d’IA génératives auront plus d’impacts sur nos entreprises et nos façons de travailler que l’arrivée de l’Internet.
Dans cette présentation, Olivier vous montre comment exploiter dès maintenant ces technologies pour dépasser les simples questions-réponses et atteindre vos objectifs de développement et accélérer votre force de frappe.
Grâce à des exemples concrets et des analyses approfondies, Olivier aborde les différentes applications de l’IA générative, ainsi que les limitations et les défis associés à ces outils qui, faut-il le rappeler, ne sont qu’à leurs balbutiements.
Olivier aborde également les questions éthiques liées à l’utilisation des outils d’intelligence artificielle générative. Il proposera des moyens d’assurer la qualité des solutions livrées à l’aide de l’IA générative.
Série sur l’intelligence artificielle générative
Cet article fait partie d’une série que nous avons produite pour aider les entreprises à mieux comprendre l’IA générative et ses possibilités.
- Génération automatisée de métadonnées: Solutions pour Inventaires SAP, Oracle et Microsoft Dynamics
- Les cas d’usage essentiels de l’intelligence artificielle générative
- Pourquoi vous devriez utiliser ChatGPT en contexte d’entreprise
Conférence sur écoute
Transcription verbatim de la conférence
[Cet article est une transcription verbatim de la conférence présentée par Olivier Blais :
Comment exploiter sans dérive les solutions d’intelligence artificielle générative en entreprise.
Il est intéressant de noter que cette transcription a été effectuée avec des outils d’intelligence artificielle. Une tâche qui aurait pris 2 à 3h a été accomplie en quelques minutes.]
Introduction
Olivier – Conférencier
Merci beaucoup pour votre temps. C’est super apprécié. Je sais qu’on est super occupé toute la gang, un jeudi matin. On est anxieux de rentrer au bureau, mais en même temps, je pense que l’IA générative, ça a un petit quelque chose. Je pense que ça vient chercher l’imaginaire. Je peux comprendre pourquoi vous êtes ici. Moi aussi, je suis super excité de parler de ce sujet-là. Je veux savoir, est-ce que tout le monde est arrivé? Les absents ont tort, donc on va commencer. Avant de commencer la présentation, j’avais un petit sondage pour vous. À main levée, je me demandais qui dans la salle avait certaines inquiétudes par rapport à l’IA générative? Je vois des mains qui sont levées très vite. Parfait. Merci. Aussi, j’avais une question par rapport aux capacités de l’IA générative. Qui est excité par l’IA générative? Qui veut l’utiliser? Excellent. On va vous envoyer un représentant en vente qui va venir vous voir sous peu. Non, c’est une blague. C’est une blague, mais pas vraiment. Je suis content, j’ai vu des mains, des mains de gens plus inquiets, mais des mains de gens excités. En fait, moi, pour ma part, il reste une dualité entre les deux.
La dualité de l’IA générative
[01min 24s]
Je suis confiant, mais prudent par rapport à la technologie. C’est de ça qu’on va parler aujourd’hui. C’est pour ça qu’on parle d’IA générative, mais sans dérive. Comment bien utiliser ces technologies pour générer des bénéfices, mais sans risquer à outrance. Ce que je vais faire, c’est que je vais parler… Excusez-moi, en premier, je vais me présenter. Mon nom, c’est Olivier Blais, cofondateur de Moov AI. Je suis en charge de l’innovation pour l’entreprise, puis conférencier. Je parle de temps en temps, j’aime m’écouter parler. Ce qu’on va faire, c’est qu’on va parler d’IA générative, bien entendu. On va commencer du début. On va parler, on va introduire le sujet, mais on va aller, on va pousser un peu plus loin. Pourquoi? Parce qu’on est tous des développeurs d’IA en ce moment. C’est spécial, mais avec l’IA générative, c’est le changement de paradigme. Je ne parle plus juste à une couple de matheux qui ont étudié en intelligence artificielle. Je parle à Monsieur et Madame Tout le monde parce que tout le monde maintenant a l’opportunité d’utiliser ces technologies-là pour générer des résultats. Donc, il faut que tout le monde soit à l’affut, tout le monde comprenne bien comment bien exploiter la technologie.
Le cycle du hype de l’IA générative
[02min 38s]
Mais inquiétez-vous pas, je vais essayer de le faire de façon assez soft. On va pas rentrer dans de la mathématique, je vous le promets. Puis, je vais parler aussi de l’IA responsable, qui est la clé. S’assurer que quand on fait les choses, on le fait correctement. Donc, on va tomber dans la période un petit peu plus théorique, mais en premier, je suis curieux d’en savoir plus sur où vous vous trouvez dans le cycle du hype? C’est extrêmement hype présentement, ChatGPT, tout le monde en entend parler. Je ne vais même plus sur LinkedIn, puisque c’est juste ça maintenant. GPT-ci, GPT-ça. Mais en fait, c’est vraiment une courbe. Quand j’ai vu cette courbe, la première fois, ça m’a marqué. Et tout le monde ici, que vous le vouliez ou non, vous êtes à une de ces étapes de la courbe. Je ne vais pas demander à tout le monde où ils sont rendus, ça serait vraiment complexe, mais je trouve ça intéressant de savoir c’est quoi les étapes qui s’en viennent dans notre parcours. Au début, pour ma part, c’était dans les alentours de janvier, je dirais. Chez Moov AI, ça fait depuis 2019 qu’on a commencé à utiliser GPT2, GPT3.
[03min 56s]
On se retrouvait à faire un documentaire, par exemple, avec Matthieu Dugal où est-ce qu’on a généré un agent conversationnel. Ça fait longtemps, mais là, depuis qu’on a entendu parler de ChatGPT, c’est là que ça a vraiment réveillé les gens, puis ça a créé un hype. Au départ, on pense que c’est de la magie. Tu rends quelque chose, fais-moi un poème sur les bottes de foin, puis ça va générer un poème sur les bottes de foin, puis il va être incroyable. Vraiment, c’est de la magie, mais à un moment donné, quand tu commences à vraiment l’utiliser pour quelque chose d’utile, là, tu tombes dans des petits « rabbit holes », là, tu tombes dans des irrégularités. Par exemple, tu vas te poser la question sur une personne, sur une personnalité publique, puis là, finalement, ça va se tromper sur toute la ligne. Tu vas l’utiliser pour faire des calculs, ça peut se tromper sur des calculs. Gratte la tête et « OK, qu’est-ce qui se passe? » Et là, de plus en plus, tu te retrouves à identifier des faiblesses de ces modèles. Finalement, ce n’est pas nécessairement de la magie.
Risques et limitations de l’IA générative
[05min]
C’est beaucoup en apparence. Problème, ChatGPT en passant, ce n’est pas mis à jour à tous les jours. Ça a été mis à jour la dernière fois en janvier 2021. Donc ça, ce que ça veut dire, c’est que si on pose des questions par rapport à des nouveautés de l’actualité, ça ne connaît pas le concept. Donc, on voit « OK, une faiblesse. » Là, après ça on apprend qu’avec ChatGPT, notre donnée, tu la transmets à OpenAI. Donc, cette donnée, dans le fond, tu viens de créer une faille de sécurité. Aïe, aïe, aïe. Là, tu commences à voir les faiblesses dans ces outils qui sont vraiment cool à utiliser. Il y a certaines personnes qui vont débarquer là. Tout va bien, tout est sous contrôle. Génial! Ici, il y a plusieurs personnes qui vont débarquer. Je suppose que ce n’est pas les gens qui sont ici qui ont débarqué, sinon vous ne seriez peut-être pas ici. Mais il y a vraiment façon de bien exploiter la technologie. Il faut juste être conscient, il faut juste comprendre comment bien l’exploiter. Et quand tu commences à utiliser les meilleures pratiques, tu vois des exemples.
Avantages et meilleures pratiques de l’IA générative
[06min 12s]
Puis, en fait, c’est fascinant ce que tu peux faire. Autant que tu les vois, ces problèmes-là, mais tu passes par-dessus. Tu essaies de pallier à ces problèmes, tu essaies d’atténuer les risques qui sont identifiés. Donc, ça ici, c’est vraiment le cycle et finalement, il y a du monde qui l’utilise pour vrai en ce moment. Il y a des applications qui sont déployées, qui sont fonctionnelles. Ça fonctionne. Puis là, on peut commencer à faire la même chose. Donc ici, c’est là qu’on s’en va. On s’en va vraiment à l’utilisation de cette technologie dans des applications concrètes. Parlant d’applications, on va revenir un peu en arrière. Ici, le but n’est pas de parler de ChatGPT, c’est une solution de ChatGPT. Ok? Donc, on va expliquer un petit peu différentes définitions. Je vais aller vite. Donc, il existe des solutions. C’est souvent les solutions qu’on va voir nous-même. Donc, ChatGPT est une solution qui va produire des résultats. Bard du côté Google, c’est aussi une solution qui va être disponible. Moi, j’appelle ça B2C, Business To Consumer. C’est fait pour tous. Ça a été démocratisé. Le but est vraiment de démocratiser les technologies pour qu’on puisse commencer à l’exploiter.
Outils de Générative AI pour entreprises
[07min 34s]
C’est le fun parce que ça te permet de faire plein de choses de l’analyse de texte, il y a vraiment plein de use cases qui sont existants et que tout le monde puisse bénéficier. Il va y exister aussi des outils qui sont B2B, qui sont disponibles aux entreprises. C’est important de comprendre qu’il y a une différence entre les deux. On ne recommande pas d’utiliser des outils pour Monsieur, Madame, tout le monde en entreprise. À la place, on va suggérer d’utiliser des outils pour entreprises et je vais expliquer pourquoi. Ça, ici, c’est des solutions. Que ça soit, par exemple, GPT4, Palm, ChatGPT, BART, c’est des exemples de solutions. Il y en a des centaines maintenant. Ces solutions, c’est des solutions qu’on va appeler des LLM. Qui a déjà entendu parler de LLM? Il y a quelques mains levées. Je suis content, il y a du monde de Google qui ont levé la main, ça veut dire qu’ils savent de quoi on parle. Les LLM, c’est des modèles larges de langage. Donc, essentiellement, on a scrapé Internet, on est allé chercher du texte de partout, de plein de sources différentes. Et ces modèles-là, c’est des modèles qui sont extrêmement bons pour comprendre et générer du texte.
Modèles fondamentaux et modèles linguistiques
[08min 55s]
Donc ça, c’est génial. Ça permet de faire tout ce qu’on connaît maintenant avec les technologies qu’on utilise dans la vie de tous les jours. Mais ça vient fondamentalement d’une approche qu’on appelle des modèles de base ou en bon franglais, des « foundational models ». Ça, c’est une approche qui existe depuis plus de dix ans. Ça fait très longtemps que ça existe. C’est la capacité de pouvoir modéliser le monde. Ça sonne très poétique, « je modélise le monde », mais en fait, c’est vraiment ça. C’est dire qu’il existe des fonctions de l’humain qu’on n’est pas obligé de reproduire à tout coup, comme par exemple la détection d’images. On pourrait créer notre propre modèle pour identifier un chat d’un chien, propre modèle pour identifier les chiffres sur un chèque, propre modèle pour identifier, par exemple, des intrus qui rentrent sur une caméra de sécurité. On pourrait le développer de A à Z, mais ça prendrait des millions de photos. À la place, l’idée de modèle de base est arrivée et on s’est dit « Attends, pourquoi on n’investit pas juste plus de temps au début? »on développe un modèle qui est extrêmement bon pour identifier des éléments sur une image.
Le changement de paradigme avec l’IA générative
[10min 12s]
Puis après ça, on peut bénéficier de cette capacité pour tout ce qui est associé à la détection d’image. Ça, c’est parti au départ avec la détection d’image, mais rapidement, on a vu les bénéfices au niveau du langage. C’est pour ça qu’en ce moment, on ouvre notre outil de generative AI et on est capable de demander de faire un poème, de faire un sommaire, donc de faire plein de choses. Comment ça a été créé? C’est que ça a été créé justement parce qu’au début, on est allé chercher littéralement tout ce qu’on peut trouver, tout ce qui est public sur Internet. C’est des capacités que moi, personnellement, on n’a pas cette capacité, mais les gros du Web, et c’est pour ça qu’on va voir les GAFAM pouvoir exploiter cette opportunité parce qu’ils ont la capacité de « storage », ils ont des capacités qui sont beaucoup plus avancées que d’autres organisations. Ça, ça a créé des très bons modèles, des modèles qui sont super bons pour comprendre le monde, mais ils sont plates. Est-ce qu’il y a du monde ici qui a utilisé GPT3, par exemple? Des OG, j’aime ça, du monde avant la ChatGPT. GPT3, tu lui demandais une question, ça, c’est en 2020, ça ne fait même pas très longtemps.
[11min 39s]
Tu demandes une question, ça te répond essentiellement à ce que Wikipédia aurait dit. Ce n’est pas très intéressant au niveau de l’expérience utilisateur. C’est ça qui fait différencier les nouvelles solutions. C’est que maintenant, comme deuxième étape, on a une adaptation pour le dialogue. En ce moment, c’est fun de la façon qu’on se fait répondre. Vraiment, c’est les organisations ont commencé à mettre de l’emphase sur l’expérience utilisateur. Ça en dit long, ça veut dire qu’on est beaucoup plus sensible à ce que l’utilisateur veut, de quelle façon l’utilisateur veut exploiter la technologie. Donc ça rend ça plus agréable, ça motive les gens à l’utiliser puis à l’exploiter davantage. Et finalement, et ça, c’est juste on the side, ça l’a amélioré beaucoup la qualité parce que l’humain aime se faire répondre d’une façon humaine. Donc ça a amélioré notre adoption à la technologie. Et maintenant, on en est là. Ici, je vais vous expliquer un peu la différence parce que ça change beaucoup de paradigmes entre des solutions d’IA régulières. Une solution d’IA régulière, ce qu’on va voir, c’est qu’on va avoir des équipes qui vont prendre des données, ils vont entraîner un modèle. Souvent, c’est des modèles, donc chaque problème a son modèle.
[13min 04s]
Et après, quand ils l’ont entraîné, après ça, il reste à le déployer pour pouvoir le réutiliser à chaque fois qu’il y a des nouveautés, des nouvelles choses qui arrivent. Je vais vous donner un exemple. À l’époque, parce que maintenant ça change, on avait une équipe chez Google, par exemple, qui créait de l’analyse de sentiments. Donc être capable de regarder des tweets, par exemple, ou des textes, puis dire si la personne est… Si c’est un commentaire positif ou négatif. Donc, tu avais une équipe qui focussait juste là-dessus. Donc, ils trouvent plein d’informations sur le Web, identifient le sentiment qui est associé, entraînent leur modèle. Là, après ça, tu le déploies. Puis après ça, à chaque fois que tu as un nouveau commentaire, tu es capable de pouvoir identifier si oui ou non, c’est un commentaire positif. Donc ça, il fallait le faire pour l’analyse de sentiments. Il fallait le faire pour chaque chose que tu voulais savoir était un nouveau modèle. Donc maintenant, ce n’est plus ça. Maintenant, le paradigme vient de changer parce que c’est tellement vaste ce que tu peux faire avec des LLM que maintenant, tu n’as plus besoin…
Les possibilités de l’IA générative
[14min 20s]
Premièrement, c’est déployé. Donc, pour le commun des mortels, pour les entreprises, tu n’as plus besoin de faire la première partie d’entraînement. Et ça, ça change la game parce que tu réduis de beaucoup ton projet. Le projet, c’est plus un projet qui va coûter des millions à produire, parce que tu viens de couper énormément du coût de ton développement. En plus, c’est que tu n’as pas besoin d’aller chercher des données extrêmement précises pour répondre exactement aux problèmes que tu as entraîné ton modèle à faire. Ici, tu poses une question, donc un prompt. Tu poses une question et si ton prompt est bien fait, ton résultat, c’est le résultat que tu t’attendais à recevoir. Ces résultats-là, maintenant, Sky is the Limit, tu peux avoir du texte, tu peux avoir des prédictions, tu peux avoir du code, tu peux avoir des tableaux, tu peux avoir plein de choses, tu peux avoir des images aussi. Donc, c’est incroyable ce que tu peux avoir. C’est incroyable les bénéfices qu’on est capable d’aller toucher avec les nouvelles technologies. Par contre, j’aime un peu la dualité dans ce commentaire du CEO de Google qui a dit, il y a quelques semaines à 60 Minutes, « The urgency to deploy it in a beneficial way is harmful if deployed wrongly. »
[15min 44s]
C’est vraiment la dualité. Tu as tellement de positifs qui peuvent survenir, mais ça peut être catastrophique si c’est mal fait. C’est le CEO de Google qui dit ça, mais honnêtement, c’est la responsabilité de chaque personne d’utiliser convenablement les technologies. Si on l’utilise bien, on va être capable de minimiser les risques, parce qu’il y en a des risques. Donc les risques, ici, premièrement, qu’il est utilisé par tout le monde. Je comprends ici, on doit avoir peut-être 60 personnes, mais c’est des centaines de millions de personnes qui ont par exemple utilisé ChatGPT. Donc c’est rendu utilisé par tous ou presque par tous, donc c’est important que chaque personne soit consciente de leurs utilisations, parce qu’on peut se retrouver à faire une catastrophe si jamais on l’exploite mal. Je vais passer ça. Ici, je vais donner des exemples de choses qu’on peut faire, parce que c’est tout le temps utile de pouvoir… Excusez-moi, je vais revenir ici. Ça, c’est différents use cases, inquiétez vous inquiétez pas, je ne vais pas passer à travers, mais il y en a plein des use cases. Il y a des use cases qui sont liés beaucoup avec l’analyse de texte.
[17min 00s]
On est capable d’analyser plein de textes, on est capable de faire de la classification, d’identifier des éléments dans un texte. Sinon, on est capable aussi de faire des prévisions, des prévisions aussi très conventionnelles. Donc, on est capable de reproduire certains modèles d’apprentissage machine avec des outils LLM. Et en passant, tout ce qu’on fait avec du texte, on peut le faire avec du code. Il y a peut-être des gens qui… Nous autres, on est habitué d’écrire du texte en français, en anglais, mais ceux qui sont habitués d’écrire en python, par exemple, ou en C++ ou en C#, c’est encore plus efficace parce que c’est explicite. Tu écris une fonction, c’est explicite. Ton langage est implicite, toutes les tournures de phrases, ce que les mots veulent dire. Donc, prenons en considération qu’on peut faire sky is the limit en termes de capacité. Ici, comme j’avais parlé tantôt, je pense que de base, des questions/ réponses, on peut s’entendre que c’est extrêmement bon. Donc, si on veut bâtir un chatbot, assurons-nous que les chatbots qu’on veut développer ont des capacités de générer des réponses. Maintenant, on est rendu à cette étape. Ce qu’on développe, on doit s’assurer qu’on a les capacités de générer des réponses.
[18min 21s]
Ce que ça permet, c’est que ça permet de toucher à beaucoup plus de questions. Et aussi, ça réduit du temps au niveau du développement. Tu n’es pas obligé de penser à chacun des scénarios individuellement. Tu donnes des instructions précises à ton chatbot et ton chatbot va donner des réponses qui sont la plupart du temps convenables, puis tu peux t’assurer de le contrôler aussi, ce qui est une possibilité. L’autre élément que j’aime beaucoup, c’est le fait qu’on peut faire confiance à ces modèles. Ce n’est pas juste fait pour dire « Regarde, je vais poser des questions, puis au pire, on va voir, on va voir. » On peut faire confiance à ces solutions-là dans certains cas. Par exemple, ici, on serait capable de corriger des dictées avec les solutions, comme par exemple ici, je me suis posé une question. J’ai essayé une petite dictée de mon cru. « Manon a acheté trois chats à l’épicerie. » Ici, ce qu’on peut voir, c’est on peut voir la correction qui est faite. Vraiment, elle était capable de pouvoir aller beaucoup plus loin. Ça a été démontré que pour de la correction de texte, c’est incroyable. Ça fonctionne vraiment bien et on peut faire confiance à des outils comme ça pour des affaires aussi sensibles que la correction de dictée pour nos enfants.
[19min 47s]
En passant ici, quelque chose d’assez cocasse, c’est que si je demande à la plateforme de Generative AI de corriger la phrase « Manon achète trois chats à l’épicerie », en plus de corriger les fautes, ils vont dire que ce n’est pas vraiment à l’épicerie que tu achètes un chat. C’est intéressant de savoir ça, sinon, je ne croise pas vraiment le chat. Ce n’est pas nécessairement le chat que tu veux garder pendant des années. Ça, c’est un autre exemple. Tantôt, j’en ai parlé quand j’ai parlé d’analyse de sentiments. Mais ça, c’est des choses qu’on peut faire. Tous les API qui existaient, ils vont être remplacés très rapidement. Ici, j’ai posé la même question, peux-tu identifier le sentiment dans les phrases suivantes? Tu donnes la liste de phrases, ils te retournent le bon sentiment et ça va être exactement cet outil qui va être utilisé dans les API qui s’en viennent. Encore une fois, on peut faire confiance aux outils tant qu’ils sont utilisés convenablement et tant qu’ils sont optimisés pour la tâche que tu veux faire. J’ai même poussé un peu la note parce que tantôt, j’ai parlé beaucoup du risque. Oui, il y a un risque, mais c’est important de bien comprendre le risque.
[21min 05s]
Je me suis dit « Est-ce que ça pourrait être le fun d’utiliser des outils de Generative AI pour faire l’analyse de risque d’une solution ai? » Je me suis dit « Ça serait drôle, je vais demander à ChatGPT d’analyser le risque de ChatGPT. Je vais voir si je serais capable de le cuisiner. » J’ai quand même eu des réponses très intéressantes. Premièrement, ça a fait une très bonne job. J’ai utilisé une matrice, un framework de risque qui s’appelle NIST, qui est très reconnu. J’ai posé vraiment la question « Voici les risques, peux-tu me qualifier l’impact, la probabilité que ça survienne? » et même me donner des justifications. Vraiment, la tâche a été très bien faite, je suis super satisfait. Ici, je vais donner trois exemples. Le premier exemple, c’est un exemple au niveau des use cases. Est-ce que le use case est un use case risqué? Celle-là, ce qui est intéressant, c’est qu’il ne faut pas tout le temps prendre pour du cash, je pense qu’on le sait, mais ce n’est même pas à cause d’une hallucination, ce n’est pas à cause d’une erreur, c’est une question de perspective. Donc, ce que je me suis fait répondre, c’est que « Non, mais ChatGPT, c’est fait pour tous les use cases.
[22min 19s]
Vu qu’on ne touche à aucun use case précisément, on n’a rien à se reprocher.» J’exagère, mais je pense que c’est intéressant parce que ça nous donne un peu l’impression qu’on a, c’est ce qu’on essaye d’éviter en tant que société. C’est de dire « Sais-tu quoi? On va répondre correct à toutes, puis on va pouvoir prendre un step back, puis on n’est pas responsable pour ce qui se passe. » Nous, notre responsabilité, c’est que ça ne survienne pas ça. C’est de dire « Non, non, regarde, pour chaque use case, pour chaque cas d’usage qu’on va utiliser, on va s’assurer que ça soit bien fait. » Donc, on va être obligé… Il y a un niveau de plus. On ne peut pas juste se fier à des technologies pour contrôler chacun de ces cas-là. Il faut que ça soit fait dans une étape subséquente. Un autre élément, c’était au niveau des méthodes pour la fabrication, pour la création de la solution. Et ici, ça m’a fait réfléchir beaucoup. Donc, OpenAI crée son propre modèle chez toi avec deux ou trois data scientists. Je me demande c’est qui qui a les meilleures capacités de création de solutions.
[23min 27s]
Je pense que je vais mettre beaucoup de mes chevaux sur ces plateformes, parce qu’ils ont des gens qui sont extrêmement qualifiés, ils ont des très grosses équipes. Donc, ça m’a fait réfléchir et j’abonde dans leur sens. C’est vrai que c’est un risque qui est plus faible. Je pense que le risque est plus élevé si Monsieur ou Madame Tout le monde essaie de créer son propre modèle parce que tu n’as pas nécessairement les meilleures méthodologies, tu n’as pas le meilleur savoir faire, etc. Donc, il y a aussi un gain assez fondamental qu’on peut aller chercher avec les solutions. Et finalement, le dernier que je voulais parler, c’est un risque au niveau de la sécurité légale. Et inquiétez-vous pas, je vais y revenir par la suite. Mais quelque chose d’intéressant, là, je l’ai eu. Là, ce qu’il m’a dit, il m’a dit que ChatGPT utilise des données de tierce partie et ça contient des risques au niveau des droits d’auteur, au niveau de la propriété intellectuelle. Mais c’est intéressant tout ça. Premièrement, la transparence, donc d’être capable de pouvoir un peu plus comprendre ce modèle, mais aussi que les solutions de generative AI soient capables de faire des tâches aussi critiques que l’évaluation de risque de modèle.
[24min 42s]
Le gars qui fait partie des normes ISO est très content de ce type d’exercice. Ici, je vais revenir, je vais prendre un step back encore plus important. Je ne sais pas ici si vous êtes tous d’accord à utiliser l’IA générative. Je pense que oui, j’ai vu plein de mains levées, mais il y en a qui ne le sont pas. Mais j’ai des mauvaises nouvelles pour ceux qui sont un peu moins chauds à l’idée d’utiliser l’IA générative. Vous avez pas le choix. Malheureusement ou heureusement. Pourquoi ici? Pourquoi? C’est parce que les organisations en technologie… Ici, c’est un exemple de Google, mais Microsoft a un roadmap très similaire aussi. Ils n’ont pas juste créé des outils de génération d’AI pour que tout le monde puisse s’amuser à écrire des poèmes ou faire des sommaires. Ils ont utilisé ça pour aussi améliorer les services qu’ils offrent à leurs clients. Par exemple, ici, c’est trois différents niveaux d’offre au niveau de Generative AI par Google. Le plus clair, c’est de dire « Je vais aider les data scientists, les gens qui développent des solutions d’IA, de pouvoir développer des solutions d’IA génératives. Ça, je pense, c’est écrit dans le ciel
[26min 06s]
Tout le monde est au courant que ça, ça s’en venait. Mais Google pousse la note encore plus loin, puis se dit « Attends un peu, tu n’es pas obligé de tout le temps avoir des data scientists. Il n’y a pas beaucoup de gens qui développent des solutions d’IA, mais il y a beaucoup plus de développeurs dans le monde. Donc, comment est-ce qu’on peut aider les développeurs dans leur développement? » Et c’est là aussi que des capacités qu’on commence à comprendre maintenant quand on utilise les solutions existantes, qu’il y a possibilité d’utiliser les solutions telles quelles. Par exemple, ici, Google, ce qu’ils ont parlé, ils parlent de, par exemple, aider la conversation, aider la recherche. Donc ça, c’est des cas très clairs qui peuvent être déployés par des développeurs dans des solutions existantes. Ils peuvent développer leurs propres applications, ils sélectionnent les fonctionnalités qu’ils ont besoin et ces fonctionnalités, ils s’adaptent, ils s’ajustent pour être capables de bonifier l’expérience des usagers finaux. Et même, on peut aller encore plus loin que ça. Donc, il y a Monsieur, Madame, tout le monde, il y a vraiment les utilisateurs business qui, eux, ont commencé à utiliser des outils comme par exemple Dialogflow.
[27min 22s]
Il existe plusieurs outils de Google et ces outils vont aussi avoir des capacités de Generative AI. Ça, ce que ça veut dire, c’est que le Generative AI est là pour rester. Donc, il faut juste être capable de bien l’utiliser. Et aussi, j’ai d’autres petites nouvelles pour vous, c’est que le développement continue à s’accélérer. Je comprends peut-être certaines personnes sont contentes de savoir qu’il y a des petites questions. Apparemment, GPT 5 n’est pas en train d’être développé, mais ça ne change pas le fait que le développement, il se poursuit, il s’accentue. Je peux donner des exemples. On a LLaMa et je ne parle pas de l’animal, même s’il y a une photo d’un lama très technologique. Mais LLaMa, c’est un outil qui te permet de créer tes propres modèles, tes propres ChatGPT internes, par exemple. Donc ça, ça continue. On peut voir la frénésie. Tout le monde veut un LLaMa. J’exagère. Personnellement, moi, je proposerais de ne pas utiliser ça, puis à la place d’utiliser les bonnes technologies. Ça, c’est mon take sur ça. On a de beaucoup meilleures performances avec les solutions qui sont déjà existantes, qui ont déjà été éprouvées par des millions de personnes.
[28min 51s]
Mais je comprends que c’est quelque chose qui est intéressant. Ça nous permet de tout développer sur notre propre laptop. C’est sûr que le geek en moi trouve ça excitant, mais la personne d’affaires trouve ça un peu overkill pour ce qu’on est en train de créer. Il y a aussi des compagnies qui ont leurs propres capacités qui développent. Par exemple, Coveo. Coveo sont hyper clairs sur le fait qu’ils ont déjà développé certaines des capacités génératives. Coveo qui est un des joyaux québécois. Et il y a d’autres entreprises comme, par exemple, Databricks qui est un joueur majeur dans l’écosystème, qui développe Dolly, je pense. Donc ça va s’accentuer. Il va y avoir de plus en plus de compétition dans le marché. Et il y a aussi une tendance, ici je vais juste brièvement parler, mais de « auto GPT », qui est le fait de pouvoir entraîner GPT, une solution générative avec une solution générative, puis de faire un loop. Ça fait peur, je suis d’accord. Ici, encore une fois, c’est important de le contrôler, mais pour l’instant, c’est un trend qui est beaucoup plus présent au niveau du développement, donc comment automatiser certains workflows.
Les risques et limitations de l’IA générative
[30min 09s]
Vraiment, ça continue. C’est important de rester au courant. C’est important de bien comprendre c’est quoi qui se produit pour s’assurer d’utiliser les meilleures technologies pour répondre à nos besoins. Et pour éviter des risques, ici, je vais parler de trois différents enjeux qu’on a présentement. Au niveau des hallucinations, je parle d’hallucination depuis tantôt. Une hallucination, c’est quoi? Je ne parle pas de l’hallucination dans un désert. Une hallucination, c’est une erreur. Je vais donner un exemple. Tout le monde a un beau-frère qui dit des choses, il est tellement convaincant, mais des fois, il ne sait pas de quoi il parle. Je pense que tout le monde a déjà eu ce beau-frère ou cette belle-sœur. Une hallucination, c’est ça. C’est une erreur. À l’époque, les OG vont se rappeler que dans un modèle traditionnel, tu as des erreurs, donc des fois, tu prédis mal. Dans ce cas-ci, c’est une mauvaise prédiction, mais qui est tellement convaincante parce que c’est bien écrit. Une hallucination, c’est un peu plus problématique parce que les gens qui n’ont pas nécessairement les capacités de pouvoir bien juger de l’extrant pourraient se faire enfirouaper. Donc, ici, il faut faire attention à chaque fois qu’on produit un extrant, à chaque fois qu’on fait un prompt, il faut regarder c’est quoi le résultat en arrière.
[31min 43s]
Des deepfakes, des fake news, il y en a plein, il y en aura de plus en plus. Donc, la capacité de demander « Écris-moi un texte sur telle affaire », tu ne te checkes pas, tu mets ça sur Facebook, c’est un problème. Pourquoi? Hallucination. Je pense qu’on fait le lien un petit peu. C’est beaucoup plus facile d’écrire des beaux textes avec de la fausse information que ça l’était avant, parce qu’avant, tu le faisais toi même ou tu le faisais faire par des gens qui étaient dans d’autres pays. Mais maintenant, c’est beaucoup plus facile. Donc, il faut s’assurer qu’à chaque fois qu’on développe des choses, surtout quand c’est automatisé, qu’on évite la propagation de fake news et de deep fake. Et finalement, au niveau de la vie privée, je pense que tout le monde est, si les gens ne sont pas conscients de ça, je pense qu’on va l’être de plus en plus. Attachons-nous, parce que c’est un des problèmes qu’on va voir de plus en plus. Il y a des histoires d’horreur en ce moment, des gens qui copient, collent des secrets commerciaux, les mettent dans des outils. Finalement, l’information est distribuée aux grandes entreprises.
[32min 52s]
Et là, tu viens de créer des failles de sécurité importantes. Mais c’est pour ça que chez Moov AI, notre position qu’on a, c’est un peu la position que j’ai dite tantôt, c’est un optimisme prudent. En fait, et j’utilise le dicton de Uncle Ben, pour ceux qui se rappellent de Spiderman, avec de grands pouvoirs viennent de grandes responsabilités. C’est pour ça qu’on a décidé, oui, on embarque. On embarque, on veut aider les clients, parce que si on ne le fait pas, les gens vont le faire par eux mêmes, vont peut-être le faire mal, vont peut-être promouvoir des fake news, créer plus de problèmes que des bénéfices. C’est pour ça que c’est important d’accompagner, mais en contrepartie, il faut qu’on puisse aider. C’est pour ça qu’on aide, de notre côté, par exemple, à la promotion de la loi sur les données et l’intelligence artificielle au Canada, le projet de loi C27. On aide à pouvoir accélérer les efforts. On a un rôle qui est très prédominant au niveau des normes ISO aussi, pour encadrer et contrôler le développement et l’utilisation de l’intelligence artificielle. Le but, c’est de dire qu’on va développer des choses utiles, mais en plus, on va s’assurer de les contrôler convenablement.
[34min 13s]
Ça, ça s’exploite de trois différentes façons. Premièrement, au niveau de l’éducation. Au niveau de l’éducation, par exemple, on a Delphine ici, qui est en charge de l’Académie Moov AI. On va s’assurer qu’on aide les gens dans l’atteinte de leurs objectifs. Ça, c’est sûr. On va aussi aider à développer des solutions. On a déjà commencé à le faire. Développer des solutions qui sont de bonne qualité, on les démontre avec des méthodologies d’apprentissage machine. Si on le fait pour des solutions traditionnelles, puis on est capable de démontrer que c’est des bonnes solutions et de pouvoir les déployer, on est capable de le faire pour des solutions d’IA générative. Et finalement, on veut bien comprendre les risques qui sont liés avec les solutions qu’on entreprend. Notre but, ce n’est pas de créer plus de problèmes, mais c’est de capitaliser sur les opportunités. Ici, je vais parler rapidement de risque. Je pense que c’est important. On va se faire un petit topo risques. Je vous ai amené ici pour ça. C’est une farce. Mais c’est des bons réflexes à avoir. Ici, je vais parler de quatre risques principaux. On va parler de risques fonctionnels. Tu bâtis une fonctionnalité. Au bout du compte, un modèle, c’est une fonctionnalité.
[35min 33s]
À l’inverse de ce que ChatGPT disait, que nous autres, on fait juste créer une plateforme qui répond à tout. Le but, c’est de créer des fonctionnalités qui répondent à tes besoins. Comment bien le faire? Au niveau de la société, comment s’assurer qu’on développe une solution qui est juste, qui est éthique? L’important, c’est de se poser les bonnes questions. Au niveau de la sécurité de l’information et finalement, d’un point de vue juridique. Ici, je vais passer à travers les différents risques. Au niveau des meilleures pratiques pour le risque fonctionnel, c’est de bien définir la tâche que tu fais accomplir. Comme plutôt, on a regardé plusieurs tâches. Donc, c’est important de bien découper de la façon qu’on veut attaquer notre problématique. Et ce n’est pas parce qu’on a un engin en avant de nous ou qu’on peut taper n’importe quel prompt, puis ça répond très bien à tout. On se dit « Pas besoin de scopé, on va juste avoir une barre de recherche, puis on va faire ce qu’on veut. » L’idéal, c’est vraiment de s’assurer qu’on ait une bonne performance par rapport à ce qu’on veut accomplir. Ça, c’est vraiment la base et je suggère à tout le monde de faire ça.
Meilleures pratiques pour les risques fonctionnels
[36min 53s]
Par la suite, ce qu’on va vouloir faire, c’est optimiser nos approches, optimiser nos prompts. Je vais vous montrer comment faire ça dans un instant. Et finalement, tu fais une validation. C’est un outil d’apprentissage machine, c’est un outil d’intelligence artificielle. Tu veux le valider avec plusieurs données, plusieurs prompts, plusieurs situations, comme on fait dans de l’intelligence artificielle traditionnelle. Ce n’est pas parce que ça fonctionne une ou deux fois qu’on peut prendre en considération que ça fonctionne toujours. Donc, ça aussi, c’est quelque chose que je propose, c’est d’utiliser des approches conventionnelles, des approches qui ont été éprouvées pour la validation et de valider ce qu’on développe. « OK, oui, ça fonctionne. » Et là, c’est quantifiable. « OK. Ce que j’ai voulu développer, ça fonctionne bien 90 % du temps. » Donc, tu es capable de pouvoir quantifier le pourcentage de bonnes réponses que tu obtiens. Ça, ça vaut beaucoup parce que ça te permet de pouvoir savoir si tu tires dans le pied ou pas à continuer le développement. Ici, je vais vous donner un exemple par rapport à l’optimisation des prompts. Ce que je parlais tantôt, puis c’est vraiment très… Je pense que tout le monde comprend que c’est très simpliste, c’est qu’on écrit un prompt « Fais-moi le poème sur les bottes de foin », ce n’est pas ça que tu vas transformer en un processus ou un produit.
[38min 29s]
Ce n’est pas ça. Ça ne fonctionnera pas bien. Moi, j’aime utiliser l’expression future proof ». Ce n’est pas quelque chose qui va te permettre de pouvoir déployer une solution qui va fonctionner à long terme. Ce que tu vas vouloir faire à la place. Oui, je vais donner un exemple. Excusez-moi. Je vais donner un exemple. C’est comme si je pose une question, je me développe un chatbot financier, puis je pose une question sur… Par exemple, identifie-moi trois faits intéressants dans le dernier état des résultats de Shopify. C’est une question légitime? Non, excusez-moi, ChatGPT, il est juste entraîné jusqu’à 2021. Ok, mais il ne sait pas ça. Puis là, si tu lui poses la question sur, par exemple, les états financiers de 2019, il va te sortir n’importe quoi. Les chiffres ne vont pas être les vrais. Pourquoi? Parce que c’est vraiment loin dans la mémoire de l’outil. Ce que tu veux faire à la place, c’est la meilleure façon de se tirer dans le pied, c’est de poser ton prompt, vanille comme ça. C’est pas la bonne approche. La bonne approche, c’est de lui fournir de l’information pertinente. Si à la place, tu vas lui trouver les états financiers manuellement, tu pourrais les copier-coller pour le tester.
[39min 42s]
Je vous suggère de le faire en passant. Vous allez être très agréablement surpris, mais de le faire programmatiquement dans une solution. Et là, tu te dis « Peux-tu m’identifier trois faits intéressants dans les états des résultats de Shopify basés sur ce document? » Copier-coller, c’est plein de chiffres. C’est difficile à lire pour lui-même, mais les outils de Generative AI sont capables d’interpréter l’information. Et ici, je l’ai testé. Est-ce que ça va te retourner? Ça va se retourner. Et les chiffres, en passant, ont été validés. Je ne l’ai pas fait de validé par Raymond Chabot de Grant Thornton. Écoutez, je pousse un petit peu, mais pas tant que ça. Mais ça donne des vrais faits, ça donne la bonne information et ça, c’est future proof. Donc là, tu viens de te créer, oui, certes, une petite complexité supplémentaire, mais ça en vaut la chandelle. Ici, si je reviens avec ma proposition, ça serait d’ajouter de l’information. Premièrement, c’est de partir avec une base de connaissances. Ta base de connaissances, ça peut être un FAQ, ça peut être des documents par rapport à ton entreprise. Moi, je veux savoir mon offre de service.
[40min 59s]
Dans mes projets, j’ai des post mortem, je les mets dans une base de données, puis après ça, je peux poser des questions à un outil de generative AI, puis il me répond. Tu te crées une base de connaissances, puis après ça, tu vas faire, dans le fond tu te fais recommander, donc tu te crées un outil simple de recherche qui te donne des recommandations. Ça serait quoi l’information que tu veux ajouter dans ton prompt? Par la suite, tu l’optimises et voilà, là, tu te retrouves à avoir un outil qui fonctionne bien, qui hallucine moins et qui est prêt pour le futur. C’est ce type d’outil que moi je propose d’utiliser parce que sinon, on se tire dans le pied. Au niveau des risques sociétales, il faut se poser les bonnes questions. Je pense rapidement, il faut se poser les bonnes questions. À défaut de se poser les bonnes questions, s’il vous plaît, n’automatisez rien. L’automatisation, quand on ne sait pas ce qu’on fait, c’est l’ennemi. On n’automatise rien avant de savoir poser les bonnes questions. Mais encore une fois, il faut se poser les bonnes questions. On ne sait pas ce qu’on ne sait pas, right?
Risques sociétaux et poser les bonnes questions
[42min 10s]
Il existe des outils pour ça. Je peux vous partager. Ce que je vais faire, c’est après, je vais vous partager une liste d’outils. Un des outils que j’aime bien, il s’appelle la grille de réflexivité. Je ne savais pas que c’était un mot, mais apparemment, c’est un mot. Sur les enjeux éthiques de système IA, qui a été développé par l’OBVIA. Qui est une organisation québécoise. Et ça ici, c’est par exemple les dix commandements, les dix des sujets, dix des catégories de risque. Et c’est vraiment intéressant parce que cette grille va donner des questions qui sont très précises. Comme par exemple… Mais c’est des questions qui te font réfléchir. Je vais vous donner certains exemples. Est-ce que votre système peut nuire au bien-être psychologique de l’usager? Dans certains cas, oui. Il y a à peu près un mois, il y a un suicide qui est arrivé à cause d’une utilisation abusive d’un chatbot. Je sais que c’est « cherry pick », mais c’est juste dire qu’il peut y avoir un lien entre le bien-être psychologique et l’utilisation de la technologie. Il faut juste être capable de comprendre si oui ou non, on peut affecter la société avec notre système.
[43min 31s]
Au niveau de la vie privée, bien entendu, on en a parlé tantôt. Au niveau de la prudence, c’est quoi le pire qui peut arriver? Est-ce qu’on a des mécanismes pour éviter que le pire se produise? Le pire qui peut se produire, ça serait de partager de l’information. Si c’est juste de partager de l’information à l’interne, mais après ça, tu as tout le temps quelqu’un qui va valider puis qui va corriger, ce n’est pas un gros risque. Mais si tu te retrouves à créer quelque chose qui est automatique, puis qui envoie de la fausse information ou qui prend des décisions financières, on propose d’avoir des mécanismes pour atténuer ces risques. Au niveau des responsabilités, qui, ultimement, est responsable pour la solution? On ne peut pas juste dire « J’ai roulé quelque chose, je pesais sur « run » ». Ça roule, c’est supposé faire une tâche, mais il n’y a personne dans l’organisation qui est en charge. La réponse est « Google est en charge parce que c’est leur solution. Non, non, non. Ce que vous développez, c’est vous qui êtes en charge. Donc, en d’autres mots, si on pense qu’on va utiliser ChatGPT pour automatiser un département, j’ai une petite nouvelle pour vous.
Sécurité de l’information et utilisation de l’API
[44min 44s]
Il y a quelqu’un qui va être en charge de ce nouveau département virtuel et toutes les mauvaises décisions qui sont prises vont être attribuées à cette personne. Est-ce qu’on est prêt en tant qu’organisation, à faire ça? C’est une autre bonne question. Je vous suggère fortement de vous poser les bonnes questions et d’essayer de répondre le mieux possible. Ça ne veut pas dire que vous allez canceller vos projets, mais vous allez les structurer différemment possiblement. Au niveau de la sécurité de l’information, ce que je vais proposer, puis on le voit en gras, c’est que premièrement, dès aujourd’hui, évitez de mettre de l’information sensible, que ce soit dans Bard ou dans ChatGPT. C’est deux solutions où l’information passe vers le créateur. Ce n’est pas pour des raisons de « On veut voler l’information pour dominer le monde.» Ce n’est pas pour ça. C’est pour en savoir plus sur les codes d’usage qui sont pris pour être capable de pouvoir en savoir plus sur l’utilisation de la technologie. Mais, il faut éviter, c’est un risque au niveau de la sécurité de notre information en entreprise. Et personnellement, ne rentrez pas vos numéros d’assurance sociale. Il y a plein de choses qu’on veut éviter de faire.
[46min 05s]
Je me demande si tout le monde connaît mon nom basé sur mon numéro d’assurance sociale. Ce n’est pas un bon prompt. Aussi, l’autre élément, ça, c’est pour des outils B2C qui sont gratuits. On sait qu’il n’y a rien de gratuit dans ce bas monde. Ça, c’est un exemple. Mais aussi, pour l’instant, ce que je propose, c’est d’éviter l’utilisation des API d’ OpenAI. Openai présentement, parce qu’ils utilisent l’information pour le réentraînement, donc les outils actuels, pour des cas où la sécurité d’information est plus accrue, par exemple, on crée un chatbot où vraiment c’est l’usager final qui communique. Donc, tu ne peux pas contrôler l’information qui est divulguée. Dans ce cas ci, j’utiliserais probablement d’autres alternatives, comme par exemple d’utiliser Google, d’utiliser Microsoft directement. Les services professionnels, eux, garantissent le fait que l’information ne va pas sortir de notre environnement à nous. C’est beaucoup plus réconfortant. Et après, ici, j’ai une petite proposition pour les entreprises que j’entends justement qui commence à être une proposition que les gens adoptent, c’est de créer leur propre plateforme d’IA générative. Si on commence à le voir de plus en plus, ici, le use case est très simple. Si je travaille chez Pratt & Whitney Canada, puis je commence à utiliser ChatGPT, copie et colle, je veux valider des pièces de rechange, c’est quoi dans ce matériel d’instruction, les pièces de rechange, les besoins pour faire telle réparation?
Risques juridiques et considérations sur le droit d’auteur
[47min 51s]
C’est un bon use case, mais si tu le tests, ça veut dire que tu viens de donner tes spécifications techniques de ton moteur à OpenAI. Tu veux probablement pas faire ça. À la place, qu’est-ce que tu peux faire? Tu peux utiliser les versions professionnelles. Premièrement, tu pourrais utiliser les versions professionnelles, que ce soit Google ou Microsoft, les deux offrent ces capacités et tu crées un interface, puis l’affaire est ketchup. Donc là, tu viens de créer un interface, tu peux l’appeler comme tu veux. Pratgpt, tu peux t’amuser, tu mets des belles couleurs. Tu viens de réduire un risque à l’utilisation de la technologie. Tu n’empêches pas. Le pire ça pourrait être d’empêcher d’utiliser la technologie parce que c’est impossible d’empêcher l’utilisation de l’IA générative. À la place, tu viens contrôler la sécurité autour de ça et tu peux même pousser plus loin. Tantôt, je parlais de base de connaissance. Mon Pratgpt, je peux lui donner accès à toute ma documentation technique. Comme ça, je peux poser des questions, puis il répond des bonnes réponses. Tu peux créer cette interface et vraiment faire bénéficier ton organisation. Ça, c’est un exemple qui, en tant que tel, résout beaucoup de problèmes.
[49min 12s]
Moi, je suis un gars de solution. C’est pour ça que j’aime proposer celle-ci, parce que c’est tellement élégant. Finalement, on va finir avec les risques juridiques. Sur ça, on en parle beaucoup. Droit d’auteur, plagiat. Oui, il peut y avoir ces problèmes-là. Donc, de une, moi, ce que je propose, c’est premièrement d’évaluer le risque que ça arrive. Il y a certains risques comme l’analyse de sentiments, il n’y en a pas. Tu demandes si c’est positif ou négatif basé sur de l’information. Donc, il n’y a aucun risque. Dans certains cas, il y aura un risque qui est nul ou négligeable, mais dans certains cas, le risque va être très élevé. Je suis un journaliste, je suis je veux me faire aider dans la création de mon article, ça l’a un risque qui est plus élevé au niveau du plagiat, au niveau de la propriété intellectuelle. Je veux faire automatiser le développement de code. Tu peux te retrouver à utiliser des portions qui ont une licence commerciale, donc que tu ne devrais pas pouvoir utiliser. Et tu ne le sais pas, parce que c’est tellement élégant l’extrant que des fois, tu peux être pris de cours. Dans ce cas-ci, moi, ce que je propose, c’est que dans les cas les plus extrêmes où justement il y a un risque important au niveau des droits d’auteur, je proposerais d’éviter d’utiliser ChatGPT précisément, parce que GPT, c’est une des solutions qui existent en ce moment, qui n’ont pas clarifié qu’ils utilisent juste de l’information publique.
Solutions alternatives pour les risques de droit d’auteur
[50min 55s]
Donc eux, leur position est floue présentement. Donc dans ces cas là, c’est peu de cas, mais quand même, quand ça arrive, il existe GPT 3, il existe GPT 4, il existe PALM, il existe plusieurs autres outils qui peuvent s’adresser pour résoudre ce cas-là. Et finalement, tu peux aussi prendre la problématique différemment. Donc, tu peux à la place, tu génères quelque chose et tu vas venir le faire valider. Par exemple, d’un point de vue journalistique, il existe des outils qui valident s’il y a du plagiat. Donc, tu peux te retrouver à ajouter et peaufiner ton outil pour minimiser les risques. J’espère que je n’ai endormi personne à parler de risques, mais c’est important pour moi. Donc merci d’avoir resté. Je n’ai même pas vu personne bailler. Je me donne une petite tappe sur l’épaule. Donc, en conclusion, je l’ai répété, puis je vais le répéter encore. Mais c’est important d’embarquer maintenant, c’est important d’utiliser la technologie. Il y a tellement de bénéfices qu’on peut retirer de ces approches, de ces outils de l’IA générative, mais il faut bien le faire. Quand on fait bien les choses, on réussit à avoir les upsides, mais on réussit à minimiser les downsides.
[52min 08s]
Sur ce, merci beaucoup pour votre écoute.
Olivier est cofondateur et VP science de la décision chez Moov AI. Il est éditeur de la norme ISO internationale qui définit la qualité des systèmes d’intelligence artificielle où il mène une équipe de 50 professionnels de l’IA de partout dans le monde. Ses connaissances de pointe en IA et en apprentissage machine l’ont amené diriger la mise en oeuvre d’une culture des données dans différentes industries.
Le projet de loi canadien C-27 : qu’est-ce que c’est et comment agir pour éviter un impact coûteux
J’ai écrit à plusieurs reprises sur la nécessité d’une législation sur l’IA et sur le fait que le paysage de l’IA ressemble parfois au Far West. Le projet de loi C-27 du Canada est l’une des réponses du gouvernement que j’attendais.
Dans cet article, j’explique ce qu’est le projet de loi C-27, comment votre entreprise en sera touchée, et mon point de vue sur son impact sur le domaine de l’intelligence artificielle.
Qu’est-ce que C-27?
C-27 est un projet de loi qui promulgue la Loi sur la protection des renseignements personnels des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données, et apporte des modifications corrélatives et connexes à d’autres lois.
Wow, quel nom interminable ! Essentiellement, le projet de loi C-27, également appelé « Loi de mise en œuvre de la Charte numérique », est une proposition de loi canadienne qui a été publiée en juin 2022 dans le but de protéger les données personnelles des individus. Le C-27 pourrait être considéré comme l’équivalent du GDPR (General Data Protection Regulation) européen « modernisé », avec une portée plus large, étant donné qu’il couvre la fiabilité des systèmes d’IA et le droit à la vie privée.
Cette loi est exhaustive et s’applique aux renseignements personnels que les organisations recueillent, utilisent ou divulguent dans le cadre d’activités commerciales, ou aux renseignements personnels concernant un employé ou un candidat à un emploi auprès de l’organisation et que celle-ci recueille, utilise ou divulgue dans le cadre de l’exploitation d’une entreprise fédérale.
Ce que signifie C-27 en bon français
Essentiellement, cette loi garantit que les entreprises prennent au sérieux la confidentialité des informations de leurs clients et employés qu’elles collectent, utilisent ou divulguent.
Quelles sont les principales différences entre le GDPR et la loi C-27 ?
Bien qu’elle utilise des clauses et des termes différents, la loi C-27 couvre fondamentalement les mêmes droits que le GDPR (droits d’accès, de refus du marketing direct, de portabilité des données ou d’effacement). Toutefois, le champ d’application de C-27 est plus large, car elle couvre explicitement les données des employés.
C-27 couvre aussi explicitement les applications d’intelligence artificielle puisqu’elles utilisent et génèrent des données. Plus précisément, cette loi exigera que :
- Les consommateurs ou les employés impactés par une application d’IA puissent demander des explications claires et spécifiques liées à la prédiction du système.
- Les applications d’IA à fort impact effectuent une évaluation des biais négatifs potentiels et des discriminations injustifiées qui peuvent traiter négativement des populations ou des individus spécifiques.
- Les applications d’IA à fort impact documentent les risques associés aux biais négatifs ou aux résultats néfastes de l’application, identifient les stratégies d’atténuation et démontrent la surveillance de ces risques.
Pourquoi s’en préoccuper ?
Premièrement, il s’agit d’un document législatif nécessaire pour garantir la sécurité des données des résidents canadiens. Par exemple, six mois seulement après la lente et pénible mise en œuvre du GDPR en Europe, 44% des répondants à un sondage Deloitte estiment que les organisations se soucient davantage de la vie privée de leurs clients maintenant que le GDPR est en vigueur. C’est puissant.
Cependant, cela signifie qu’une quantité considérable de travail doit être entreprise pour se conformer à la C-27. Près de la moitié de toutes les organisations européennes ont réalisé un investissement important dans leurs capacités de conformité au GDPR, et 70% des organisations ont constaté une augmentation du personnel qui se concentre partiellement ou entièrement sur la conformité au GDPR. Cependant, 45 % de ces organisations ne sont toujours pas en conformité avec le GDPR. Selon le « GDPR enforcement tracker », depuis juillet 2018, 1317 amendes ont été émises.
Le projet de loi C-27 va-t-il générer autant de chaos pour les entreprises canadiennes ? Probablement pas. Les organisations canadiennes ont déjà commencé à s’adapter à cette nouvelle ère de la confidentialité des données. Le GDPR n’est plus nouveau ; il a été annoncé en 2016 et est entré en vigueur en mai 2018. Nous avons beaucoup appris depuis lors. Par exemple, 85 % des organisations canadiennes ont déjà nommé un délégué à la protection des données (CDPO), et la plupart des outils tiers ont adapté leurs produits et services pour respecter la confidentialité des données.
En d’autres termes :
- Le C-27 va être appliqué. C’est certain.
- C’est sérieux. En Europe, environ 20 % des personnes ont déjà utilisé leurs droits dans le cadre du GDPR.
- Plus vous serez proactifs, plus votre mise en œuvre sera simple et sans heurts.
- Ce n’est pas la fin du monde. Vous pouvez vous mettre en conformité sans dépenser des millions de dollars.
Ceci étant dit, vous devez commencer à préparer votre organisation à la mise en œuvre de la loi C-27.
Voici quatre mesures que vous pouvez prendre dès maintenant pour vous préparer à C-27.
1. Maîtrisez vos processus de collecte et de gestion des données.
Maintenez une bonne hygiène des données afin d’être en mesure de mieux contrôler les données personnelles dans vos différents outils, systèmes et bases de données.
2. Commencez à adopter les techniques de dépersonnalisation des données afin de minimiser l’empreinte des informations personnelles dans votre organisation.
Un excellent moyen de limiter la quantité de données personnelles entrant dans vos bases de données est de limiter leur utilisation. Cela peut se faire en éliminant ou en réduisant le nombre de bases de données, de tableaux et de champs contenant des données personnelles, ce qui réduira considérablement la complexité de la mise en conformité avec la norme C-27. Voici quelques techniques de désidentification :
- Désidentifier : modifier des informations personnelles pour réduire les chances qu’une personne puisse être directement identifiée à partir de celles-ci.
Les méthodes de hachage sont un exemple de désidentification, car les utilisateurs côté affaires ne peuvent pas identifier les personnes qui utilisent les données. Néanmoins, les équipes TI et de sécurité peuvent convertir les hachages en données identifiables si nécessaire. Les techniques de désidentification sont autorisées si des processus et des politiques appropriés sont en place pour les protéger.
Dans les systèmes d’IA, les techniques de désidentification permettent de faire des prédictions. Par exemple, sans connaître le code postal exact, les individus du code postal 12345 auront des caractéristiques similaires. Toutefois, leur pouvoir prédictif est limité par rapport aux données réelles. Par exemple, il est impossible de calculer la distance entre les codes postaux s’ils sont hachés. - Anonymiser : modifier les informations personnelles de manière irréversible et permanente, conformément aux meilleures pratiques généralement acceptées, afin qu’aucun individu ne puisse être identifié à partir de ces informations, que ce soit directement ou indirectement, par quelque moyen que ce soit.
Il s’agit d’une méthode rigoureuse de protection de la vie privée qui ne devrait pas être la méthode par défaut dans une stratégie de science des données. Par défaut, les organisations devraient dépersonnaliser les données autant qu’elles le peuvent et n’utiliser l’anonymisation que lorsqu’il n’y a pas d’autre choix. Par exemple, les textes libres et les transcriptions d’appels peuvent contenir des informations très privées et identifiables qui sont assez complexes à désidentifier. Dans ces cas, l’anonymisation est nécessaire. - Générer des données synthétiques : créer des données complètement synthétiques et réalistes à partir de données existantes afin qu’il soit possible de développer des applications d’analyse et d’IA sans risquer des problèmes de confidentialité.
Aujourd’hui, de nombreux outils et algorithmes permettent aux organisations de générer des données synthétiques réalistes sans mettre en péril les données personnelles réelles. Cette technique permet aux organisations de construire des applications d’IA avec n’importe quel type de données, identifiables ou non, sur des données tabulaires, textuelles ou même des images.
Accenture rapporte que même les IRM cérébrales seront bientôt générées synthétiquement par certaines organisations, réduisant ainsi les failles de sécurité potentielles, et permettant des projets plus transformateurs étant donné que les données sont moins restrictives. La génération de données synthétiques est essentielle pour ce cas d’utilisation car la structure du cerveau est unique et une IRM peut être utilisée pour identifier un individu. Par conséquent, dans le cadre des politiques habituelles de protection de la vie privée, l’utilisation de ces données identifiables peut être risquée et serait généralement interdite ou découragée par les organisations. Les données synthétiques ouvrent la porte à des possibilités de générer de la valeur plus facilement tout en atténuant les risques liés à la vie privée.
Vous devrez renforcer vos mesures de sécurité pour démontrer que la sécurité relative à vos ressources matérielles, organisations et techniques est sûre en ce qui concerne la confidentialité des données. Une bonne première étape consiste à documenter une PSI (politique de sécurité de l’information). Ensuite, vous pourriez découvrir des irrégularités que vous devrez gérer. Voici un lien vers des modèles pratiques du SANS.
En conclusion, il est essentiel de choisir la bonne stratégie pour dépersonnaliser vos données. Veillez à ne pas être trop restrictif, car la suppression des informations personnelles peut limiter la valeur que vous pouvez tirer des applications d’analyse et d’IA. Voici une ressource utile d’EDUCAUSE pour vous guider dans cet exercice.
3. L’explicabilité devient une nécessité lors de la construction de tout système d’IA.
Non seulement les individus auront le droit de comprendre les raisons qui sous-tendent les prédictions, mais c’est également un outil utile pour valider la qualité de votre système d’IA.
Les exigences d’explicabilité empêchent-elles les organisations d’utiliser des algorithmes d’IA et d’apprentissage automatique plus sophistiqués ? Non. En fait, au cours de la dernière décennie, la communauté universitaire a collaboré à la création d’outils et de techniques permettant de générer des explications pour des algorithmes potentiellement très complexes.
Aujourd’hui, le défi ne vient pas de l’explicabilité elle-même mais de l’explication en termes simples des raisons qui sous-tendent la prédiction. Une bonne expérience utilisateur sera nécessaire pour rendre les explications significatives.
4. Les questions éthiques et la gestion des risques liés aux préjugés négatifs sont d’autres questions que les organisations doivent aborder avec le C-27.
Plus concrètement, les organisations devront adopter une approche de gestion des risques, qui consiste à dresser la liste des risques potentiels, à estimer les probabilités et les impacts, puis à établir des plans d’atténuation. Il s’agit d’un mécanisme simple mais efficace pour gérer la plupart des risques dans un projet d’IA.
Pour vous aider à démarrer, certains acteurs du secteur ont créé des ressources très utiles qui vous permettent de réaliser une auto-évaluation. Voici deux ressources utiles pour identifier et traiter les risques liés à l’éthique et aux préjugés négatifs :
- Voici une excellente ressource qui énumère et décrit les risques les plus pertinents pour un système d’IA. Ce travail vise à y contribuer en identifiant les sources de risque pertinentes pour les systèmes d’IA. À cette fin, les différences entre les systèmes d’IA, notamment ceux basés sur des méthodes modernes d’apprentissage automatique, et les logiciels classiques ont été analysées, et les domaines de recherche actuels de l’IA de confiance ont été évalués.
Une taxonomie pourrait alors être créée pour donner un aperçu des diverses sources de risque spécifique à l’IA. Ces nouvelles sources de risque devraient être prises en compte dans l’évaluation globale des risques d’un système basé sur des technologies d’IA, examinées quant à leur criticité et gérées en conséquence à un stade précoce afin d’éviter une défaillance ultérieure du système. - L’OBVIA s’est associé à Forum IA Québec pour créer une excellente grille de réflexivité sur les enjeux éthiques des systèmes d’intelligence artificielle. Présentée sous la forme d’un questionnaire à réponses ouvertes, cette grille a été conçue pour aider les membres des équipes qui conçoivent, mettent en œuvre et gèrent les systèmes d’IA à réfléchir aux questions éthiques soulevées par le développement et l’utilisation de ces nouvelles technologies.
Cette grille s’inscrit dans une perspective de recherche participative et vise à développer des outils éthiques utiles aux praticiens. Elle est destinée à être en constante évolution à la lumière des besoins et des expériences des acteurs susceptibles de l’utiliser.
Je pense que des outils d’auto-évaluation comme celui-ci sont la voie à suivre car ils assurent une certaine rigueur dans l’évaluation tout en rendant le processus moins pénible pour les utilisateurs finaux.
C-27 s’accompagnera d’un ensemble d’exigences complet et strictes
En conclusion, le C-27 s’accompagnera d’un ensemble d’exigences complet et strict. Bien que ce soit pour le bien de tous, les organisations devront faire de gros efforts pour se préparer. Il existe des moyens intelligents d’être en conformité tout en ne mettant pas en péril votre processus d’innovation ; purger toutes vos données ou ne pas faire d’IA ou d’applications analytiques n’est pas une option valable. L’aspect positif de cette situation est que les solutions pour se conformer à C-27 sont des opportunités pour générer de la valeur supplémentaire.
En contrôlant votre processus de collecte et de gestion des données, vous gagnerez en maturité, ce qui devrait avoir un impact positif sur la collecte et la qualité des données.
En utilisant des techniques de dé-identification, des techniques d’anonymisation uniquement lorsque c’est nécessaire, et en générant des données synthétiques, vous réduirez considérablement les risques de sécurité tout en poursuivant des applications d’IA qui semblaient trop risquées auparavant. Cela facilitera la gestion du changement. Les données synthétiques peuvent également être utilisées pour produire des ensembles de données plus importants, ce qui aidera à construire des applications d’IA performantes.
En investissant dans l’explicabilité de vos applications d’IA, vous ne vous conformerez pas seulement à la norme C-27, mais vous réduirez aussi considérablement les efforts de validation et de gestion du changement, car les utilisateurs finaux et les parties prenantes pourront être rassurés lorsque les explications correspondront à leur réalité.
Enfin, en évaluant et en agissant sur les risques de biais éthiques et négatifs, vous vous assurez que votre organisation ne discrimine pas les consommateurs ou les employés, ce qui peut être catastrophique d’un point de vue juridique, réputationnel et sociétal.
C-27 est bon pour la population et aidera les organisations à faire un meilleur usage de leurs données.
Olivier est cofondateur et VP science de la décision chez Moov AI. Il est éditeur de la norme ISO internationale qui définit la qualité des systèmes d’intelligence artificielle où il mène une équipe de 50 professionnels de l’IA de partout dans le monde. Ses connaissances de pointe en IA et en apprentissage machine l’ont amené diriger la mise en oeuvre d’une culture des données dans différentes industries.
Neuf rôles essentiels pour la réussite d’un projet d’intelligence artificielle
Bâtir, déployer et maintenir une solution d’intelligence artificielle n’est pas une tâche simple. Pour ce faire, vous avez besoin d’une équipe performante dont les talents et les compétences sont complémentaires.
Quelle est la composition de l’équipe optimale pour mener à bien un projet d’IA? Ce n’est pas une question facile… La réponse varie en fonction du type de projet et du type d’organisation pour laquelle vous travaillez.
Basés sur mes apprentissages et sur l’expérience de livraison de projet acquise en accompagnement de nombreuses entreprises dans différents secteurs, voici les neuf rôles essentiels pour créer et livrer un projet d’IA.
Dans ce texte, je parle de rôle. Un employé peut remplir plusieurs rôles selon ses compétences. L’idée est que l’ensemble de votre équipe couvre les différents rôles qui vous permettront de maximiser vos chances de réussite.
Neuf rôles essentiels dans une équipe de projet d’intelligence artificielle
La science des données
La science des données est un incontournable dans tout projet d’IA. J’ai souvent entendu dire que le scientifique des données est le seul rôle nécessaire pour bâtir une solution solide. Ce n’est pas le cas. De nombreuses tâches doivent être réalisées pour assurer la réussite de votre projet. C’est impossible pour un scientifique de données de tout prendre en charge à lui seul. Je ne crois pas aux licornes.
Généralement, je divise les activités de science des données en 3 rôles distincts :
L’analyse des données
Les données sont la fondation d’une solution d’IA. Sans elles, la solution ne peut pas fonctionner . Il est primordial d’analyser correctement les données qui seront utilisées durant votre projet. C’est la tâche de l’analyse des données.
Le modèle d’apprentissage machine (ML)
Une fois les données définies, un modèle d’apprentissage machine peut être entraîné, validé et testé pour générer des prédictions. Si tout va bien, vous pourrez ensuite intégrer vos prédictions dans une solution.
La conception d’expérience utilisateur (UX)
La conception UX est l’un des aspects les plus négligés d’une solution d’IA. Pour moi ce rôle est essentiel. Comment l’utilisateur final accédera-t-il aux résultats de la solution ? Comment s’assurer qu’il comprendra et fera confiance aux résultats ? Le concepteur UX travaille à faire comprendre le modèle afin de le traduire dans un langage non technique puis dans une utilisation par les utilisateurs finaux.
Développement
Le développement est malheureusement souvent sous-estimé dans un projet d’IA. Pourtant, de nombreuses heures de développement logiciel sont nécessaires pour développer et déployer une solution d’IA opérationnelle. De nombreuses infrastructures, processus et outils non liés à l’apprentissage machine sont nécessaires pour réaliser une solution fonctionnelle.
Vous aurez besoin d’une expertise spécifique pour opérationnaliser l’IA et construire une solution robuste basée sur les données, les modèles d’apprentissage machine et de l’UX que les rôles de la science des données auront produite.
L’architecture de la solution
Comme le démontre la figure ci-dessus, de nombreux éléments sont nécessaires pour développer une solution. Cet ensemble de compétences est essentiel pour dessiner l’architecture logicielle d’une solution d’IA qui répondra aux exigences de l’utilisateur final.
Le développement de bases de données et de logiciels
Une solution d’IA est une solution logicielle. Une solution spécifique, mais une solution logicielle quand même. D’où l’importance d’avoir des bases de données, des scripts et des API robustes et efficaces qui soutiennent le modèle. Si vous ne comptez que sur les scientifiques de données pour développer une solution d’IA, vous serez déçu. Peu de scientifiques de données maîtrisent à la fois le développement de logiciels et la science des données. Encore une fois, je ne crois pas aux licornes.
L’opérationnalisation de la solution
La mise en production d’une solution d’intelligence artificielle est une combinaison de DevOps et de MLOps. DevOps est un ensemble de pratiques qui vise à raccourcir le cycle de développement et à assurer une livraison continue avec une qualité logicielle élevée. MLOps est un processus d’automatisation, de mise en production d’applications et de flux de travail d’apprentissage machine. (Source : phdata)
Affaires
Tout projet d’IA au sein d’une organisation doit tenir compte du contexte d’affaires. La technologie ne peut résoudre aucun problème si elle ne s’aligne pas sur la problématique de l’entreprise.
Connaissance du marché
Ce rôle est le plus important dans un projet d’IA. Oui, un rôle non technique. Le responsable du produit ou Product Owner (PO) veille à ce que la solution réponde aux besoins du marché. Un excellent PO peut générer des résultats rapidement et minimiser les risques en élaborant des règles d’affaires et en définissant les exigences business de la solution d’IA. Le PO veille également à ce que l’équipe de projet acquière les connaissances du marché qui sont essentielles au développement de la bonne solution. Le PO est en contact permanent avec les parties prenantes tout au long du projet.
Le principe de Pareto dans la livraison de l’IA
La gestion de projet
La plupart des problèmes que vous rencontrerez dans un projet d’IA peuvent être résolus si le projet est bien géré. Le chargé de projet guide l’équipe afin qu’elle fournisse des fonctionnalités de haute qualité qui répondent aux exigences de l’entreprise, dans le respect des délais et du budget. Il s’agit d’une tâche complexe qui demande un certain doigté. Je vous suggère de choisir une personne ayant de l’expérience pour occuper ce rôle.
La gestion du changement
Vous pouvez construire la meilleure solution d’IA de l’histoire de l’humanité, mais si personne ne l’utilise, vous venez de perdre une opportunité. Et de l’argent. Et du temps. La communication, la formation et le soutien pendant les tests utilisateurs sont des activités essentielles pour garantir une adoption optimale par les parties prenantes et les utilisateurs finaux.
La réussite d’un projet
Les 9 rôles proposés permettent de couvrir l’ensemble d’un projet d’IA. Identifier qui occupera chacun de ces rôles en début de projet augmente les chances de succès.
Chez Moov AI nos équipes de projets sont généralement composées de 5 collègues qui, ensemble, couvrent tous ces rôles et se répartissent les tâches à accomplir. Nos équipes étant autogérées, elles s’assurent que ces rôles soient couverts par des parties prenantes externes si aucun membre de l’équipe ne possède les compétences pour accomplir un de ces rôles.
Olivier est cofondateur et VP science de la décision chez Moov AI. Il est éditeur de la norme ISO internationale qui définit la qualité des systèmes d’intelligence artificielle où il mène une équipe de 50 professionnels de l’IA de partout dans le monde. Ses connaissances de pointe en IA et en apprentissage machine l’ont amené diriger la mise en oeuvre d’une culture des données dans différentes industries.
La science de données et l’analytique pour voir les opportunités pendant la crise
Pendant qu’on essaie toujours de comprendre comment survivre dans ce nouveau contexte de pandémie qui nous a frappés soudainement de plein fouet, qui nous force à travailler de la maison (pour les chanceux qui peuvent toujours travailler), nous devons nous adapter à ce nouveau contexte qui risque de durer assez longtemps. C’est la même chose pour nos entreprises.
Je pense que toutes les entreprises devraient se préparer avec ces 3 éléments en trame de fond :
- Cette pandémie risque de durer encore quelques semaines sinon quelques mois.
- Les entreprises et l’économie en général peuvent prendre des années à s’en remettre.
- Cette crise risque de changer fondamentalement nos habitudes à tout jamais.
Néanmoins, la vie continue. Il faut se relever les manches et agir pour que nos entreprises (et nous) passions au travers! On est tous dans le même bateau!
Comme l’a dit le désormais célèbre directeur de la santé publique du Québec, Horacio Arruda, utilisons cette pause pour repenser nos façons de faire.
C’est dans cette optique que nous avons écrit cet article. Nous avons cru bon de partager des conseils concrets pour mieux passer à travers de la crise avec la science des données et mieux se positionner pour la reprise.
Voir le verre à moitié plein
Il est tout à fait normal de s’alarmer de l’état actuel, mais je vous propose de demeurer opportuniste et calme pour être capable de tirer le meilleur de la situation et d’agir vite. Car il y a des opportunités, même en temps de crise (promis, vous ne verrez pas de citation de Churchill ici… ;).
En discutant avec nos clients et des entreprises de tout acabit, nous voyons actuellement 2 grandes tendances dans les contextes d’affaires.
- Des entreprises qui ont été frappées de plein fouet par le ralentissement économique soit directement, parce qu’il y a une réduction de toutes activités non essentielles, ou indirectement parce qu’elles desservent des entreprises directement touchées.
Certes, ces entreprises sont en mode survie, mais elles peuvent clairement bénéficier d’insights en analysant leurs données pour optimiser les activités à court et moyen termes. Ce serait une erreur de paniquer et d’opérer sans analyser clairement la situation qui se trouve en face d’eux. - Des entreprises plus fortunées sont soit en mesure d’opérer au maximum de leur capacité à distance ou ont été déclarées essentielles par le gouvernement. Des entreprises dans le domaine alimentaire, médical, logistique, télécommunication et autre font tout ce qu’elles peuvent afin de desservir pleinement leurs clients tout en protégeant leurs employés.
Encore une fois, des insights peuvent être générés, mais cette fois pour s’assurer que leurs opérations soient bien optimisés et qu’elles fassent leur travail avec un maximum d’efficacité.
Questionner les hypothèses du passé
Une des difficultés actuelles est de bien comprendre le contexte dans lequel nous vivons présentement : l’isolation, la peur et le stress créent des changements dans le comportement des humains. Et personne n’a de boule de cristal pour prédire les prochains mois.
Bien que désolante, cette situation peut être source d’opportunités. Une chose est certaine, pour les prochaines semaines, il sera capital d’évaluer l’évolution du comportement de vos prospects, clients et utilisateurs avec soin. Et après avoir examiné la situation, il est important de s’adapter!
Le site Glimpse peut être un bon indicateur pour trouver des tendances sur certains de vos produits pour vous aider à prendre de meilleures décisions.
Les opportunités
Tout commence par la capture de données, puis par l’analytique!
Revoir votre approche marketing en utilisant les données
D’un point de vue marketing, il est capital de comprendre les nouvelles tendances des utilisateurs. La crise actuelle change les comportements drastiquement comme nous l’avons vu ci-haut.
Comportement des visiteurs
En termes plus concrets, je vous conseille d’analyser le nombre d’achats et visites sur les pages de chacun de vos produits ou catégories de produits. De cette façon, vous serez en mesure de mettre de l’emphase sur les produits les plus populaires, et pourrez possiblement mettre en veilleuse, ou complètement à l’arrêt certains produits moins essentiels.
Un des avantages d’une crise, c’est que les changements se font subitement. Par conséquent, vous serez en mesure de facilement voir les variations dans vos données.
Segmentation des clients
La segmentation des clients peut aussi être utile pour vous en ce moment. En analysant les différents types de clients, vous pouvez aussi identifier lesquels sont plus à même de consommer vos produits et services.
Vous pouvez vous inspirer des types de requêtes de mots clés pour atteindre votre site, des champs d’intérêt ou des caractéristiques démographiques ou géographiques pour présenter le bon message et faire convertir les prospects qui ont le plus de potentiel de faire affaire avec vous.
Des outils gratuits pouvant vous aider pour ce faire :
- Google Search Console (mots clés)
- Google Analytics (cueillette de donnée web)
- Google Data Studio (visualisation)
Vous pourriez aussi, par exemple, modifier vos pages de catégorie de produits, ou votre page d’accueil, pour montrer en premier les produits ayant plus de ventes depuis le début de la crise. Vous pouvez aussi monter des pages produits, ou des promotions par segment.
Dans le but de simplifier vos opérations, vous pourriez aussi mettre plus d’efforts à promouvoir vos produits phares et sans doute retirer certains de vos produits qui ne convertissent pas.
Analyser vos campagnes marketing et vos annonces
Au niveau des campagnes, je vous conseille d’analyser leur pertinence et de garder un œil ouvert sur les conversions. Malgré le changement de comportement de vos clients, certaines campagnes ont peut-être toujours un ROI positif, il serait donc coûteux de retirer tout votre budget en bloc.
En ce qui a trait aux ventes, il est possible d’analyser les actions qui mènent à des conversions. Par exemple, si certains types de courriels favorisent la conversion, il serait judicieux d’en être informé pour mousser des ventes futures.
Tournez-vous vers la vente proactive
Une autre opportunité potentiellement intéressante se situe au niveau des ventes proactives. Si vous avez des clients qui rachètent des produits à une certaine fréquence, il serait intéressant de mesurer le temps entre 2 achats.
De cette façon vous pouvez monter une liste de clients « semblables » à vos clients proactifs, à qui vous pouvez proposer ces mêmes produits au même cycle d’achat.
Bouger votre boutique en ligne
Une autre opportunité se situe au niveau de la numérisation des ventes, avec la vague de travail de la maison. Si vous n’êtes pas en ligne actuellement, c’est urgent pour vous d’opter pour développer une stratégie commerciale numérique.
Vous pouvez notamment opter pour une plateforme qui permet de faire le pont entre votre boutique physique et votre boutique en ligne, en utilisant une plateforme déjà existante comme la canadienne Shopify qui facilitera la création de boutiques en ligne, la gestion d’inventaire, etc.
Sinon, vous pouvez décider de vendre vos produits au travers d’un fournisseur existant comme Amazon. Il peut s’agir d’un choix judicieux puisque vous pouvez être opérationnel très rapidement et accéder aux centaines de milliers de prospects déjà présents sur la plateforme.
Le but est bien entendu de créer une solide présence en ligne, qui inclut votre propre plateforme pour accompagner vos clients au travers de leur cycle de vie. Investissez également du temps pour bien paramétrer la cueillette d’information sur vos plateformes dès le départ pour bien pouvoir analyser vos données par la suite.
Petite parenthèse
Quelle sera la première entreprise tech québécoise à proposer une plateforme de commerce en ligne à la Amazon qui propose exclusivement l’achat en ligne de boutiques locales?
Revoir vos processus après avoir analysé vos données
Automatisation de la prise en charge de vos prospects avec un chatbot
Si vous avez déjà un site web fonctionnel et optimisé, vous pourriez bénéficier de l’automatisation rapide de la prise en charge des prospects avec des chatbots tels que Heyday, un chatbot fait 100% au Québec.
Cet outil permet rapidement à votre équipe de ventes de se concentrer davantage sur la conversion des prospects. En plus, ils offrent leur outil gratuitement pour 3 mois.
Vérifier les anomalies dans les opérations
Pour vous assurer que les opérations demeurent optimales, surtout au point de vue des entreprises essentielles, vous voudriez probablement suivre de près les anomalies dans vos opérations.
Voici certains exemples d’opérations :
- Temps de téléchargement de page web (load time)
- Nombre de requêtes sur votre API
- Nombre d’erreurs sur votre logiciel
- Ratio de disponibilité de vos services (up time)
- Temps de livraison moyen
- Télémétrie de votre machinerie
La mesure de ces anomalies permettrait de vous assurer que vos activités sont toujours supportées par vos systèmes ou votre machinerie. S’il y a un nombre important d’anomalies, vous voudrez sûrement investiguer pour comprendre si de la maintenance, ou une mise à jour de votre infrastructure est nécessaire.
Automatiser les processus simples ou manuels
Vous pouvez aussi gagner à automatiser certains de vos processus.
Par exemple, le seul fait de préremplir certains formulaires ou mettre à jour des fichiers Excel pourrait retirer certaines dépendances dans vos processus.
On a tendance à prendre ces processus simples ou manuels pour acquis, mais on voit plusieurs entreprises à risque puisqu’elles reposent sur eux pour assurer les opérations de l’entreprise. En temps de crise, de baisse de revenu, de mise à pied d’employés, de travail à la maison, ça peut devenir problématique. De plus, vous aurez peut-être besoin de cette main-d’œuvre ailleurs.
Imaginez si toutes vos manipulations Excel reposaient dans un logiciel et que toutes les actions manuelles qui doivent être exécutées chaque mois étaient faites automatiquement. À court terme, il est possible d’automatiser ces manipulations Excel assez facilement. Voici un exemple, un peu geek j’en conviens, mais qui présente comment rendre vos processus un peu moins fragiles et plus efficaces.
Voici des processus que vous pourriez rapidement automatiser :
- Extraction d’items à partir d’un site web
- Création et exécution de Purchase Orders
- Transfert de données d’un système à l’autre
- Maintenance de fiches produits
- Extraction des données de formulaires
Comprendre les commentaires clients
Lorsque vient le temps de supporter vos clients actuels ou vos utilisateurs, l’analyse des commentaires clients est une excellente source d’apprentissages qui peuvent vous aider rapidement. Des techniques comme l’analyse des sentiments et des sujets mentionnés dans les commentaires peuvent permettre d’identifier des tendances.
Sécurité de l’information
Finalement, en temps de crise, il n’est pas rare que des entités malveillantes tentent de profiter de ces situations.
Et c’est malheureusement le cas dans la crise du Covid-19 qui nous occupe en ce moment. Il est donc important de mettre de l’énergie à identifier des anomalies pour détecter des fraudes ou des pannes réseau.
Faire évoluer sa pratique de science des données
Dans les mois qui vont suivre la crise, nous pouvons déjà prédire qu’il y aura une évolution dans les pratiques des entreprises et de la société en général.
Certaines tendances sont déjà bien définies telles que l’utilisation d’outils de collaboration, le travail à distance, les règles d’hygiène et l’automatisation de certaines opérations critiques. Attendez-vous cependant à voir une accélération de l’adoption de nouveaux comportements dans les mois et années à venir.
Rôle de l’intelligence artificielle en temps de crise
Nous n’en avons que très peu parlé, mais l’intelligence artificielle joue un rôle central dans cette crise pour de multiples raisons.
Premièrement, la communauté de science des données a su se mobiliser pour accélérer la recherche sur les techniques concrètes pour plus rapidement mettre fin à la crise du COVID-19, en accélérant notamment le dépistage et en aidant la recherche de vaccins et de médicaments.
De plus, les entreprises qui ont investi massivement en intelligence artificielle ont su tirer leurs épingles du jeu puisqu’elles sont moins dépendantes du fait d’avoir des humains sur le lieu de travail pour livrer ses produits et services.
Pour cette raison, il est important de prendre le temps de se questionner sur l’impact de l’intelligence artificielle sur nos entreprises. La première étape pour moi est l’éducation.
Voici les différentes facettes que nous vous suggérons de prendre en compte afin de pouvoir mieux profiter de l’intelligence artificielle :
- Implanter une culture de science de données en entreprise : assurez-vous que votre structure qui supporte la transformation organisationnelle est en place et peut permettre de devenir réellement data driven. Parfois de la formation est nécessaire. Vous pouvez également vous adjoindre d’un coach en gestion du changement.
- Capturer des données utiles à l’intelligence artificielle : simplement dit, sans données, il n’y a pas d’intelligence artificielle. Vous devez donc vous assurer que la cueillette et la capture de vos données sont bien mises en place. Dès que vous adoptez l’intelligence artificielle, vos données deviennent votre avantage compétitif.
- Exécuter des projets d’IA : il s’agit ici de tirer profit des techniques et outils d’apprentissage machine et de science des données pour bâtir des solutions concrètes. Il existe beaucoup de projets open source qui peuvent vous aider à aller plus vite.
Je vous conseille de commencer par de plus petits projets qui apportent une véritable valeur à votre organisation. Heureusement, ces low hanging fruits sont présents dans la majorité des entreprises vu la faible adoption de l’IA.
Également, S.V.P., éloignez-vous des preuves de concept le plus possible et optez pour de plus petits projets, mais qui offrent une expérience complète à vos utilisateurs finaux. Chez Moov AI nous parlons de MVP (minimum viable product). Les preuves de concept demeurent sur les tablettes et n’apportent que peu de valeur. - Gestion de projet : parce que sans gestion de projet, vos projets sont à risque. Ça peut paraître évident, mais mettez un réel effort et commettez votre organisation au projet. Si vous faites ça « sur le coin d’une table », le résultat sera conséquent avec votre effort… Comment s’assurer de livrer des projets d’IA efficacement?
Je vous conseille d’opter pour la méthodologie Agile qui peut très bien s’adapter aux projets d’intelligence artificielle. - Comment travailler au quotidien avec des modèles d’intelligence artificielle: parce que tous les rôles conventionnels risquent d’évoluer, comment s’assurer que l’intelligence artificielle augmente l’impact de chaque humain de l’entreprise dans leurs rôles respectifs.
On aime bien dire que les modèles d’apprentissage machine, une fois en production, sont un peu comme un nouveau collègue dans vos équipes. Ils viennent faire une tâche (souvent ardue et peu intéressante pour l’humain) et libérer du temps pour permettre à l’humain de faire ce qu’il est le plus habile à faire : créer, innover, idéer, etc.
Quel est l’impact de ce changement de comportement soudain sur mes systèmes d’intelligence artificielle?
En terminant, pour les entreprises ayant déjà mis en place des systèmes d’apprentissage machine, il est fort possible que vos solutions en place ne soient plus en mesure de fournir des prédictions justes.
En traduisant la crise actuelle en terme technique, on peut parler de déviation (drift) au niveau des données, et indirectement du modèle. La raison est fort simple : les modèles qui utilisent des données financières, comportementales, médicales et d’import/export sont à risque puisqu’ils ont été très probablement entraînés avec des données normales alors que les données actuelles sont anormales.
Dernier conseil : je vous suggère fortement de valider chaque modèle avec des données actuelles afin de vérifier la qualité de vos prédictions sur le long terme.
En espérant que cette situation hors de l’ordinaire puisse mener à des opportunités court, moyen ou long terme pour votre entreprise.
Évidemment, si jamais vous avez d’autres idées, nous serions curieux d’en savoir plus et nous pourrons les ajouter à cet article.
Olivier est cofondateur et VP science de la décision chez Moov AI. Il est éditeur de la norme ISO internationale qui définit la qualité des systèmes d’intelligence artificielle où il mène une équipe de 50 professionnels de l’IA de partout dans le monde. Ses connaissances de pointe en IA et en apprentissage machine l’ont amené diriger la mise en oeuvre d’une culture des données dans différentes industries.
Nos films préférés traitant de l’intelligence artificielle
Parce que les films sont toujours une bonne occasion pour apprendre tout en se changeant les idées, voici une liste de films et documentaires actuellement disponibles au Canada soit sur Netflix, Amazon Prime, Crave ou Youtube qui inspirent sur le potentiel ou l’histoire de l’intelligence artificielle et de la science des données.
1 – Moneyball
Moneyball est un film culte en science des données. Inspiré par le livre de Michael Lewis, « Moneyball: The Art of Winning an Unfair Game », il s’agit d’une histoire vraie à propos des Athletics d’Oakland, une équipe de la ligne majeure de baseball.
Le directeur général des Athletics (joué par le beau Brad) a surpris la ligue au grand complet en utilisant pour la première fois la science des données dans le but de monter une équipe compétitive.
Maintenant pratique courante, ces techniques quantitatives étaient très mal perçues par la communauté. Ce film est inspirant puisqu’il démontre comment adopter une approche plus data driven ainsi que l’importance de la gestion du changement dans la transformation.
2 – Imitation Game
The Imitation Game est un film à propos d’un projet qui a changé le cours de la 2e guerre mondiale! En effet, Alan Turing, un des plus grands mathématiciens, cryptanalyste et un des inventeurs de l’ordinateur fut instrumental à la victoire des alliés dans la 2e guerre mondiale… grâce à l’analyse du langage (NLP)!
Non seulement ce film montre le déroulement d’un projet de science des données, il éduque à propos d’un personnage qui est encore mythique dans le monde du développement logiciel et intelligence artificielle.
3 – Margin Call
Margin Call est un film assez stressant merci qui s’inspire des 24 heures précédant la crise économique de 2008. Il raconte l’histoire d’un analyste qui a été en mesure d’identifier une irrégularité importante à même les modèles de risques d’une institution bancaire américaine.
Ce film permet de comprendre la place des données en finance et aussi l’importante de valider des modèles statistiques!
4 – Algorithms: Secret Rules of Modern Living
Malgré le nom assez ennuyant du documentaire, il s’agit d’un film hyper divertissant qui explique ce qu’est un algorithme avec plusieurs exemples concrets!
En plus de démystifier un mot qui est par définition très complexe, le présentateur explique dans des termes très simples comment l’humain a été en mesure de résoudre des problèmes comme la reconnaissance d’image, un moteur de recommandations et le « travelling salesman » et plus.
5 – VICE Special Report: The future of work
On finit notre liste avec un documentaire hyper intéressant à propos de la transformation du monde du travail. C’est très intéressant puisque le documentaire démontre des cas concrets de transformations, et les présente aux employés actuels.
Ce documentaire démontre l’état actuel de l’automatisation du monde du travail, autant du côté humain que du côté technologique. Comme c’est le cas de la plupart des documentaires de VICE, ce special report parle des vraies choses qui dérangent les travailleurs!
À voir!
Olivier est cofondateur et VP science de la décision chez Moov AI. Il est éditeur de la norme ISO internationale qui définit la qualité des systèmes d’intelligence artificielle où il mène une équipe de 50 professionnels de l’IA de partout dans le monde. Ses connaissances de pointe en IA et en apprentissage machine l’ont amené diriger la mise en oeuvre d’une culture des données dans différentes industries.
Sciences des données : Évitez de créer des boîtes noires
Cette entrevue avec Olivier Blais a été rédigée par Les Affaires et reproduite sur ce site avec la permission du journal.
Vaut-il mieux travailler avec un modèle statistique performant sans être capable d’expliquer chacun des résultats qui en ressortent? Ou d’opter pour un modèle moins performant dont il est possible d’interpréter aisément les réponses? « Et si on pouvait combiner les deux? », suggère Olivier Blais, chef sciences des données chez Moov AI.
Olivier Blais sera l’un des invités de la conférence Sciences de données, présenté par les Événements Les Affaires, le 12 février prochain, à Montréal.
Quelle est votre solution?
Olivier Blais : D’abord, les organisations doivent s’assurer que leurs modèles de prédiction ne deviennent pas des boîtes noires. Elles doivent faire en sorte que leurs modèles statistiques demeurent justes et bons, et non discriminatoires, envers la population.
Que voulez-vous dire par boîte noire?
O.B. : Il existe de plus en plus d’exemples de modèles statistiques dont les bâtisseurs ne sont pas en mesure d’expliquer les résultats. Quels sont les algorithmes qui influencent les réponses obtenues? C’est ce qu’on appelle dans notre jargon le phénomène boîte noire.
Prenez, par exemple, le domaine financier qui peaufine ces systèmes de prédiction depuis une bonne dizaine d’années. Qu’est-ce qui fait que le système d’une institution bancaire accorde un prêt ou non à un client? Est-ce que le conseiller ou la conseillère est en mesure d’expliquer correctement aux clients pourquoi son institution propose le prêt ou le refuse?
Si oui, tant mieux, sinon, ça devient des cas de boîte noire.
Comment éviter ce phénomène de la boîte noire?
O. B. : Une des bonnes pratiques est de soulever tous les résultats qui paraissent aberrants. Que ce soit pour une analyse complexe ou simple, il ne faut pas accepter systématiquement toutes les réponses que nous fournissent les systèmes.
Beaucoup d’entre eux reposent encore sur des données du passé. Prenez un processus qui est historiquement biaisé par la discrimination envers les genres ou certaines ethnies. Dans ces cas-là, il est fort possible que cette discrimination soit implicite dans les prédictions générées par un algorithme.
Dans ces cas-là, le fait que le modèle soit très précis ne veut pas dire qu’il n’est pas biaisé. L’essentiel, j’insiste, est d’être capable d’expliquer et de comprendre les résultats, quels qu’ils soient, en toute circonstance.
Vous estimez que nous sommes à la croisée des chemins, pourquoi?
O.B. : Il y a de nombreuses entreprises qui stagnent en affaires parce qu’elles s’obstinent à vouloir utiliser des modèles statistiques moins performants, des modèles dont elles peuvent expliquer les résultats en tout temps. Ce qui les empêche d’être plus efficaces, d’être plus productives, d’être plus rentables.
L’objectif n’est pas d’informatiser l’humain. Travailler avec des algorithmes doit demeurer un complément de la tâche à accomplir. La machine sert à simplifier le travail, l’humain, plus intuitif, doit, pour sa part, en garder le contrôle.
Que suggérez-vous?
O.B. : On se dirige vers une utilisation plus responsable des algorithmes. Reprenons l’exemple de la banque et son modèle statistique de prêts.
Le système peut donner une réponse, mais rien ne devrait empêcher l’institution, en l’occurrence le conseiller, de s’ajuster.
Pour en savoir plus, Olivier Blais a animé le webinaire Développez une communauté agile pour la science des données et déployez de l’intelligence artificielle dans votre organisation, offert gracieusement par les Événements Les Affaires.
Olivier est cofondateur et VP science de la décision chez Moov AI. Il est éditeur de la norme ISO internationale qui définit la qualité des systèmes d’intelligence artificielle où il mène une équipe de 50 professionnels de l’IA de partout dans le monde. Ses connaissances de pointe en IA et en apprentissage machine l’ont amené diriger la mise en oeuvre d’une culture des données dans différentes industries.