Avec l’avènement de ChatGPT et d’autres outils de génération de texte et d’image, les solutions d’intelligence artificielle (IA) générative offrent des perspectives littéralement révolutionnaires pour votre entreprise. Les solutions d’IA génératives auront plus d’impacts sur nos entreprises et nos façons de travailler que l’arrivée de l’Internet.
Dans cette présentation, Olivier vous montre comment exploiter dès maintenant ces technologies pour dépasser les simples questions-réponses et atteindre vos objectifs de développement et accélérer votre force de frappe.
Grâce à des exemples concrets et des analyses approfondies, Olivier aborde les différentes applications de l’IA générative, ainsi que les limitations et les défis associés à ces outils qui, faut-il le rappeler, ne sont qu’à leurs balbutiements.
Olivier aborde également les questions éthiques liées à l’utilisation des outils d’intelligence artificielle générative. Il proposera des moyens d’assurer la qualité des solutions livrées à l’aide de l’IA générative.
Série sur l’intelligence artificielle générative
Cet article fait partie d’une série que nous avons produite pour aider les entreprises à mieux comprendre l’IA générative et ses possibilités.
- Génération automatisée de métadonnées: Solutions pour Inventaires SAP, Oracle et Microsoft Dynamics
- Les cas d’usage essentiels de l’intelligence artificielle générative
- Pourquoi vous devriez utiliser ChatGPT en contexte d’entreprise
Conférence sur écoute
Transcription verbatim de la conférence
[Cet article est une transcription verbatim de la conférence présentée par Olivier Blais :
Comment exploiter sans dérive les solutions d’intelligence artificielle générative en entreprise.
Il est intéressant de noter que cette transcription a été effectuée avec des outils d’intelligence artificielle. Une tâche qui aurait pris 2 à 3h a été accomplie en quelques minutes.]
Introduction
Olivier – Conférencier
Merci beaucoup pour votre temps. C’est super apprécié. Je sais qu’on est super occupé toute la gang, un jeudi matin. On est anxieux de rentrer au bureau, mais en même temps, je pense que l’IA générative, ça a un petit quelque chose. Je pense que ça vient chercher l’imaginaire. Je peux comprendre pourquoi vous êtes ici. Moi aussi, je suis super excité de parler de ce sujet-là. Je veux savoir, est-ce que tout le monde est arrivé? Les absents ont tort, donc on va commencer. Avant de commencer la présentation, j’avais un petit sondage pour vous. À main levée, je me demandais qui dans la salle avait certaines inquiétudes par rapport à l’IA générative? Je vois des mains qui sont levées très vite. Parfait. Merci. Aussi, j’avais une question par rapport aux capacités de l’IA générative. Qui est excité par l’IA générative? Qui veut l’utiliser? Excellent. On va vous envoyer un représentant en vente qui va venir vous voir sous peu. Non, c’est une blague. C’est une blague, mais pas vraiment. Je suis content, j’ai vu des mains, des mains de gens plus inquiets, mais des mains de gens excités. En fait, moi, pour ma part, il reste une dualité entre les deux.
La dualité de l’IA générative
[01min 24s]
Je suis confiant, mais prudent par rapport à la technologie. C’est de ça qu’on va parler aujourd’hui. C’est pour ça qu’on parle d’IA générative, mais sans dérive. Comment bien utiliser ces technologies pour générer des bénéfices, mais sans risquer à outrance. Ce que je vais faire, c’est que je vais parler… Excusez-moi, en premier, je vais me présenter. Mon nom, c’est Olivier Blais, cofondateur de Moov AI. Je suis en charge de l’innovation pour l’entreprise, puis conférencier. Je parle de temps en temps, j’aime m’écouter parler. Ce qu’on va faire, c’est qu’on va parler d’IA générative, bien entendu. On va commencer du début. On va parler, on va introduire le sujet, mais on va aller, on va pousser un peu plus loin. Pourquoi? Parce qu’on est tous des développeurs d’IA en ce moment. C’est spécial, mais avec l’IA générative, c’est le changement de paradigme. Je ne parle plus juste à une couple de matheux qui ont étudié en intelligence artificielle. Je parle à Monsieur et Madame Tout le monde parce que tout le monde maintenant a l’opportunité d’utiliser ces technologies-là pour générer des résultats. Donc, il faut que tout le monde soit à l’affut, tout le monde comprenne bien comment bien exploiter la technologie.
Le cycle du hype de l’IA générative
[02min 38s]
Mais inquiétez-vous pas, je vais essayer de le faire de façon assez soft. On va pas rentrer dans de la mathématique, je vous le promets. Puis, je vais parler aussi de l’IA responsable, qui est la clé. S’assurer que quand on fait les choses, on le fait correctement. Donc, on va tomber dans la période un petit peu plus théorique, mais en premier, je suis curieux d’en savoir plus sur où vous vous trouvez dans le cycle du hype? C’est extrêmement hype présentement, ChatGPT, tout le monde en entend parler. Je ne vais même plus sur LinkedIn, puisque c’est juste ça maintenant. GPT-ci, GPT-ça. Mais en fait, c’est vraiment une courbe. Quand j’ai vu cette courbe, la première fois, ça m’a marqué. Et tout le monde ici, que vous le vouliez ou non, vous êtes à une de ces étapes de la courbe. Je ne vais pas demander à tout le monde où ils sont rendus, ça serait vraiment complexe, mais je trouve ça intéressant de savoir c’est quoi les étapes qui s’en viennent dans notre parcours. Au début, pour ma part, c’était dans les alentours de janvier, je dirais. Chez Moov AI, ça fait depuis 2019 qu’on a commencé à utiliser GPT2, GPT3.
[03min 56s]
On se retrouvait à faire un documentaire, par exemple, avec Matthieu Dugal où est-ce qu’on a généré un agent conversationnel. Ça fait longtemps, mais là, depuis qu’on a entendu parler de ChatGPT, c’est là que ça a vraiment réveillé les gens, puis ça a créé un hype. Au départ, on pense que c’est de la magie. Tu rends quelque chose, fais-moi un poème sur les bottes de foin, puis ça va générer un poème sur les bottes de foin, puis il va être incroyable. Vraiment, c’est de la magie, mais à un moment donné, quand tu commences à vraiment l’utiliser pour quelque chose d’utile, là, tu tombes dans des petits « rabbit holes », là, tu tombes dans des irrégularités. Par exemple, tu vas te poser la question sur une personne, sur une personnalité publique, puis là, finalement, ça va se tromper sur toute la ligne. Tu vas l’utiliser pour faire des calculs, ça peut se tromper sur des calculs. Gratte la tête et « OK, qu’est-ce qui se passe? » Et là, de plus en plus, tu te retrouves à identifier des faiblesses de ces modèles. Finalement, ce n’est pas nécessairement de la magie.
Risques et limitations de l’IA générative
[05min]
C’est beaucoup en apparence. Problème, ChatGPT en passant, ce n’est pas mis à jour à tous les jours. Ça a été mis à jour la dernière fois en janvier 2021. Donc ça, ce que ça veut dire, c’est que si on pose des questions par rapport à des nouveautés de l’actualité, ça ne connaît pas le concept. Donc, on voit « OK, une faiblesse. » Là, après ça on apprend qu’avec ChatGPT, notre donnée, tu la transmets à OpenAI. Donc, cette donnée, dans le fond, tu viens de créer une faille de sécurité. Aïe, aïe, aïe. Là, tu commences à voir les faiblesses dans ces outils qui sont vraiment cool à utiliser. Il y a certaines personnes qui vont débarquer là. Tout va bien, tout est sous contrôle. Génial! Ici, il y a plusieurs personnes qui vont débarquer. Je suppose que ce n’est pas les gens qui sont ici qui ont débarqué, sinon vous ne seriez peut-être pas ici. Mais il y a vraiment façon de bien exploiter la technologie. Il faut juste être conscient, il faut juste comprendre comment bien l’exploiter. Et quand tu commences à utiliser les meilleures pratiques, tu vois des exemples.
Avantages et meilleures pratiques de l’IA générative
[06min 12s]
Puis, en fait, c’est fascinant ce que tu peux faire. Autant que tu les vois, ces problèmes-là, mais tu passes par-dessus. Tu essaies de pallier à ces problèmes, tu essaies d’atténuer les risques qui sont identifiés. Donc, ça ici, c’est vraiment le cycle et finalement, il y a du monde qui l’utilise pour vrai en ce moment. Il y a des applications qui sont déployées, qui sont fonctionnelles. Ça fonctionne. Puis là, on peut commencer à faire la même chose. Donc ici, c’est là qu’on s’en va. On s’en va vraiment à l’utilisation de cette technologie dans des applications concrètes. Parlant d’applications, on va revenir un peu en arrière. Ici, le but n’est pas de parler de ChatGPT, c’est une solution de ChatGPT. Ok? Donc, on va expliquer un petit peu différentes définitions. Je vais aller vite. Donc, il existe des solutions. C’est souvent les solutions qu’on va voir nous-même. Donc, ChatGPT est une solution qui va produire des résultats. Bard du côté Google, c’est aussi une solution qui va être disponible. Moi, j’appelle ça B2C, Business To Consumer. C’est fait pour tous. Ça a été démocratisé. Le but est vraiment de démocratiser les technologies pour qu’on puisse commencer à l’exploiter.
Outils de Générative AI pour entreprises
[07min 34s]
C’est le fun parce que ça te permet de faire plein de choses de l’analyse de texte, il y a vraiment plein de use cases qui sont existants et que tout le monde puisse bénéficier. Il va y exister aussi des outils qui sont B2B, qui sont disponibles aux entreprises. C’est important de comprendre qu’il y a une différence entre les deux. On ne recommande pas d’utiliser des outils pour Monsieur, Madame, tout le monde en entreprise. À la place, on va suggérer d’utiliser des outils pour entreprises et je vais expliquer pourquoi. Ça, ici, c’est des solutions. Que ça soit, par exemple, GPT4, Palm, ChatGPT, BART, c’est des exemples de solutions. Il y en a des centaines maintenant. Ces solutions, c’est des solutions qu’on va appeler des LLM. Qui a déjà entendu parler de LLM? Il y a quelques mains levées. Je suis content, il y a du monde de Google qui ont levé la main, ça veut dire qu’ils savent de quoi on parle. Les LLM, c’est des modèles larges de langage. Donc, essentiellement, on a scrapé Internet, on est allé chercher du texte de partout, de plein de sources différentes. Et ces modèles-là, c’est des modèles qui sont extrêmement bons pour comprendre et générer du texte.
Modèles fondamentaux et modèles linguistiques
[08min 55s]
Donc ça, c’est génial. Ça permet de faire tout ce qu’on connaît maintenant avec les technologies qu’on utilise dans la vie de tous les jours. Mais ça vient fondamentalement d’une approche qu’on appelle des modèles de base ou en bon franglais, des « foundational models ». Ça, c’est une approche qui existe depuis plus de dix ans. Ça fait très longtemps que ça existe. C’est la capacité de pouvoir modéliser le monde. Ça sonne très poétique, « je modélise le monde », mais en fait, c’est vraiment ça. C’est dire qu’il existe des fonctions de l’humain qu’on n’est pas obligé de reproduire à tout coup, comme par exemple la détection d’images. On pourrait créer notre propre modèle pour identifier un chat d’un chien, propre modèle pour identifier les chiffres sur un chèque, propre modèle pour identifier, par exemple, des intrus qui rentrent sur une caméra de sécurité. On pourrait le développer de A à Z, mais ça prendrait des millions de photos. À la place, l’idée de modèle de base est arrivée et on s’est dit « Attends, pourquoi on n’investit pas juste plus de temps au début? »on développe un modèle qui est extrêmement bon pour identifier des éléments sur une image.
Le changement de paradigme avec l’IA générative
[10min 12s]
Puis après ça, on peut bénéficier de cette capacité pour tout ce qui est associé à la détection d’image. Ça, c’est parti au départ avec la détection d’image, mais rapidement, on a vu les bénéfices au niveau du langage. C’est pour ça qu’en ce moment, on ouvre notre outil de generative AI et on est capable de demander de faire un poème, de faire un sommaire, donc de faire plein de choses. Comment ça a été créé? C’est que ça a été créé justement parce qu’au début, on est allé chercher littéralement tout ce qu’on peut trouver, tout ce qui est public sur Internet. C’est des capacités que moi, personnellement, on n’a pas cette capacité, mais les gros du Web, et c’est pour ça qu’on va voir les GAFAM pouvoir exploiter cette opportunité parce qu’ils ont la capacité de « storage », ils ont des capacités qui sont beaucoup plus avancées que d’autres organisations. Ça, ça a créé des très bons modèles, des modèles qui sont super bons pour comprendre le monde, mais ils sont plates. Est-ce qu’il y a du monde ici qui a utilisé GPT3, par exemple? Des OG, j’aime ça, du monde avant la ChatGPT. GPT3, tu lui demandais une question, ça, c’est en 2020, ça ne fait même pas très longtemps.
[11min 39s]
Tu demandes une question, ça te répond essentiellement à ce que Wikipédia aurait dit. Ce n’est pas très intéressant au niveau de l’expérience utilisateur. C’est ça qui fait différencier les nouvelles solutions. C’est que maintenant, comme deuxième étape, on a une adaptation pour le dialogue. En ce moment, c’est fun de la façon qu’on se fait répondre. Vraiment, c’est les organisations ont commencé à mettre de l’emphase sur l’expérience utilisateur. Ça en dit long, ça veut dire qu’on est beaucoup plus sensible à ce que l’utilisateur veut, de quelle façon l’utilisateur veut exploiter la technologie. Donc ça rend ça plus agréable, ça motive les gens à l’utiliser puis à l’exploiter davantage. Et finalement, et ça, c’est juste on the side, ça l’a amélioré beaucoup la qualité parce que l’humain aime se faire répondre d’une façon humaine. Donc ça a amélioré notre adoption à la technologie. Et maintenant, on en est là. Ici, je vais vous expliquer un peu la différence parce que ça change beaucoup de paradigmes entre des solutions d’IA régulières. Une solution d’IA régulière, ce qu’on va voir, c’est qu’on va avoir des équipes qui vont prendre des données, ils vont entraîner un modèle. Souvent, c’est des modèles, donc chaque problème a son modèle.
[13min 04s]
Et après, quand ils l’ont entraîné, après ça, il reste à le déployer pour pouvoir le réutiliser à chaque fois qu’il y a des nouveautés, des nouvelles choses qui arrivent. Je vais vous donner un exemple. À l’époque, parce que maintenant ça change, on avait une équipe chez Google, par exemple, qui créait de l’analyse de sentiments. Donc être capable de regarder des tweets, par exemple, ou des textes, puis dire si la personne est… Si c’est un commentaire positif ou négatif. Donc, tu avais une équipe qui focussait juste là-dessus. Donc, ils trouvent plein d’informations sur le Web, identifient le sentiment qui est associé, entraînent leur modèle. Là, après ça, tu le déploies. Puis après ça, à chaque fois que tu as un nouveau commentaire, tu es capable de pouvoir identifier si oui ou non, c’est un commentaire positif. Donc ça, il fallait le faire pour l’analyse de sentiments. Il fallait le faire pour chaque chose que tu voulais savoir était un nouveau modèle. Donc maintenant, ce n’est plus ça. Maintenant, le paradigme vient de changer parce que c’est tellement vaste ce que tu peux faire avec des LLM que maintenant, tu n’as plus besoin…
Les possibilités de l’IA générative
[14min 20s]
Premièrement, c’est déployé. Donc, pour le commun des mortels, pour les entreprises, tu n’as plus besoin de faire la première partie d’entraînement. Et ça, ça change la game parce que tu réduis de beaucoup ton projet. Le projet, c’est plus un projet qui va coûter des millions à produire, parce que tu viens de couper énormément du coût de ton développement. En plus, c’est que tu n’as pas besoin d’aller chercher des données extrêmement précises pour répondre exactement aux problèmes que tu as entraîné ton modèle à faire. Ici, tu poses une question, donc un prompt. Tu poses une question et si ton prompt est bien fait, ton résultat, c’est le résultat que tu t’attendais à recevoir. Ces résultats-là, maintenant, Sky is the Limit, tu peux avoir du texte, tu peux avoir des prédictions, tu peux avoir du code, tu peux avoir des tableaux, tu peux avoir plein de choses, tu peux avoir des images aussi. Donc, c’est incroyable ce que tu peux avoir. C’est incroyable les bénéfices qu’on est capable d’aller toucher avec les nouvelles technologies. Par contre, j’aime un peu la dualité dans ce commentaire du CEO de Google qui a dit, il y a quelques semaines à 60 Minutes, « The urgency to deploy it in a beneficial way is harmful if deployed wrongly. »
[15min 44s]
C’est vraiment la dualité. Tu as tellement de positifs qui peuvent survenir, mais ça peut être catastrophique si c’est mal fait. C’est le CEO de Google qui dit ça, mais honnêtement, c’est la responsabilité de chaque personne d’utiliser convenablement les technologies. Si on l’utilise bien, on va être capable de minimiser les risques, parce qu’il y en a des risques. Donc les risques, ici, premièrement, qu’il est utilisé par tout le monde. Je comprends ici, on doit avoir peut-être 60 personnes, mais c’est des centaines de millions de personnes qui ont par exemple utilisé ChatGPT. Donc c’est rendu utilisé par tous ou presque par tous, donc c’est important que chaque personne soit consciente de leurs utilisations, parce qu’on peut se retrouver à faire une catastrophe si jamais on l’exploite mal. Je vais passer ça. Ici, je vais donner des exemples de choses qu’on peut faire, parce que c’est tout le temps utile de pouvoir… Excusez-moi, je vais revenir ici. Ça, c’est différents use cases, inquiétez vous inquiétez pas, je ne vais pas passer à travers, mais il y en a plein des use cases. Il y a des use cases qui sont liés beaucoup avec l’analyse de texte.
[17min 00s]
On est capable d’analyser plein de textes, on est capable de faire de la classification, d’identifier des éléments dans un texte. Sinon, on est capable aussi de faire des prévisions, des prévisions aussi très conventionnelles. Donc, on est capable de reproduire certains modèles d’apprentissage machine avec des outils LLM. Et en passant, tout ce qu’on fait avec du texte, on peut le faire avec du code. Il y a peut-être des gens qui… Nous autres, on est habitué d’écrire du texte en français, en anglais, mais ceux qui sont habitués d’écrire en python, par exemple, ou en C++ ou en C#, c’est encore plus efficace parce que c’est explicite. Tu écris une fonction, c’est explicite. Ton langage est implicite, toutes les tournures de phrases, ce que les mots veulent dire. Donc, prenons en considération qu’on peut faire sky is the limit en termes de capacité. Ici, comme j’avais parlé tantôt, je pense que de base, des questions/ réponses, on peut s’entendre que c’est extrêmement bon. Donc, si on veut bâtir un chatbot, assurons-nous que les chatbots qu’on veut développer ont des capacités de générer des réponses. Maintenant, on est rendu à cette étape. Ce qu’on développe, on doit s’assurer qu’on a les capacités de générer des réponses.
[18min 21s]
Ce que ça permet, c’est que ça permet de toucher à beaucoup plus de questions. Et aussi, ça réduit du temps au niveau du développement. Tu n’es pas obligé de penser à chacun des scénarios individuellement. Tu donnes des instructions précises à ton chatbot et ton chatbot va donner des réponses qui sont la plupart du temps convenables, puis tu peux t’assurer de le contrôler aussi, ce qui est une possibilité. L’autre élément que j’aime beaucoup, c’est le fait qu’on peut faire confiance à ces modèles. Ce n’est pas juste fait pour dire « Regarde, je vais poser des questions, puis au pire, on va voir, on va voir. » On peut faire confiance à ces solutions-là dans certains cas. Par exemple, ici, on serait capable de corriger des dictées avec les solutions, comme par exemple ici, je me suis posé une question. J’ai essayé une petite dictée de mon cru. « Manon a acheté trois chats à l’épicerie. » Ici, ce qu’on peut voir, c’est on peut voir la correction qui est faite. Vraiment, elle était capable de pouvoir aller beaucoup plus loin. Ça a été démontré que pour de la correction de texte, c’est incroyable. Ça fonctionne vraiment bien et on peut faire confiance à des outils comme ça pour des affaires aussi sensibles que la correction de dictée pour nos enfants.
[19min 47s]
En passant ici, quelque chose d’assez cocasse, c’est que si je demande à la plateforme de Generative AI de corriger la phrase « Manon achète trois chats à l’épicerie », en plus de corriger les fautes, ils vont dire que ce n’est pas vraiment à l’épicerie que tu achètes un chat. C’est intéressant de savoir ça, sinon, je ne croise pas vraiment le chat. Ce n’est pas nécessairement le chat que tu veux garder pendant des années. Ça, c’est un autre exemple. Tantôt, j’en ai parlé quand j’ai parlé d’analyse de sentiments. Mais ça, c’est des choses qu’on peut faire. Tous les API qui existaient, ils vont être remplacés très rapidement. Ici, j’ai posé la même question, peux-tu identifier le sentiment dans les phrases suivantes? Tu donnes la liste de phrases, ils te retournent le bon sentiment et ça va être exactement cet outil qui va être utilisé dans les API qui s’en viennent. Encore une fois, on peut faire confiance aux outils tant qu’ils sont utilisés convenablement et tant qu’ils sont optimisés pour la tâche que tu veux faire. J’ai même poussé un peu la note parce que tantôt, j’ai parlé beaucoup du risque. Oui, il y a un risque, mais c’est important de bien comprendre le risque.
[21min 05s]
Je me suis dit « Est-ce que ça pourrait être le fun d’utiliser des outils de Generative AI pour faire l’analyse de risque d’une solution ai? » Je me suis dit « Ça serait drôle, je vais demander à ChatGPT d’analyser le risque de ChatGPT. Je vais voir si je serais capable de le cuisiner. » J’ai quand même eu des réponses très intéressantes. Premièrement, ça a fait une très bonne job. J’ai utilisé une matrice, un framework de risque qui s’appelle NIST, qui est très reconnu. J’ai posé vraiment la question « Voici les risques, peux-tu me qualifier l’impact, la probabilité que ça survienne? » et même me donner des justifications. Vraiment, la tâche a été très bien faite, je suis super satisfait. Ici, je vais donner trois exemples. Le premier exemple, c’est un exemple au niveau des use cases. Est-ce que le use case est un use case risqué? Celle-là, ce qui est intéressant, c’est qu’il ne faut pas tout le temps prendre pour du cash, je pense qu’on le sait, mais ce n’est même pas à cause d’une hallucination, ce n’est pas à cause d’une erreur, c’est une question de perspective. Donc, ce que je me suis fait répondre, c’est que « Non, mais ChatGPT, c’est fait pour tous les use cases.
[22min 19s]
Vu qu’on ne touche à aucun use case précisément, on n’a rien à se reprocher.» J’exagère, mais je pense que c’est intéressant parce que ça nous donne un peu l’impression qu’on a, c’est ce qu’on essaye d’éviter en tant que société. C’est de dire « Sais-tu quoi? On va répondre correct à toutes, puis on va pouvoir prendre un step back, puis on n’est pas responsable pour ce qui se passe. » Nous, notre responsabilité, c’est que ça ne survienne pas ça. C’est de dire « Non, non, regarde, pour chaque use case, pour chaque cas d’usage qu’on va utiliser, on va s’assurer que ça soit bien fait. » Donc, on va être obligé… Il y a un niveau de plus. On ne peut pas juste se fier à des technologies pour contrôler chacun de ces cas-là. Il faut que ça soit fait dans une étape subséquente. Un autre élément, c’était au niveau des méthodes pour la fabrication, pour la création de la solution. Et ici, ça m’a fait réfléchir beaucoup. Donc, OpenAI crée son propre modèle chez toi avec deux ou trois data scientists. Je me demande c’est qui qui a les meilleures capacités de création de solutions.
[23min 27s]
Je pense que je vais mettre beaucoup de mes chevaux sur ces plateformes, parce qu’ils ont des gens qui sont extrêmement qualifiés, ils ont des très grosses équipes. Donc, ça m’a fait réfléchir et j’abonde dans leur sens. C’est vrai que c’est un risque qui est plus faible. Je pense que le risque est plus élevé si Monsieur ou Madame Tout le monde essaie de créer son propre modèle parce que tu n’as pas nécessairement les meilleures méthodologies, tu n’as pas le meilleur savoir faire, etc. Donc, il y a aussi un gain assez fondamental qu’on peut aller chercher avec les solutions. Et finalement, le dernier que je voulais parler, c’est un risque au niveau de la sécurité légale. Et inquiétez-vous pas, je vais y revenir par la suite. Mais quelque chose d’intéressant, là, je l’ai eu. Là, ce qu’il m’a dit, il m’a dit que ChatGPT utilise des données de tierce partie et ça contient des risques au niveau des droits d’auteur, au niveau de la propriété intellectuelle. Mais c’est intéressant tout ça. Premièrement, la transparence, donc d’être capable de pouvoir un peu plus comprendre ce modèle, mais aussi que les solutions de generative AI soient capables de faire des tâches aussi critiques que l’évaluation de risque de modèle.
[24min 42s]
Le gars qui fait partie des normes ISO est très content de ce type d’exercice. Ici, je vais revenir, je vais prendre un step back encore plus important. Je ne sais pas ici si vous êtes tous d’accord à utiliser l’IA générative. Je pense que oui, j’ai vu plein de mains levées, mais il y en a qui ne le sont pas. Mais j’ai des mauvaises nouvelles pour ceux qui sont un peu moins chauds à l’idée d’utiliser l’IA générative. Vous avez pas le choix. Malheureusement ou heureusement. Pourquoi ici? Pourquoi? C’est parce que les organisations en technologie… Ici, c’est un exemple de Google, mais Microsoft a un roadmap très similaire aussi. Ils n’ont pas juste créé des outils de génération d’AI pour que tout le monde puisse s’amuser à écrire des poèmes ou faire des sommaires. Ils ont utilisé ça pour aussi améliorer les services qu’ils offrent à leurs clients. Par exemple, ici, c’est trois différents niveaux d’offre au niveau de Generative AI par Google. Le plus clair, c’est de dire « Je vais aider les data scientists, les gens qui développent des solutions d’IA, de pouvoir développer des solutions d’IA génératives. Ça, je pense, c’est écrit dans le ciel
[26min 06s]
Tout le monde est au courant que ça, ça s’en venait. Mais Google pousse la note encore plus loin, puis se dit « Attends un peu, tu n’es pas obligé de tout le temps avoir des data scientists. Il n’y a pas beaucoup de gens qui développent des solutions d’IA, mais il y a beaucoup plus de développeurs dans le monde. Donc, comment est-ce qu’on peut aider les développeurs dans leur développement? » Et c’est là aussi que des capacités qu’on commence à comprendre maintenant quand on utilise les solutions existantes, qu’il y a possibilité d’utiliser les solutions telles quelles. Par exemple, ici, Google, ce qu’ils ont parlé, ils parlent de, par exemple, aider la conversation, aider la recherche. Donc ça, c’est des cas très clairs qui peuvent être déployés par des développeurs dans des solutions existantes. Ils peuvent développer leurs propres applications, ils sélectionnent les fonctionnalités qu’ils ont besoin et ces fonctionnalités, ils s’adaptent, ils s’ajustent pour être capables de bonifier l’expérience des usagers finaux. Et même, on peut aller encore plus loin que ça. Donc, il y a Monsieur, Madame, tout le monde, il y a vraiment les utilisateurs business qui, eux, ont commencé à utiliser des outils comme par exemple Dialogflow.
[27min 22s]
Il existe plusieurs outils de Google et ces outils vont aussi avoir des capacités de Generative AI. Ça, ce que ça veut dire, c’est que le Generative AI est là pour rester. Donc, il faut juste être capable de bien l’utiliser. Et aussi, j’ai d’autres petites nouvelles pour vous, c’est que le développement continue à s’accélérer. Je comprends peut-être certaines personnes sont contentes de savoir qu’il y a des petites questions. Apparemment, GPT 5 n’est pas en train d’être développé, mais ça ne change pas le fait que le développement, il se poursuit, il s’accentue. Je peux donner des exemples. On a LLaMa et je ne parle pas de l’animal, même s’il y a une photo d’un lama très technologique. Mais LLaMa, c’est un outil qui te permet de créer tes propres modèles, tes propres ChatGPT internes, par exemple. Donc ça, ça continue. On peut voir la frénésie. Tout le monde veut un LLaMa. J’exagère. Personnellement, moi, je proposerais de ne pas utiliser ça, puis à la place d’utiliser les bonnes technologies. Ça, c’est mon take sur ça. On a de beaucoup meilleures performances avec les solutions qui sont déjà existantes, qui ont déjà été éprouvées par des millions de personnes.
[28min 51s]
Mais je comprends que c’est quelque chose qui est intéressant. Ça nous permet de tout développer sur notre propre laptop. C’est sûr que le geek en moi trouve ça excitant, mais la personne d’affaires trouve ça un peu overkill pour ce qu’on est en train de créer. Il y a aussi des compagnies qui ont leurs propres capacités qui développent. Par exemple, Coveo. Coveo sont hyper clairs sur le fait qu’ils ont déjà développé certaines des capacités génératives. Coveo qui est un des joyaux québécois. Et il y a d’autres entreprises comme, par exemple, Databricks qui est un joueur majeur dans l’écosystème, qui développe Dolly, je pense. Donc ça va s’accentuer. Il va y avoir de plus en plus de compétition dans le marché. Et il y a aussi une tendance, ici je vais juste brièvement parler, mais de « auto GPT », qui est le fait de pouvoir entraîner GPT, une solution générative avec une solution générative, puis de faire un loop. Ça fait peur, je suis d’accord. Ici, encore une fois, c’est important de le contrôler, mais pour l’instant, c’est un trend qui est beaucoup plus présent au niveau du développement, donc comment automatiser certains workflows.
Les risques et limitations de l’IA générative
[30min 09s]
Vraiment, ça continue. C’est important de rester au courant. C’est important de bien comprendre c’est quoi qui se produit pour s’assurer d’utiliser les meilleures technologies pour répondre à nos besoins. Et pour éviter des risques, ici, je vais parler de trois différents enjeux qu’on a présentement. Au niveau des hallucinations, je parle d’hallucination depuis tantôt. Une hallucination, c’est quoi? Je ne parle pas de l’hallucination dans un désert. Une hallucination, c’est une erreur. Je vais donner un exemple. Tout le monde a un beau-frère qui dit des choses, il est tellement convaincant, mais des fois, il ne sait pas de quoi il parle. Je pense que tout le monde a déjà eu ce beau-frère ou cette belle-sœur. Une hallucination, c’est ça. C’est une erreur. À l’époque, les OG vont se rappeler que dans un modèle traditionnel, tu as des erreurs, donc des fois, tu prédis mal. Dans ce cas-ci, c’est une mauvaise prédiction, mais qui est tellement convaincante parce que c’est bien écrit. Une hallucination, c’est un peu plus problématique parce que les gens qui n’ont pas nécessairement les capacités de pouvoir bien juger de l’extrant pourraient se faire enfirouaper. Donc, ici, il faut faire attention à chaque fois qu’on produit un extrant, à chaque fois qu’on fait un prompt, il faut regarder c’est quoi le résultat en arrière.
[31min 43s]
Des deepfakes, des fake news, il y en a plein, il y en aura de plus en plus. Donc, la capacité de demander « Écris-moi un texte sur telle affaire », tu ne te checkes pas, tu mets ça sur Facebook, c’est un problème. Pourquoi? Hallucination. Je pense qu’on fait le lien un petit peu. C’est beaucoup plus facile d’écrire des beaux textes avec de la fausse information que ça l’était avant, parce qu’avant, tu le faisais toi même ou tu le faisais faire par des gens qui étaient dans d’autres pays. Mais maintenant, c’est beaucoup plus facile. Donc, il faut s’assurer qu’à chaque fois qu’on développe des choses, surtout quand c’est automatisé, qu’on évite la propagation de fake news et de deep fake. Et finalement, au niveau de la vie privée, je pense que tout le monde est, si les gens ne sont pas conscients de ça, je pense qu’on va l’être de plus en plus. Attachons-nous, parce que c’est un des problèmes qu’on va voir de plus en plus. Il y a des histoires d’horreur en ce moment, des gens qui copient, collent des secrets commerciaux, les mettent dans des outils. Finalement, l’information est distribuée aux grandes entreprises.
[32min 52s]
Et là, tu viens de créer des failles de sécurité importantes. Mais c’est pour ça que chez Moov AI, notre position qu’on a, c’est un peu la position que j’ai dite tantôt, c’est un optimisme prudent. En fait, et j’utilise le dicton de Uncle Ben, pour ceux qui se rappellent de Spiderman, avec de grands pouvoirs viennent de grandes responsabilités. C’est pour ça qu’on a décidé, oui, on embarque. On embarque, on veut aider les clients, parce que si on ne le fait pas, les gens vont le faire par eux mêmes, vont peut-être le faire mal, vont peut-être promouvoir des fake news, créer plus de problèmes que des bénéfices. C’est pour ça que c’est important d’accompagner, mais en contrepartie, il faut qu’on puisse aider. C’est pour ça qu’on aide, de notre côté, par exemple, à la promotion de la loi sur les données et l’intelligence artificielle au Canada, le projet de loi C27. On aide à pouvoir accélérer les efforts. On a un rôle qui est très prédominant au niveau des normes ISO aussi, pour encadrer et contrôler le développement et l’utilisation de l’intelligence artificielle. Le but, c’est de dire qu’on va développer des choses utiles, mais en plus, on va s’assurer de les contrôler convenablement.
[34min 13s]
Ça, ça s’exploite de trois différentes façons. Premièrement, au niveau de l’éducation. Au niveau de l’éducation, par exemple, on a Delphine ici, qui est en charge de l’Académie Moov AI. On va s’assurer qu’on aide les gens dans l’atteinte de leurs objectifs. Ça, c’est sûr. On va aussi aider à développer des solutions. On a déjà commencé à le faire. Développer des solutions qui sont de bonne qualité, on les démontre avec des méthodologies d’apprentissage machine. Si on le fait pour des solutions traditionnelles, puis on est capable de démontrer que c’est des bonnes solutions et de pouvoir les déployer, on est capable de le faire pour des solutions d’IA générative. Et finalement, on veut bien comprendre les risques qui sont liés avec les solutions qu’on entreprend. Notre but, ce n’est pas de créer plus de problèmes, mais c’est de capitaliser sur les opportunités. Ici, je vais parler rapidement de risque. Je pense que c’est important. On va se faire un petit topo risques. Je vous ai amené ici pour ça. C’est une farce. Mais c’est des bons réflexes à avoir. Ici, je vais parler de quatre risques principaux. On va parler de risques fonctionnels. Tu bâtis une fonctionnalité. Au bout du compte, un modèle, c’est une fonctionnalité.
[35min 33s]
À l’inverse de ce que ChatGPT disait, que nous autres, on fait juste créer une plateforme qui répond à tout. Le but, c’est de créer des fonctionnalités qui répondent à tes besoins. Comment bien le faire? Au niveau de la société, comment s’assurer qu’on développe une solution qui est juste, qui est éthique? L’important, c’est de se poser les bonnes questions. Au niveau de la sécurité de l’information et finalement, d’un point de vue juridique. Ici, je vais passer à travers les différents risques. Au niveau des meilleures pratiques pour le risque fonctionnel, c’est de bien définir la tâche que tu fais accomplir. Comme plutôt, on a regardé plusieurs tâches. Donc, c’est important de bien découper de la façon qu’on veut attaquer notre problématique. Et ce n’est pas parce qu’on a un engin en avant de nous ou qu’on peut taper n’importe quel prompt, puis ça répond très bien à tout. On se dit « Pas besoin de scopé, on va juste avoir une barre de recherche, puis on va faire ce qu’on veut. » L’idéal, c’est vraiment de s’assurer qu’on ait une bonne performance par rapport à ce qu’on veut accomplir. Ça, c’est vraiment la base et je suggère à tout le monde de faire ça.
Meilleures pratiques pour les risques fonctionnels
[36min 53s]
Par la suite, ce qu’on va vouloir faire, c’est optimiser nos approches, optimiser nos prompts. Je vais vous montrer comment faire ça dans un instant. Et finalement, tu fais une validation. C’est un outil d’apprentissage machine, c’est un outil d’intelligence artificielle. Tu veux le valider avec plusieurs données, plusieurs prompts, plusieurs situations, comme on fait dans de l’intelligence artificielle traditionnelle. Ce n’est pas parce que ça fonctionne une ou deux fois qu’on peut prendre en considération que ça fonctionne toujours. Donc, ça aussi, c’est quelque chose que je propose, c’est d’utiliser des approches conventionnelles, des approches qui ont été éprouvées pour la validation et de valider ce qu’on développe. « OK, oui, ça fonctionne. » Et là, c’est quantifiable. « OK. Ce que j’ai voulu développer, ça fonctionne bien 90 % du temps. » Donc, tu es capable de pouvoir quantifier le pourcentage de bonnes réponses que tu obtiens. Ça, ça vaut beaucoup parce que ça te permet de pouvoir savoir si tu tires dans le pied ou pas à continuer le développement. Ici, je vais vous donner un exemple par rapport à l’optimisation des prompts. Ce que je parlais tantôt, puis c’est vraiment très… Je pense que tout le monde comprend que c’est très simpliste, c’est qu’on écrit un prompt « Fais-moi le poème sur les bottes de foin », ce n’est pas ça que tu vas transformer en un processus ou un produit.
[38min 29s]
Ce n’est pas ça. Ça ne fonctionnera pas bien. Moi, j’aime utiliser l’expression future proof ». Ce n’est pas quelque chose qui va te permettre de pouvoir déployer une solution qui va fonctionner à long terme. Ce que tu vas vouloir faire à la place. Oui, je vais donner un exemple. Excusez-moi. Je vais donner un exemple. C’est comme si je pose une question, je me développe un chatbot financier, puis je pose une question sur… Par exemple, identifie-moi trois faits intéressants dans le dernier état des résultats de Shopify. C’est une question légitime? Non, excusez-moi, ChatGPT, il est juste entraîné jusqu’à 2021. Ok, mais il ne sait pas ça. Puis là, si tu lui poses la question sur, par exemple, les états financiers de 2019, il va te sortir n’importe quoi. Les chiffres ne vont pas être les vrais. Pourquoi? Parce que c’est vraiment loin dans la mémoire de l’outil. Ce que tu veux faire à la place, c’est la meilleure façon de se tirer dans le pied, c’est de poser ton prompt, vanille comme ça. C’est pas la bonne approche. La bonne approche, c’est de lui fournir de l’information pertinente. Si à la place, tu vas lui trouver les états financiers manuellement, tu pourrais les copier-coller pour le tester.
[39min 42s]
Je vous suggère de le faire en passant. Vous allez être très agréablement surpris, mais de le faire programmatiquement dans une solution. Et là, tu te dis « Peux-tu m’identifier trois faits intéressants dans les états des résultats de Shopify basés sur ce document? » Copier-coller, c’est plein de chiffres. C’est difficile à lire pour lui-même, mais les outils de Generative AI sont capables d’interpréter l’information. Et ici, je l’ai testé. Est-ce que ça va te retourner? Ça va se retourner. Et les chiffres, en passant, ont été validés. Je ne l’ai pas fait de validé par Raymond Chabot de Grant Thornton. Écoutez, je pousse un petit peu, mais pas tant que ça. Mais ça donne des vrais faits, ça donne la bonne information et ça, c’est future proof. Donc là, tu viens de te créer, oui, certes, une petite complexité supplémentaire, mais ça en vaut la chandelle. Ici, si je reviens avec ma proposition, ça serait d’ajouter de l’information. Premièrement, c’est de partir avec une base de connaissances. Ta base de connaissances, ça peut être un FAQ, ça peut être des documents par rapport à ton entreprise. Moi, je veux savoir mon offre de service.
[40min 59s]
Dans mes projets, j’ai des post mortem, je les mets dans une base de données, puis après ça, je peux poser des questions à un outil de generative AI, puis il me répond. Tu te crées une base de connaissances, puis après ça, tu vas faire, dans le fond tu te fais recommander, donc tu te crées un outil simple de recherche qui te donne des recommandations. Ça serait quoi l’information que tu veux ajouter dans ton prompt? Par la suite, tu l’optimises et voilà, là, tu te retrouves à avoir un outil qui fonctionne bien, qui hallucine moins et qui est prêt pour le futur. C’est ce type d’outil que moi je propose d’utiliser parce que sinon, on se tire dans le pied. Au niveau des risques sociétales, il faut se poser les bonnes questions. Je pense rapidement, il faut se poser les bonnes questions. À défaut de se poser les bonnes questions, s’il vous plaît, n’automatisez rien. L’automatisation, quand on ne sait pas ce qu’on fait, c’est l’ennemi. On n’automatise rien avant de savoir poser les bonnes questions. Mais encore une fois, il faut se poser les bonnes questions. On ne sait pas ce qu’on ne sait pas, right?
Risques sociétaux et poser les bonnes questions
[42min 10s]
Il existe des outils pour ça. Je peux vous partager. Ce que je vais faire, c’est après, je vais vous partager une liste d’outils. Un des outils que j’aime bien, il s’appelle la grille de réflexivité. Je ne savais pas que c’était un mot, mais apparemment, c’est un mot. Sur les enjeux éthiques de système IA, qui a été développé par l’OBVIA. Qui est une organisation québécoise. Et ça ici, c’est par exemple les dix commandements, les dix des sujets, dix des catégories de risque. Et c’est vraiment intéressant parce que cette grille va donner des questions qui sont très précises. Comme par exemple… Mais c’est des questions qui te font réfléchir. Je vais vous donner certains exemples. Est-ce que votre système peut nuire au bien-être psychologique de l’usager? Dans certains cas, oui. Il y a à peu près un mois, il y a un suicide qui est arrivé à cause d’une utilisation abusive d’un chatbot. Je sais que c’est « cherry pick », mais c’est juste dire qu’il peut y avoir un lien entre le bien-être psychologique et l’utilisation de la technologie. Il faut juste être capable de comprendre si oui ou non, on peut affecter la société avec notre système.
[43min 31s]
Au niveau de la vie privée, bien entendu, on en a parlé tantôt. Au niveau de la prudence, c’est quoi le pire qui peut arriver? Est-ce qu’on a des mécanismes pour éviter que le pire se produise? Le pire qui peut se produire, ça serait de partager de l’information. Si c’est juste de partager de l’information à l’interne, mais après ça, tu as tout le temps quelqu’un qui va valider puis qui va corriger, ce n’est pas un gros risque. Mais si tu te retrouves à créer quelque chose qui est automatique, puis qui envoie de la fausse information ou qui prend des décisions financières, on propose d’avoir des mécanismes pour atténuer ces risques. Au niveau des responsabilités, qui, ultimement, est responsable pour la solution? On ne peut pas juste dire « J’ai roulé quelque chose, je pesais sur « run » ». Ça roule, c’est supposé faire une tâche, mais il n’y a personne dans l’organisation qui est en charge. La réponse est « Google est en charge parce que c’est leur solution. Non, non, non. Ce que vous développez, c’est vous qui êtes en charge. Donc, en d’autres mots, si on pense qu’on va utiliser ChatGPT pour automatiser un département, j’ai une petite nouvelle pour vous.
Sécurité de l’information et utilisation de l’API
[44min 44s]
Il y a quelqu’un qui va être en charge de ce nouveau département virtuel et toutes les mauvaises décisions qui sont prises vont être attribuées à cette personne. Est-ce qu’on est prêt en tant qu’organisation, à faire ça? C’est une autre bonne question. Je vous suggère fortement de vous poser les bonnes questions et d’essayer de répondre le mieux possible. Ça ne veut pas dire que vous allez canceller vos projets, mais vous allez les structurer différemment possiblement. Au niveau de la sécurité de l’information, ce que je vais proposer, puis on le voit en gras, c’est que premièrement, dès aujourd’hui, évitez de mettre de l’information sensible, que ce soit dans Bard ou dans ChatGPT. C’est deux solutions où l’information passe vers le créateur. Ce n’est pas pour des raisons de « On veut voler l’information pour dominer le monde.» Ce n’est pas pour ça. C’est pour en savoir plus sur les codes d’usage qui sont pris pour être capable de pouvoir en savoir plus sur l’utilisation de la technologie. Mais, il faut éviter, c’est un risque au niveau de la sécurité de notre information en entreprise. Et personnellement, ne rentrez pas vos numéros d’assurance sociale. Il y a plein de choses qu’on veut éviter de faire.
[46min 05s]
Je me demande si tout le monde connaît mon nom basé sur mon numéro d’assurance sociale. Ce n’est pas un bon prompt. Aussi, l’autre élément, ça, c’est pour des outils B2C qui sont gratuits. On sait qu’il n’y a rien de gratuit dans ce bas monde. Ça, c’est un exemple. Mais aussi, pour l’instant, ce que je propose, c’est d’éviter l’utilisation des API d’ OpenAI. Openai présentement, parce qu’ils utilisent l’information pour le réentraînement, donc les outils actuels, pour des cas où la sécurité d’information est plus accrue, par exemple, on crée un chatbot où vraiment c’est l’usager final qui communique. Donc, tu ne peux pas contrôler l’information qui est divulguée. Dans ce cas ci, j’utiliserais probablement d’autres alternatives, comme par exemple d’utiliser Google, d’utiliser Microsoft directement. Les services professionnels, eux, garantissent le fait que l’information ne va pas sortir de notre environnement à nous. C’est beaucoup plus réconfortant. Et après, ici, j’ai une petite proposition pour les entreprises que j’entends justement qui commence à être une proposition que les gens adoptent, c’est de créer leur propre plateforme d’IA générative. Si on commence à le voir de plus en plus, ici, le use case est très simple. Si je travaille chez Pratt & Whitney Canada, puis je commence à utiliser ChatGPT, copie et colle, je veux valider des pièces de rechange, c’est quoi dans ce matériel d’instruction, les pièces de rechange, les besoins pour faire telle réparation?
Risques juridiques et considérations sur le droit d’auteur
[47min 51s]
C’est un bon use case, mais si tu le tests, ça veut dire que tu viens de donner tes spécifications techniques de ton moteur à OpenAI. Tu veux probablement pas faire ça. À la place, qu’est-ce que tu peux faire? Tu peux utiliser les versions professionnelles. Premièrement, tu pourrais utiliser les versions professionnelles, que ce soit Google ou Microsoft, les deux offrent ces capacités et tu crées un interface, puis l’affaire est ketchup. Donc là, tu viens de créer un interface, tu peux l’appeler comme tu veux. Pratgpt, tu peux t’amuser, tu mets des belles couleurs. Tu viens de réduire un risque à l’utilisation de la technologie. Tu n’empêches pas. Le pire ça pourrait être d’empêcher d’utiliser la technologie parce que c’est impossible d’empêcher l’utilisation de l’IA générative. À la place, tu viens contrôler la sécurité autour de ça et tu peux même pousser plus loin. Tantôt, je parlais de base de connaissance. Mon Pratgpt, je peux lui donner accès à toute ma documentation technique. Comme ça, je peux poser des questions, puis il répond des bonnes réponses. Tu peux créer cette interface et vraiment faire bénéficier ton organisation. Ça, c’est un exemple qui, en tant que tel, résout beaucoup de problèmes.
[49min 12s]
Moi, je suis un gars de solution. C’est pour ça que j’aime proposer celle-ci, parce que c’est tellement élégant. Finalement, on va finir avec les risques juridiques. Sur ça, on en parle beaucoup. Droit d’auteur, plagiat. Oui, il peut y avoir ces problèmes-là. Donc, de une, moi, ce que je propose, c’est premièrement d’évaluer le risque que ça arrive. Il y a certains risques comme l’analyse de sentiments, il n’y en a pas. Tu demandes si c’est positif ou négatif basé sur de l’information. Donc, il n’y a aucun risque. Dans certains cas, il y aura un risque qui est nul ou négligeable, mais dans certains cas, le risque va être très élevé. Je suis un journaliste, je suis je veux me faire aider dans la création de mon article, ça l’a un risque qui est plus élevé au niveau du plagiat, au niveau de la propriété intellectuelle. Je veux faire automatiser le développement de code. Tu peux te retrouver à utiliser des portions qui ont une licence commerciale, donc que tu ne devrais pas pouvoir utiliser. Et tu ne le sais pas, parce que c’est tellement élégant l’extrant que des fois, tu peux être pris de cours. Dans ce cas-ci, moi, ce que je propose, c’est que dans les cas les plus extrêmes où justement il y a un risque important au niveau des droits d’auteur, je proposerais d’éviter d’utiliser ChatGPT précisément, parce que GPT, c’est une des solutions qui existent en ce moment, qui n’ont pas clarifié qu’ils utilisent juste de l’information publique.
Solutions alternatives pour les risques de droit d’auteur
[50min 55s]
Donc eux, leur position est floue présentement. Donc dans ces cas là, c’est peu de cas, mais quand même, quand ça arrive, il existe GPT 3, il existe GPT 4, il existe PALM, il existe plusieurs autres outils qui peuvent s’adresser pour résoudre ce cas-là. Et finalement, tu peux aussi prendre la problématique différemment. Donc, tu peux à la place, tu génères quelque chose et tu vas venir le faire valider. Par exemple, d’un point de vue journalistique, il existe des outils qui valident s’il y a du plagiat. Donc, tu peux te retrouver à ajouter et peaufiner ton outil pour minimiser les risques. J’espère que je n’ai endormi personne à parler de risques, mais c’est important pour moi. Donc merci d’avoir resté. Je n’ai même pas vu personne bailler. Je me donne une petite tappe sur l’épaule. Donc, en conclusion, je l’ai répété, puis je vais le répéter encore. Mais c’est important d’embarquer maintenant, c’est important d’utiliser la technologie. Il y a tellement de bénéfices qu’on peut retirer de ces approches, de ces outils de l’IA générative, mais il faut bien le faire. Quand on fait bien les choses, on réussit à avoir les upsides, mais on réussit à minimiser les downsides.
[52min 08s]
Sur ce, merci beaucoup pour votre écoute.
Olivier est cofondateur et VP science de la décision chez Moov AI. Il est éditeur de la norme ISO internationale qui définit la qualité des systèmes d’intelligence artificielle où il mène une équipe de 50 professionnels de l’IA de partout dans le monde. Ses connaissances de pointe en IA et en apprentissage machine l’ont amené diriger la mise en oeuvre d’une culture des données dans différentes industries.