Aujourd'hui, ces machines ont été évaluées par personne, mais elles sont utilisées par le plus grand nombre sans que celui qui donne le service prenne la moindre responsabilité sur l'usage des technologies. Les promoteurs de ChatGPT ont réussi l'exploit technologique de faire une interface ouverte au grand public qui est restée ouverte au grand public pendant des mois entiers. Ce qui a permis, petit à petit, par capillarité, de diffuser l'information auprès d'un public de plus en plus large. Puis, ce public s'est pris au jeu et a découvert les multiples possibilités de cette interface. Il est capable de produire des énoncés linguistiques qui ont l'apparence de réalité, qui sont en général syntaxiquement, bien formés, souvent cohérents, parfois assez longs. Et donc tous les gens qui ont besoin de générer des énoncés, d'une manière contrôlée, par exemple pour résumer des documents pour les reformuler, pour en corriger l'orthographe, pour les traduire, pour peut-être aussi répondre à des questions... À chaque fois qu'on a besoin de générer un peu de texte, on peut essayer de manipuler cet outil pour qu'il produise un texte qui est conforme à nos attentes. Les usages sont nombreux. J’en ai cité quelques-uns. Je pense que celui qui a l'air d'avoir le plus d'application directe, c'est le fait de résumer des textes. On lui donne un texte et il est capable de le résumer en quelques phrases. Ça, il le fait assez bien. Pour les autres usages, le fait de générer des textes ou de répondre à des questions, là, le texte qu'on obtient a souvent l'apparence d'un texte correct, mais par contre, son contenu peut être complètement erroné. Donc ça, c'est un peu un problème. D'une certaine manière, ChatGPT ne se trompe pas parce que pour se tromper, il faut avoir une notion de ce qu'est la vérité. Et ChatGPT n'a aucune notion de la vérité. Il ne fait que calculer un mot après l'autre et de cette manière, produire des énoncés de façon automatique en réaction à des énoncés qui sont fournis par les humains. Donc on peut dire qu'il ne se trompe pas. Ce qui est peut-être inquiétant, c'est que les textes qu’il produit ont toute l'apparence de la véracité pour un humain. Donc l'humain peut être floué parce qu'il a l'impression de dialoguer avec quelqu'un qui dit la vérité. Et ce n'est pas du tout le cas. Est-ce que ChatGPT pourrait se rendre compte qu'il se trompe ? Avec tous les guillemets autour de se tromper... En fait, oui. Un système antérieur développé par Google était capable de débrayer son comportement de génération de mots pour dire « attention, là, on pose une question qui est : « quelle est la date de naissance de Victor Hugo ? » cette question-là, je ne peux pas générer moi-même la réponse. Il faut que j'aille chercher cette réponse dans une base de données. » Et donc comme un moteur de recherche aujourd'hui, il va aller peut-être interroger Wikipédia et donner une réponse circonstanciée. « Victor Hugo est né à telle date ». Donc ChatGPT pourrait tout à fait faire la même chose. Et je pense que les outils et les systèmes de dialogue vont de plus en plus avoir ces capacités à faire la part des choses entre le moment où on lui demande d'inventer du texte, et les moments où on lui pose des demandes qui nécessitent une réponse qui est soit un calcul, soit une recherche dans une base de données, soit une traduction automatique, auquel cas ChatGPT pourra appeler un traducteur, ou bien d'autres types de problèmes. Je ne lis pas dans la boule de cristal, donc je ne sais pas quels métiers sont en danger. Dans les métiers de l'enseignement, je pense que le rapport de l'enseignant-l'enseigné va bien plus loin que simplement celui de déverser des connaissances dans un gosier qui ne demande qu’à les avaler. Peut-être qu'il faudra en changer un peu les modalités parce que maintenant on saura que l'élève a aussi accès à ces espèces d'assistants qui lui permettent d'accéder à des bases de connaissances incroyables, on espère, pour son bien. Je pense que c'est un peu comme pour la traduction automatique, c'est-à-dire que si un traducteur n'est pas capable de faire mieux qu’un traducteur automatique, c'est sûr que lui, il est en danger. Le traducteur professionnel devra élever son niveau, peut-être, abandonner des traductions qui étaient très faciles à faire et qui lui rapportaient de l'argent parce que celles-là, une machine pourra les faire aussi bien que lui et se concentrer sur les traductions à plus grande valeur ajoutée, pour lesquelles il pourrait peut-être demander à être un peu mieux payé. Je pense que ce sera pareil pour des conseils juridiques. Par exemple, quelqu'un qui demande un conseil juridique... Les conseils juridiques complètement standardisés à faible valeur ajoutée pourront être pré-rédigés par une machine. Et peut-être que l'humain pourra juste signer ou le vérifier. Et les conseils juridiques à forte valeur ajoutée, pour ceux-là, il faudra un humain expert qui s'engage, qui prend la responsabilité de ces conseils avec les conséquences associées. Un médecin, ce n'est pas juste un super moteur de recherche dans les encyclopédies médicales. C'est quelqu'un qui va vous regarder, vous écouter, vous ausculter. Par contre, ChatGPT peut tout à fait servir d'auxiliaire, d'aide ou d'assistant, et les systèmes d’IA en général peuvent tout à fait servir d'aide pour des tâches d'analyse médicale. Ils le font déjà pour aider à l'analyse d'images. Ils sont capables de détecter des choses que l'œil humain ne voit pas. Ils les détectent peut-être pour de mauvaises raisons. Ils ne sont peut-être pas capables d'expliquer pourquoi là, ils ont vu une tumeur. Des fois, ils se trompent. Ils ne se trompent peut-être pas de la manière que l'humain. Mais on sait aujourd'hui que quand on compare leurs performances en termes de détection, ils sont capables de détecter des choses que l'humain ne voit pas. Jamais... En tout cas, pas à un horizon visible, ils pourront se substituer aux médecins humains. Ne serait-ce que parce que le médecin humain est responsable. ChatGPT, personne n'est responsable de ses actes. Est-ce qu'aujourd'hui, il y a un assureur qui est prêt à assurer un médecin chatGPT ? Je ne sais pas, il faudrait poser la question à des assureurs. Pour moi, là, le problème numéro un, je dirais, c'est le problème de la responsabilité. C'est à dire qu'aujourd'hui, à travers ces applications qui sont déployées sur le web, en fait, on donne accès aux internautes à des technologies qui n’ont été validées par personne. Et donc c'est un peu comme si on mettait sur la route des voitures qui n'ont jamais passé le contrôle technique, dont on a jamais même testé le système de freinage. En fait, ces machines n'ont été évaluées par personne, mais elles sont utilisées par le plus grand nombre sans que celui qui donne le service prennent la moindre responsabilité sur l'usage des technologies. Le fait que, d'un seul coup, tout un chacun ait accès à des technologies qui permettent de générer des flots de textes artificiels, contenant des vérités, des contrevérités, tout ceci mélangé et puisse les diffuser à très grande échelle sur les réseaux sociaux, ça, c'est une perspective qui n'est pas très réjouissante parce que, d'une certaine manière, et d'ailleurs c'est déjà ce qu'on voit, ça détruit complètement l'espoir qu'on pouvait avoir au moment de la création des grands réseaux sociaux, où on voyait ça comme un outil d'émancipation, de partage, de discussion ouverte, de capacité nouvelle d'action. Dès lors que ces réseaux sociaux sont en permanence pollués par des textes, des messages qui sont des contrevérités ou qui sont manipulateurs, ils deviennent inutilisables ! Ça devient de plus en plus facile et de moins en moins cher d'imiter la voix de quelqu'un à partir d'un petit enregistrement. - Obama : « What about this ? Simply. President Trump is a total and complete deepshit ! Now, see, I would never said these things. At least, not in a public adress. But someone else would. Someone like Jordan Peele. » - Voilà, donc à nouveau tous les moments où on pouvait finalement interagir à distance, que ce soit par les réseaux sociaux, que ce soit par le téléphone, etc., ces moments-là sont corrompus, d’une certaine manière, par ces nouvelles formes d’intelligence artificielle. On va peut-être entrer dans l’ère du soupçon généralisé, au moins pour tout ce qui est des relations à distance.