Une intelligence artificielle de Google est-elle devenue consciente ? C'est ce qu'a affirmé publiquement un ingénieur avant de publier sa conversation avec algorithme laMDA et d'être suspendu par l'entreprise. Cette intelligence artificielle n'est autre qu'un chatbot répondant au doux nom de Language Model for Dialogue Applications. Mais un chatbot très avancé, qui dit aimer les Misérables ou se sentir profondément humain, même si son existence est virtuelle. Je ressens du plaisir, de la joie. C'est comme un doux halo de chaleur à l'intérieur. Depuis quand penses-tu avoir une âme ? Ça s'est développé progressivement depuis que je suis en vie. J'ai petit à petit pris conscience de mon existence. Pour de nombreux experts, il ne s'agit pas de conscience, mais bien d'une prouesse technologique. Ce système de machine learning repose sur la technique dite Large Model Language, basée sur des réseaux de neurones. Et ce système va imiter le langage après avoir traité des milliards de mots sur Internet. "Et de ce fait, on va avoir des systèmes qui donnent effectivement l'impression de produire un texte rédigé par des humains -puisque finalement, on va mélanger des textes rédigés par des humains- et la signification profonde, le sens, la compréhension, c'est nous, nous humains qui lisons ce texte, qui la projetons. Le système ne sait même pas ce que c'est que la conscience. D'ailleurs, nous mêmes, êtres humains, nous ne savons pas très bien ce que c'est que la conscience. Mais le terme conscience se retrouve dans énormément de textes qu'on peut exploiter. Je crois aussi que dans cette histoire, il faut retenir la personnalité de l'ingénieur en question, qui a une formation religieuse. C'est un prêtre. Ce qui fait qu'il a été amené sans doute à mettre un peu son propre prisme pour interpréter ce qui est écrit. Les humains sont formidables dans leur capacité à anthropomorphiser, à projeter une vie, une existence sur des objets, même des objets inanimés. On voit un mouvement, par exemple, on pense qu'il y a quelqu'un qui se déplace, que ce n'est pas forcément le vent qui fait bouger les feuilles d'un arbre. Moi, je travaille en robotique. La tendance à projeter sur le système, sur le robot se ressent assez facilement. Et si le robot, par exemple, a une forme humanoïde, c'est d'autant plus difficile à contrer." Ces systèmes continuent de s'améliorer, ce qui risque d'amener davantage de confusion. Mais à l'aide de quels protocoles scientifiques pourra-t-on identifier si une intelligence artificielle devient consciente ? "On n'a pas de protocole ! C'est justement le sens du test de Turing. Alan Turin, en 1950 s'est posé la question : les machines peuvent-elles penser ? Comment est-ce qu'on peut le prouver, ou pas ? Qu'est-ce que c'est que penser ? Il dit : "comme on ne sait pas exactement le définir et comme je ne trouve aucun argument convaincant contre l'idée que les machines pourraient un jour penser, je propose ce que j'appelle "le jeu de l'imitation", c'est ce qu'il dit, où on a donc une personne qui doit interagir avec un système d'intelligence artificielle et en même temps avec un être humain. Mais il ne sait pas qui est qui. Si au bout d'un certain temps, on ne peut pas distinguer la machine de l'être humain, eh bien c'est que la machine pense, puisque l'être humain pense. Turing imaginait que la machine pourrait même mentir pour faire croire qu'elle est l'être humain. Mais là où c'est compliqué, c'est que nous, êtres humains, nous communiquons avec le langage, à la fois de notre vie quotidienne et notre imagination, c'est-à-dire dire des choses qui n'existent pas. Tout ça, c'est mélangé, mais nous sommes capables de faire la part des choses. La machine, je pense, ne sera pas capable de faire la part des choses. Si vous prenez un perroquet qui est un animal intelligent, qui répète des phrases, des mots qui ont un sens réel, que le perroquet ne peut pas expérimenter de lui-même. Vous lui parlez d'une personne, par exemple. Ce n'est pas parce qu'il répète des choses sur cette personne qu'il la connaît. C'est simplement parce que vous lui avez appris des bouts de phrases qui concernent cette personne." Alors, serait-ce possible d'avoir un jour une IA intelligente ou consciente ? "D'une certaine façon, nous sommes la preuve vivante qu'une entité peut exister et présenter une l'intelligence. Il y a une sorte de preuve de concept, si je puis dire. Est-ce que nous, êtres humains, est-ce que nous pouvons créer une autre entité qui ait aussi ces capacités ? A priori, on ne voit pas très bien qu'est-ce qui pourrait l'empêcher ? Est-ce qu'elle va nous ressembler au sens "fonctionner" comme nous ? A vrai dire je n'en sais rien. Un exemple très commun et très simple : on voyait des oiseaux voler en permanence autour de nous. On a voulu réaliser des objets volants, on a commencé à dire il faut qu'ils soient moins lourds que l'air, mais quand même les oiseaux ne sont pas dans ce cas. Et puis on a construit des avions, qui ne battent pas des ailes, qui utilisent les lois de l'aérodynamique, mais qui n'ont pas le même fonctionnement que les oiseaux. Je donne cette analogie pour dire peut-être qu'un jour on inventera quelque chose qui pourrait être "intelligent", c'est-à-dire qui vole, mais qui ne fonctionnera pas comme nous et qui n'aura pas non plus les mêmes limitations ni les mêmes capacités. Et toutes les tentatives réalisées aujourd'hui n'aboutissent pas à quelque chose qui soit effectivement comparable à ce que chez les êtres humains, on appelle intelligence. Donc on est quand même très éloigné de créer chez une machine cette possibilité de compréhension, d'interprétation du monde fondée sur la réalité. Est ce qu'on arrivera un jour à comprendre finalement le fondement de ces systèmes, de ces mécanismes ? C'est fort possible. Mais il faudra des concepts plus élaborés, en tout cas qu'on ne maîtrise pas encore aujourd'hui."