Les machines ont-elles pris le pouvoir ?
Avec Gérard Berry, chercheur en informatique et Médaille d'or du CNRS 2014, et Michel Puech, philosophe.
Réalisation : Sylvie Allonneau
Production : Universcience
Année de production : 2012
Durée : 29min32
Accessibilité : sous-titres français
Les machines ont-elles pris le pouvoir ?
LE DÉBAT ET VICE-VERSA Un plateau, deux invités, seuls devant les caméras. Ils sont là pour mener un débat exactement comme ils le veulent. Le débat et vice-versa Les machines ont-elles pris le pouvoir ? Alors on commence par vous. Qui êtes-vous ? Je suis Michel Puech, je suis un philosophe, en fait. J'enseigne dans une grande université parisienne. Ce qui m'intéresse dans la philosophie, c'est le monde moderne, la modernité, les systèmes de valeur de la modernité, comment ils changent, qu'est-ce qu'on peut faire avec. Et là-dedans, deux accents, un sur la technologie, l'autre sur ce qu'on appelle le développement durable, mais que moi j'aimerais bien appeler le « soutenable ». Deuxième invité, même préambule, qui êtes-vous ? Je suis Gérard Berry, chercheur en informatique depuis 1970, la préhistoire du sujet. J'ai été dans divers instituts et aussi dans l'industrie et j'ai eu l'honneur d'introduire l'informatique à travers deux chaires annuelles au Collège de France. Ce qui m'intéresse, en dehors de ma recherche elle-même qui est plutôt pointue, c'est la compréhension, par la population française ou d'ailleurs des phénomènes très, très importants qui sont en train de se produire en ce moment à cause de l'informatique à travers le monde. Top chrono, vous avez maintenant 30 minutes pour vous exprimer et vous écouter. Allez, c'est parti. On peut pas dire que les machines ont pris le pouvoir. Parce que dans « pris le pouvoir » il y a une notion d'intention et les machines ont pas, jusqu'à maintenant, beaucoup d'intentions. La question c'est « avons-nous laissé trop de notre pouvoir aux machines ? » Ça c'est une question beaucoup plus précise. Ben, c'est un équilibre assez difficile et ça dépend si les machines sont bien faites ou pas, c'est pas une notion nouvelle. Ça se trouvait avec les moteurs aussi. Mais là, maintenant, ça touche des pans sacrés de notre vie, tout ce qui touche à l'information et aux relations. Donc la question est effectivement très, très pertinente et je ne dirais pas qu'elle a une réponse simple. Pour le philosophe c'est pire encore parce que la définition du philosophe, c'est que quand on lui pose une question on comprend même plus ce qu'on lui avait demandé. Donc sur une question comme ça, « les machines ont-elles pris le pouvoir ? », la première idée c'est que les machines c'est peut-être pas le bon sujet parce que quand je surfe sur le web je vois pas tellement les machines, je vois ce que je vois sur le web. Et peut-être le pouvoir, c'est plus si important que ça et puis on sait pas trop quel pouvoir. Je suis pas tout à fait d'accord. C'est vrai pour le web, mais il y a pas que le web. Quand on est dans un avion, c'est pas le pilote qui pilote l'avion, c'est les ordinateurs de l'avion, donc... Oui. Le pilote, le pouvoir du pilote sur l'avion a été beaucoup réduit. Les machines ne sont pas les ordinateurs. Il y a beaucoup, beaucoup plus de machines informatiques dans les objets de tous les jours que dans les ordinateurs, ça c'est clair. C'est parce que quand l'informaticien comme vous vole, il pense aux centrales informatiques qui pilotent et il sait comment fonctionne l'avion, mais le passager moyen, le philosophe par exemple pense que c'est le pilote, toujours, il ne voit pas qui pilote l'avion. Le passager moyen ne voit pas à quel point nous sommes dépendants de choses qu'il ne voit pas forcément exactement comme des – tout le temps comme des machines, au sens où la machine, ça a encore un côté industriel, XIXe siècle. Et dans le lien entre les deux, l'idée qui m'est venue, à la – avec ce titre, en entendant ce titre, « les machines ont-elles pris le pouvoir ? », c'est une idée un peu iconoclaste qui consiste à dire, ben peut-être oui, que les machines, et notamment les ordinateurs et l'Internet ont pris le pouvoir à ceux qui l'avaient et le redistribue d'une manière plus intéressante. Au début était la numérisation ? Je pense pas que ce soit si simple. Au début était l'information. C'est quelque chose de très important depuis toujours. Information orale, information écrite, information diffusée par livre. Mais c'était surtout une information humaine. Ce qu'a apporté la numérisation c'est de rendre beaucoup plus facile le traitement de l'information, et pas seulement l'information habituelle, pas seulement le texte. Quand une voiture est conduite par des ordinateurs, ou qu'il y a des ordinateurs partout dedans, c'est pas de l'information écrite. La notion d'information s'est élargie, s'est approfondie, est devenue beaucoup plus rapide. Je dirais par exemple que pour comprendre la notion d'information, Louis XIV définissait la France comme un pays de taille idéale, 6 jours de long, 4 jours de large. C'est pas un temps de transport, c'est un temps de transport de l'information. C'est la vitesse de transfert des messages. Maintenant, le monde est à la vitesse de la lumière donc c'est un centième de seconde pour envoyer un courrier électronique. Donc la numérisation est un levier extraordinaire sur l'information qui existe depuis toujours. Oui. Et donc en fait, il y a une histoire de pouvoir dedans parce que la numérisation et le fait d'avoir des machines numériques, nous a donné le pouvoir sur quelque chose qui est le vrai lieu du pouvoir, qui est l'information. Oui. Ce qui s'est passé c'est que le XXe siècle et le XIXe ont été beaucoup le siècle de la matière, de la machine, du métal, du marteau, de... Il suffit de regarder les films des années 50. Et maintenant c'est beaucoup le siècle de l'immatériel et de l'information. L'ordinateur a un côté presque immatériel, il est pas immatériel, mais avec les téléphones portables, on se demande ce qu'il y a dedans, alors que c'est des machines prodigieuses, parce que ça disparaît devant l'information. Donc ça c'est vraiment la nouveauté qu'il y a eu au XXIe siècle. Sinon... Alors ce qui change aussi, c'est la mémoire. C'est-à-dire qu'avant il fallait connaître l'information, il fallait savoir la trouver. On n'avait pas les livres sur soi. Maintenant on a le monde entier sur soi. Et on sait pas encore ce que ça va fabriquer comme – comme monde. On n'a plus du tout intérêt à connaître les choses par cœur de la même façon. Par contre on a intérêt à savoir les gens qui savent où ça se trouve. Et ça c'est un autre mode, je pense que le mode de fonctionnement de nos enfants va être 100 % différent à cause de ça. Ce que vous définissez là c'est – on l'appelle la « littératie », maintenant. On a emprunté le mot à l'anglais pour le mettre dans le – dans le – en français où il y en a bien besoin. La littératie c'est la capacité à aller chercher l'information là où elle est, sans l'avoir stockée (avant elles étaient dans notre cerveau, maintenant elles sont sur des supports de plus en plus numériques) mais aussi à l'évaluer et à la réutiliser. C'est la culture dont on a besoin. Et là, le numérique a vraiment changé le – a vraiment changé la donne. Mais avant peut-être, il y a un changement dans les machines. Les – la première génération des machines, des machines qui ont accompagné l'humanité, c'était les machines de puissance. Avec parfois une petite partie informationnelle, par exemple sur la – même la machine à vapeur pour prendre une évoluée, il y a de la régulation, il y a une partie informationnelle pour la piloter ou pour qu'elle ait un minimum d'autonomie. Alors que maintenant, nos machines ne manipulent que de l'information et, comme vous avez dit, elles apparaissent presque plus comme des – comme des machines. Il y a une espèce de transparence de la machine parce qu'elle est devenue une machine qui manipule l'information, qui est immatérielle. Oui alors, moi je pense qu'il est très – enfin je travaille beaucoup sur comment les enfants voient le nouveau monde. C'est très différent des adultes. J'ai un exemple magnifique, c'est une petite fille de 10 ans qui a demandé à sa mère, « maman je comprends pas, un truc que je comprends pas, tu m'as dit que quand t'était petite t'avais pas d'ordinateur, alors comment vous faisiez pour aller sur Internet ? » Et donc les enfants pensent qu'Internet ça existe depuis la nuit des temps (la nuit des temps c'est avant qu'ils soient nés) et donc c'est – c'est très important. Énormément des comportements ont changé depuis le début du XX – du XXIe siècle et personnellement, je suis en train de concevoir un projet de musée de 1999 pour expliquer comment on faisait avant. Oui. Pour que les enfants sachent comment leurs parents arrivaient à organiser une soirée, par exemple. Exactement. Ce qu'ils sont incapables de comprendre, j'ai déjà essayé, ça marche pas. C'est un petit peu étonnant parce que, tout le temps l'environnement des humains a changé, mais absolument pas à ce rythme-là. Le passage à l'écriture, par exemple, le passage à l'éclairage électrique ou l'électrification, ça a pris un certain temps. Ça a pris au moins une génération. Et là, ça a pris quelques années. L'installation – le record étant l'installation du téléphone mobile. Ça a pris vraiment très, très peu de temps pour devenir totalement universel, à partir de zéro, avec une majorité des gens, disons de notre âge qui n'arrivent même pas à comprendre ce qu'ils allaient en faire. La mutation qu'on évoque là, elle est peut-être d'une nature, ou en tout cas d'une intensité, si on veut, différente. C'est qu'on est passé de gens qui ne comprenaient même pas pourquoi on aurait besoin d'un téléphone mobile à des gens qui ne comprennent pas comment on pouvait vivre sans téléphone mobile. C'est quand même radical. Oui, il y a aussi une grande différence par rapport aux autres révolutions comme l'électricité ou la machine. Il y a pas que le rythme, il y a la compréhension. Dès que l'électricité a été inventée, elle a été enseignée, il y avait de la vulgarisation. L'informatique, ça fait 50 ans que ça existe, il y a toujours pas d'enseignement du tout et à peu près personne ne sait du tout ce que c'est. Ce qui introduit des dépendances absolument majeures par rapport au monde qui sont – aux gens qui sont en train de fabriquer le monde actuel, et qui font ce qu'ils veulent parce qu'ils ont rien en face. Personne comprend mais personne ne cherche à comprendre, ça c'est un phénomène un peu grave, au niveau philosophique, je trouve. Ne pas chercher à comprendre des phénomènes aussi profonds, c'est très dangereux. Un bon exemple là-dessus, c'est le physicien Richard Feynman Richard Phillips Feynman (1918-1988) qui est un génie de l'humanité, dans un – il raconte que dans un avion, il se dit, il y a un moment il médite en disant, « c'est quand même incroyable, on vit dans une société de la connaissance, une société de la science. » Et puis après il se dit « oui mais dans cet avion, à part moi qui suis un physicien, qui c'est qui – et les pilotes évidemment – qui c'est qui a une idée précise de pourquoi l'avion vole et comment il vole ? » Et on peut dire, même après il peut se dire « et est-ce que d'ailleurs même moi qui suis un physicien ultra brillant, prix Nobel et tout, est-ce que j'en ai vraiment une idée précise ? De tout ce qui se passe dans le type d'avion, d'avion moderne ? » Donc on est dans une situation, je suis tout à fait d'accord, philosophiquement étonnante, (alors peut-être révoltante, en tout cas qui nous intrigue) c'est que nous vivons dans un monde où nous disposons d'une abondance de puissance et nous profitons d'une abondance de savoir que l'individu ne détient pas. Ça c'est vrai mais je dirais, il y a quelque chose de bien pire sur le numérique que sur les avions, c'est que les avions, quand on en descend on en est sorti. Le numérique on n'en sort jamais, c'est partout tout le temps. Donc il y a ce côté ubiquitaire du numérique qui est – qui le rend quand même un peu plus indispensable. Et je veux dire, maintenant on piste les gens, on piste leurs actions, et très probablement, personne n'est vraiment au courant de ça. Et on peut pas être au courant si on n'essaie pas de comprendre. Il y a une résistance à comprendre dans la société qui est vraiment très étonnante. Qui n'existait pas sur l'électricité, il y avait de la vulgarisation de l'électricité, il y avait de la vulgarisation de la mécanique. À la fin du XIXe il y avait des livres de vulgarisation dans tous les sens, sur l'informatique il y a rien. Alors c'est pas vrai, ça rentre dans l'enseignement cette année, en septembre, mais – en 2012, donc, mais bon c'est... Je pense que le phénomène est tellement grand que ça fait longtemps qu'on a choisi d'attendre pour voir comment s'en occuper. Et plus on attend, plus les gens qui s'en occupent prennent le pouvoir sur les autres. Alors il faut se demander, et je pense que la société demande aux scientifiques quelle sorte de culture doit être diffusée avant de demander comment on doit la diffuser. Et probablement, en tout cas pour moi ce sera en dehors de l'école, en dehors des programmes, des programmes scolaires. Ou les deux. J'ai fait un cours au Collège de France qui s'appelle « Pourquoi et comment le monde devient numérique » et son principe, c'est un très vieux principe, ça s'appelle la leçon de chose. Une leçon de chose, c'est faire comprendre à des gens, en une heure, sur un sujet quelle est l'odeur du sujet, quels sont les réflexes du sujet et c'est pas de rentrer dans les détails, c'est faire comprendre la tête du sujet et le bon sens du sujet. Et effectivement, par rapport au numérique, on a une chute du bon sens. On prend une voiture des années 1970, il y a beaucoup de monde qui savait la réparer parce que le bon sens permettait de la réparer. Une voiture moderne, même les garagistes n'y arrivent pas, parce qu'il y a pas de bon sens dedans, ou c'est pas le même bon sens. Exactement. Et je crois qu'il y a quelque chose que peut-être le public ne perçoit pas bien, c'est que le monde techno-scientifique dans lequel on vit demande à tout le monde, et notamment aux citoyens, à l'individu comme personne éthique mais aussi au citoyen dans la dimension politique, d'avoir une connaissance qui n'est pas la connaissance scientifique sanctionnable par un diplôme et peut-être celle que spontanément les enseignants vont avoir envie d'enseigner dans une école. Il y a une autre sorte de culture, de littératie, de savoir, à diffuser. On en a un bon modèle, un modèle qui pour l'instant est plus chaud que le numérique, à mon avis, c'est le nucléaire. Qu'est-ce que les gens savent, qu'est-ce que les gens comprennent ? Pourquoi ils savent pas ? Comment on en est arrivés là ? Avec quelque chose qui est pas du même ordre mais où la diffusion du savoir a été tellement ratée que peut-être elle peut nous servir de contre-exemple. Vers une autonomie totale ? Alors l'autonomie c'est une grande question de l'informatique, il y a énormément de gens qui travaillent là-dessus et ça fait pas longtemps qu'il y a pas seulement des souhaits mais des réalisations. Donc l'autonomie ça va être quoi pour un informaticien quand il parle de machine ? Ça va être des machines qui savent se débrouiller toutes seules dans des environnements compliqués. Alors ça a commencé, on pense tout de suite à un robot, effectivement, ça a commencé avec les robots martiens, dont il y en a un qui est encore en activité, qu'on envoie sur Mars et qui se débrouillent plus ou moins tout seuls. Plus ou moins, parce que quand même on programme encore un peu de loin. Mais qui a une autonomie extrêmement large et ça a été je dirais... Alors c'est pas que de l'informatique, c'est aussi beaucoup de mécanique et de choses comme ça. Mais c'est vraiment très important. L'autonomie c'est aussi de lancer des programmes sur Internet qui vont faire des recherches tout à fait compliquées pour essayer de comprendre des phénomènes et sur lesquels, une fois qu'ils sont partis, ben, on sait plus, on sait plus très bien même comment les arrêter. Ils marchent tout seuls et puis c'est tout. Et donc il y a beaucoup de travail là-dessus qui est assez fondamental. Il faut faire très attention parce qu'il y a aussi beaucoup d'émotionnel projetable là-dessus qui a pas forcément du sens, le monde est devenu tellement émotionnel que c'est pénible pour un scientifique. C'est-à-dire que de temps en temps il faut aussi comprendre les choses vraies et les choses pas vraies et pas seulement les choses dont on a envie et les choses dont on n'a pas envie. Alors l'autonomie du côté des machines, c'est vrai, ça renvoie à des – c'est à ça que vous pensiez, je pense, des scénarios de science-fiction qui sont en gros toujours les mêmes, où la machine devient de plus en plus intelligente, de plus en plus autonome. Non, c'était pas ça ? Intelligente, j'ai pas dit intelligente. Oui. C'est moi qui le dis. Autonome et intelligente c'est très, très différent. Oui. Il y a des animaux avec un degré d'intelligence extrêmement faible qui sont parfaitement autonomes. Voilà. Alors le problème que nous poserait la science-fiction ou la réalité, c'est des machines intelligentes autonomes, celles qu'on fantasme ou qu'on sait fabriquer ou qu'on saura fabriquer, et qui sont pas des humains. Et donc l'idée c'est de dire, si on fait des machines autonomes qu'on envoie sur Mars ou plus loin, et qu'elles sont tellement autonomes qu'elles peuvent exploiter les ressources locales et fabriquer d'autres machines, qui conçoivent et fabriquent d'autres machines, finalement, est-ce que ça nous intéresse beaucoup ? On n'essaie pas de faire ça mais l'idée, juste pour réfléchir dessus amène à comprendre que, eh ben elles feraient leur vie de machine sur une autre planète mais ça nous concernerait pas. Dans autonomie, il y a une autonomie relative. On veut – toutes les machines qu'on a évoquées, c'est des machines qui sont en lien quelque part avec les humains. Les recherches qui se font par des robots sur Internet ou les robots automatiques, par exemple ils remplacent le travail des humains, mais pour un travail qui va être au service d'autres humains. Donc l'autonomie sur laquelle on a réfléchi, celle qui est une valeur en soi, c'est l'autonomie des humains. Il faut comprendre, il y a vraiment deux niveaux dans l'autonomie. L'autonomie des machines ça veut dire qu'elles ont pas besoin qu'on s'en occupe pour, pour travailler. Travailler, le mot est assez clair, pour faire des choses d'un autre côté. Maintenant, dans l'autonomie humaine, il y a une notion d'intention humaine, il y a une notion de pensée, derrière, d'envie et d'intention qui pour l'instant n'existe en aucune façon dans les machines. Donc c'est... J'aime pas trop parler de la science-fiction parce qu'en matière d'informatique, la science-fiction a toujours eu tout faux. Si on regarde 2001, l'odyssée de l'espace, qui est un très, très beau film, l'ordinateur il est très gros et il pense. Bon ben non, c'est raté, les ordinateurs ils sont tout petits et ils pensent pas. Donc c'est pas ça. Donc autonomie, c'est là que je dis il faut pas plaquer ses envies sur les mots. Le mot autonomie pour les hommes et pour les machines est pas le même. On n'a pas encore de machines qui se disent « tient, ce matin, je vais faire ça. J'ai envie de faire ça. » On n'a pas encore d'envie. Bon, ceci dit des neuropsychologues travaillent beaucoup sur la notion d'envie et d'émotion, et reliée justement à des processus de calculs. On est très, très loin. Donc, je pense que là, on est, on est dans le danger du XXIe siècle qui est de confondre fantasme et réalité, qui est un danger qui a toujours existé mais qui maintenant est vraiment très, très, fort. Donc, moi j'irais pas parler de ça. Par contre, machine rendant les humains plus autonomes, ça c'est un autre problème. Alors le mot machines autonomes rendant les humains plus autonomes, c'est très bien mais c'est pas le même mot autonome. Peut-être le mot autonome est pas tout à fait le même en anglais, d'ailleurs. C'est-à-dire que dans autonome, quand on parle d'ordinateur, il y a pas, libre volonté. Quand on parle d'autonomie pour un humain on parle de libre volonté, donc il faut pas – il faut faire attention à pas mélanger les deux choses qui sont intéressantes toutes les deux. Peut-être que l'autonomie, pour nous, les humains normaux, qui fabriquons pas de robots mais qui les utilisons, c'est lié à la personne humaine. C'est – il y a déjà des robots humanoïdes qui existent, j'en ai vu fonctionner, celui qui s'appelle Nao qui est développé – qui est développé en France. Et il a suffisamment d'autonomie, dans certains de ses comportements, pour qu'on projette sur lui une personne. Je donne un exemple très simple : ce robot marche, il maintient son équilibre avec une centrale inertielle. Quand on le pousse il essaie de ne pas tomber, et si on le pousse fort il tombe. Et quand il est tombé, il se relève tout seul. Dans la démonstration à laquelle j'ai – à laquelle j'ai assisté, ça n'était pas indifférent que le démonstrateur le pousse assez violemment, pour le faire tomber. On projetait sur lui, il est suffisamment autonome fonctionnellement pour que nous les humains normaux nous projetions sur lui l'image d'une personne humaine et déjà l'image de souffrance ou que sa volonté de rester debout est contrariée. On peut mettre des guillemets, mais ça sert à rien de mettre des guillemets à volonté ou autre. Oui alors là, il y a quelque chose d'essentiel là-dedans. Effectivement c'est des Japonnais, ce sont les Japonnais qui ont le plus travaillé sur les robots et l'autonomie. Pourquoi ? Parce qu'ils ont un très grand nombre de personnes âgées, et qu'ils veulent mettre des robots qui ont un minimum d'empathie en face des personnes âgées pour les aider à vivre de façon plus autonome. Donc ça c'est un projet qui est très intéressant, qui pose plein de questions et qui, qui avance. Exactement. On a une idée riche, intéressante, et en terme de valeur très prometteuse, de développement de machines plus ou moins autonomes qui sont au service de l'autonomie des humains. Pour notre plus grand bien ? On sait pas. On va se dire qu'on sait pas si c'est pour notre plus grand bien, ni avec le numérique, les machines informationnelles, ni avec rien d'autre non plus. Ni les technologies, ni les systèmes, ni les systèmes, ni les systèmes politiques, et avec un tout petit peu de recul on peut dire (tout à l'heure on en parlait à propos de la science-fiction) chaque fois qu'on imagine, chaque fois qu'on construit quelque chose en ayant trop délimité à quoi ça doit ressembler, on se trompe. Et les choses, depuis le téléphone jusqu'à l'ordinateur, font des choses qui n'avaient pas été prévues, servent à des usages qui n'ont pas été prévus, et que notre inventivité, notamment dans le monde du numérique aujourd'hui, est tel que c'est très difficile de savoir si les choses qui existent et de demain, même pas d'après-demain, vont être pour notre bien, ou pas. Je suis pas complètement d'accord avec – de dire que les choses par exemple, sur le téléphone et sur Internet n'ont pas été prévues. Ça a été parfaitement prévu. C'est pas vrai. Ça a été prévu. Simplement les gens n'ont pas lu les prévisions ou ils ont pas cru aux prévisions. Mais si vous lisez les textes des années 90 sur Internet, peut-être on a pas prévu que ça irait aussi vite, mais la vision des créateurs d'Internet, c'était déjà celle-là. Et donc ça a été prévu, les gens y ont pas cru parce que c'était trop violent. Alors est-ce que c'est pour notre bien ? La question – toutes les – vraiment toutes les inventions fondamentales sont ambiguës. Alors je donne par exemple les robots autonomes. Ben les robots autonomes ça peut servir à planter des arbres dans le désert pour arrêter la désertification, ça peut fabriquer des drones sans pilotes qui vont faire la guerre de partout. Même la question, « la guerre est-elle pour notre bien ou pas à travers les âges ? » elle a eu des réponses extrêmement différentes. C'est une question morale qui dépend beaucoup de l'époque. On peut faire – mais surtout pour que cet – ce qui est dangereux c'est pas ça. C'est que cette question n'est pas traitée. Cette question n'est pas traitée, les gens ne se l'approprient pas. Les peurs remplacent la réponse, l'analyse de la question. Donc en ce moment on navigue beaucoup dans les peurs, mais il faudrait analyser cette question. Qu'est-ce qu'il faut qu'on fasse pour notre bien ? Qu'est-ce qu'il faut qu'on fasse pas pour notre bien ? C'est pareil en biologie d'ailleurs. Pour moi la question n'est pas encore correctement posée, socialement et pas par les – en particulièrement, pas par les – au niveau politique où elle est pas posée du tout. Bon, on parle de fracture numérique, de rendre l'accès partout, d'accord. C'est très bien, c'est mieux, mais par exemple, des questions – la question de l'enseignement est pas posée. L'enseignement est fondamental pour comprendre la notion de pour notre bien ou pas pour notre bien, etc. Donc moi je suis un peu dubitatif sur le fait qu'on sache répondre à la question par rapport aux gens qui vont faire les choses, qu'elles soient pour notre bien ou pas. Oui, alors sur la capacité de prévision, je suis pas tout à fait, tout à fait convaincu. On a eu bien l'impression quand même que l'informatique a été conçu pour des grands systèmes centraux de contrôle. Non. Et que l'informatique personnel a été un peu une surprise qui a coûté la vie à pas mal d'entreprises. Non ? C'est une légende ? Non, non, c'est pas – bien sûr que non. Vous aviez bien prévu à l'avance. Bien sûr, dans les années 80, dès la naissance du Macintosch ou avant, les gens savaient ce qu'ils faisaient. Steve Jobs par exemple Steven Paul Jobs, dit Steve Jobs (1955-2011) savait parfaitement ce qu'il faisait. Là on est dans le cas de... Et il y a pas mal de gens qui savaient ce que faisait Steve Jobs. Je dirais pas en France, mais aux États-Unis, oui. Dans le cas d'un visionnaire. Non, d'un constructeur. Visionnaire bien sûr, mais constructeur. Donc lui, il savait ce qu'il faisait. C'est évident que sur Internet c'est – il y a eu des choses qu'on pouvait pas trop prévoir. Un exemple c'est que plus de la moitié du trafic internet est mal intentionné. Oui. C'est du spam, des virus et des choses comme ça, donc des tentatives de fraudes, de vols, d'attaques de pays, d'attaques de sociétés. Ça avait pas été prévu à cette échelle-là, ça c'est évident. Bon, c'est... C'est intéressant ces cas d'invention quand même, d'inventivité. Là il y en a un qui va vers le mal, dans l'histoire des techniques on aime bien d'autres qui vont vers le bien, par exemple le laser qui a été quand même développé pour de l'armement, éventuellement de la production de puissance énergétique et qui sert à lire les disques de rock'n'roll un petit peu partout, en tout cas qui est, qui servait, qui a eu d'autres applications. Les micro-ondes qui ont des applications dans la cuisine des familles. Donc bon, un jour certes il y a eu quelqu'un qui l'a prévu, mais on a quand même de l'inventivité des usages. Mais la question qu'on puisse prévoir ou pas, peut-être qu'elle est pas aussi déterminante que ça, parce que c'est le bien qu'il faut prévoir. Est-ce que c'est bien ou mal. Et les philosophes de la technologie ont inventé une loi qui s'appelle la loi de Kranszberg Loi de Kranzberg qui s'énonce comme ça, on dit : « une technologie n'est ni bonne, ni mauvaise, ni neutre. » Ni bonne ni mauvaise, ça veut dire qu'avec les mêmes choses on peut faire du bien et du mal et on en a des exemples dans ce qu'on est en train de se dire. Mais ce qui est intéressant c'est « ni neutre ». C'est-à-dire qu'elle change et ça, ça s'applique particulièrement bien au numérique. Elle change le monde dans lequel on vit, les moyens qu'on a et on ne peut pas faire comme si on ne l'avait pas. On peut pas faire comme si on vivait dans un monde où il n'y a pas d'armement nucléaire, de la même manière on peut pas faire comme si on ne vivait pas dans un monde où toutes nos traces numériques sont stockées, peut-être accessibles, peut-être disponibles. Oui mais on peut – il y a des choses qu'on pourrait améliorer dans la compréhension de la neutralité de la technologie ou pas. Par exemple, c'est – à l'heure actuelle le niveau de risque auquel on s'expose à travers le numérique augmente considérablement. Donc il y a beaucoup d'informations complètement centrales qui ne sont plus disponibles que comme ça et il est bien évident que par exemple, si on casse l'informatique d'un pays, eh bien on fait très, très mal au pays, et ces choses-là, je dirais, n'ont pas été prises en compte avec la vitesse qu'il faut. Parce que la vitesse de développement numérique est très, très grande, et on s'aperçoit toujours après coup qu'on a pris des risques énormes sans le savoir. Et je pense qu'il faut vraiment améliorer la réflexion de ce côté-là. Par exemple on parle en ce moment de vote électronique. Eh bien, le vote électronique à grande échelle, c'est probablement pas une bonne idée. À petite échelle, oui, à grande échelle, sans papier, sans contrôle... Il y a eu pas mal de conférences là-dessus mais c'est probablement pas une bonne idée. Donc le danger reste d'avoir des idées naïves et de penser qu'il y a que le côté positif. Dès qu'on a une idée, il faut penser à son effet pervers et ça c'est pas naturel pour beaucoup de gens. Et donc les effets pervers de l'informatique sont assez élevés. Tout est traitable mais à condition de s'attaquer au problème, ce que je ne vois pas vraiment en ce moment. Ce qui change, dans la conception qu'on peut en avoir (et c'est exactement ce que vous venez de dire) en fait c'est pas la neutralité de la technologie. La technologie est neutre ça veut dire bon, ben, elle est neutre, voilà. S'il y a des méchants ils s'en serviront pour faire du mal et des gentils pour faire du bien. La thèse de Kranzberg c'est la non neutralité de la technologie. Oui, oui, oui. Non, non, elle est pas neutre. Il faut tout de suite regarder qu'est-ce qu'on va en faire, parce que ce qu'on va en faire a une puissance telle, et c'est typiquement le cas du numérique, que ça ne sera pas neutre. Le fait de pouvoir mettre des photos de ses vacances sur Facebook, ça n'est pas du tout neutre. Et on peut pas dire, oui mais ça dépend des gens, si ils sont, ceux qui vont l'utiliser, gentils ou méchants. Pas du tout. Il y a un potentiel là-dedans, plutôt négatif à mon avis pour les photos qu'on met sur Facebook, qui doit être pris en compte dès que la technologie existe. Et là-dessus, je suis d'accord, on est très naïf. C'est pas de mettre les photos sur Facebook qui est dangereux, c'est qu'on les donne à Facebook. Il faudrait les vendre. C'est que la – Non, non, c'est pas ça, c'est qu'on signe et on ne comprend pas que Facebook a le droit d'en faire ce qu'il veut. Bon. C'est vraiment très, très puissant et quand un outil est très, très puissant on peut pas être toujours en train de penser qu'il faut encore attendre pour analyser ce qu'il se passe. Ce qui est un peu ce qu'on voit en ce moment. Du coup, avec cette histoire de culture, de diffusion, de prise de conscience des gens, on peut revenir à la question générale du pouvoir, en fait. Parce que si tous les moyens que nous avons, et le numérique au premier rang pour moi, doivent servir à notre plus grand bien ou pas, nous qui avons quand même inventé la démocratie, nous devons nous demander qui en décide, de ce plus grand bien. Comment on en – comment on en décide ? Et nous rendre compte en fait, que peut-être, nous sommes au carrefour où selon l'usage que nous ferons de cette puissance, notamment celle du numérique (et par usage j'entends pas seulement politique et économique mais beaucoup éthique et personnel) ou bien les individus se la réapproprierons, cette puissance, et on verra ce qu'on en fait. Espérons du bien. Mais c'est nous, les individus qui le ferons. Ou bien, nous laisserons cette puissance se concentrer. Et là aussi, c'est pas la même question. Peut-être que ça sera pour du bien, peut-être que ça sera pour des choses plus contestables, mais on aura utilisé la phase de numérique pour déposséder les individus de leur valeur. Et c'est pour ça qu'il me semble que l'attention qui porte beaucoup, aujourd'hui, sur bien sûr la technique, sa dimension politique et sa dimension économique, il est urgent de l'enrichir par sa dimension éthique. Ce qui concerne la manière dont les individus s'approprient ou pas les technologies. Je suis totalement d'accord mais il faut penser toujours à une seule chose : pour faire de l'éthique, pour comprendre ses décisions, il faut pas seulement avoir des émotions, il faut avoir de la connaissance. Exactement. L'éthique c'est pas l'émotion. Non. Tout à fait. C'est déjà fini. Merci. À très bientôt, même endroit, avec deux nouveaux invités pour débattre et s'écouter.
Réalisation : Sylvie Allonneau
Production : Universcience
Année de production : 2012
Durée : 29min32
Accessibilité : sous-titres français