Image légendée
Le logo de l'application ChatGPT développée par OpenAI, le 23 novembre 2023 à Francfort © AFP Kirill KUDRYAVTSEV

Les députés européens ont adopté mercredi des règles pour encadrer les systèmes d’intelligence artificielle (IA) comme ChatGPT, une législation unique au monde.

Le commissaire européen chargé du dossier, Thierry Breton, s’est félicité sur X du « soutien massif » du Parlement (523 voix pour, 46 voix contre) au texte.

« Cela profitera au formidable réservoir de talents de l’Europe. Et établira un modèle pour une IA digne de confiance dans le monde entier », a souligné de son côté la présidente de la Commission européenne Ursula von der Leyen, évoquant une législation « pionnière ».

Ce projet de loi avait été présenté par la Commission européenne en avril 2021. L’apparition fin 2022 de ChatGPT de la start-up californienne OpenAI, capable de rédiger des dissertations, poèmes ou traductions en quelques secondes, lui a donné une nouvelle dimension.

Ce système a révélé l’énorme potentiel de l’IA, mais aussi ses risques. La diffusion de fausses photos ou vidéos, plus vraies que nature, a ainsi alerté sur le danger de manipulation de l’opinion.
 

- « Que le commencement » —
 

Avec ce texte, « nous avons réussi à trouver un équilibre très fin entre l’intérêt d’innover et l’intérêt de protéger », a déclaré le co-rapporteur Dragos Tudorache (Renew, centristes et libéraux).

Toutefois, cette législation « n’est que le commencement », a-t-il relevé, soulignant que l’intelligence artificielle continuait d’évoluer rapidement.

La législation prévoit une approche à deux niveaux. Les modèles d’IA à « usage général » devront respecter des obligations de transparence ainsi que les règles européennes en matière de droits d’auteur.

Quant aux systèmes considérés à « haut risque » — utilisés par exemple dans les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre —, ils seront soumis à des exigences plus strictes. 

Ils devront par exemple prévoir la mise en place d’une analyse d’impact obligatoire sur les droits fondamentaux.

Les images, textes ou vidéos générés artificiellement (« deep fakes ») devront être clairement identifiés comme tels. 

Le texte interdit les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l’identification biométrique à distance des personnes dans les lieux publics.

Sur ce dernier point, les États ont toutefois obtenu des exemptions pour certaines missions des forces de l’ordre comme la prévention d’une menace terroriste ou la recherche ciblée de victimes.

La législation européenne sera dotée de moyens de surveillance et de sanctions avec la création d’un office européen de l’IA, au sein de la Commission européenne. Il pourra infliger des amendes allant de 7,5 à 35 millions d’euros, en fonction de l’infraction et de la taille de l’entreprise.

« Nous réglementons le moins possible, mais autant que nécessaire », a résumé M. Breton.

Le Bureau européen des unions de consommateurs (BEUC) a cependant estimé que « la législation aurait dû aller plus loin pour protéger les consommateurs ».

« Le texte final est plein de lacunes, de restrictions et d’exceptions, ce qui signifie qu’il ne protégera pas les personnes, ni leurs droits humains, contre certaines des utilisations les plus dangereuses de l’IA », a estimé en écho le groupe de défense des droits numériques Access Now. 

De son côté, Markus J. Beyrer, directeur général de BusinessEurope, la voix du patronat européen, a estimé qu’il s’agissait d’un « moment charnière pour le développement de l’IA en Europe ».

« Mais une mise en œuvre réussie sera essentielle pour rassurer les investisseurs, les développeurs d’IA et les citoyens sur le fait qu’une IA digne de confiance est là pour rester », a-t-il poursuivi.

L’Observatoire des multinationales (France), Corporate Europe Observatory (Belgique) et LobbyControl (Allemagne) redoutent que les lobbys affaiblissent cette mise en œuvre.

« De nombreux détails de la loi sur l’IA restent ouverts et doivent être clarifiés (…), par exemple en ce qui concerne les normes, les seuils ou les obligations de transparence. La composition du conseil consultatif de la nouvelle agence européenne pour l’IA reste également floue », ont-ils averti dans un communiqué commun.

Les 27 États de l’UE devraient approuver le texte en avril avant que la loi ne soit publiée au Journal officiel de l’UE en mai ou juin.