
L’IA au risque de l’emballement
L’IA générative bouleverse la création, la communication, l’éducation, le droit d’auteur, l’emploi... Les lois, elles, peinent à encadrer ce secteur en plein essor. Tour d’horizon des promesses et des risques d’une révolution technologique aux conséquences déjà quotidiennes.
Enquête d’Adrien Denèle - Publié le
Omniprésente au quotidien
On ne la présente même plus ! L’intelligence artificielle générative est désormais omniprésente au quotidien. Les mairies l’utilisent pour leurs visuels de communication, les comptables pour leurs tableurs Excel, et même les vidéastes s’y mettent depuis l’arrivée fracassante des vidéos générées par Sora, Google Veo 3 ou ChatGPT. De multiples secteurs bénéficient ainsi des possibilités offertes par cette IA de dernière génération.
La technologie fuse, la législation et l’éthique peinent à la suivre. Car elle permet aussi à un étudiant de générer un devoir de philosophie en un clic, ou à un escroc de se faire passer pour la famille de sa cible… Bref, les modèles apprennent plus vite que nos lois ne s’écrivent, et les effets sociétaux sur l’éducation, l’emploi, la création ou la vie privée, se font sentir avant que des garde-fous ne soient mis en place. Avec, déjà, des conséquences sur notre rapport à la réalité : qu’il s’agisse de fausses informations, de fausses images ou de fausses relations humaines.
Une révolution technologique portée par de jeunes entreprises privées jusqu’alors méconnues, comme OpenAI, fondée fin 2015 (par Sam Altman et Elon Musk, tout de même !) et société mère de ChatGPT. Depuis, les géants du numérique (Microsoft, Meta, Amazon) sont entrés dans la course, rejoints par des sociétés chinoises ou indiennes. Face à elles, le vieux continent joue sa souveraineté, tandis que l’enjeu climatique semble abandonné, alors que les centres de données s’annoncent toujours plus nombreux.
La déferlante Ghibli
Fin mars 2025, tout le monde voulait son portrait « à la façon » du studio Ghibli. Des illustrations « inspirées » (ou plutôt entraînées) pour copier le style poétique du studio d’animation japonais. Elles voient le jour grâce aux nouvelles générations d’IA comme GPT-4o et suscitent un engouement immédiat. Plus de 2,4 millions de publications sur la seule plateforme X (anciennement Twitter). Un succès… au détriment du droit des artistes, et ironie de l’histoire, à l’opposé de la vision très « humaine » du studio et surtout de son fondateur, Hayao Miyazaki, qui s’oppose frontalement à ces usages. Les mêmes détournements de style se multiplient : Disney, Pixar, ou tableaux de maître, sans qu’aucune législation ne les freine.

Une législation à la peine
Les lois peinent à suivre le rythme effréné des nouvelles technologies, mais ne sont cependant pas inexistantes. Le 1er août 2024, ainsi, l’Union européenne a ouvert le bal en promulguant le règlement sur l’intelligence artificielle, ou AI Act. Ce texte pionnier établit une classification des systèmes d’IA selon leur niveau de risque : faible, élevé, inacceptable. Il tente d’encadrer les usages, comme son article 5 qui interdit les deepfakes exploitant la vulnérabilité des individus.
La suite arrive déjà. Depuis le 2 août 2025, les modèles génératifs « à usage général » comme ChatGPT ou Claude doivent se conformer à des obligations strictes de transparence, documentation technique, évaluation des impacts et publication des sources d’entraînement. OpenAI, Mistral ou Meta doivent aussi coopérer avec les autorités nationales de contrôle, sous peine de lourdes sanctions. Mais plusieurs grandes entreprises de la tech tentent de freiner la portée et l’application de ces mesures. Fin juin 2025, le lobby CCIA Europe, soutenu par Apple, Meta et Google, a demandé un moratoire sur leur mise en œuvre, estimant que le cadre légal n’était pas assez abouti. La Commission européenne refuse toute pause.
Sur un autre front, les États-Unis voient se multiplier les procès pour violation de droit d’auteur. Le plus emblématique a été lancé en juin 2025 par Disney et NBCUniversal contre Midjourney. Les studios accusent le générateur d’images d’avoir permis la création de milliers d’illustrations inspirées de Star Wars, Marvel, Les Simpsons ou Jurassic Park sans aucune licence. C’est la première action concertée de grands studios contre une IA générative. Le verdict pourrait faire jurisprudence, même s’il risque de rester limité aux grands studios.

Films par IA, la fin d’Hollywood ?
Une bande annonce épique met en scène deux enfants, pris dans un conflit galactique et découvrant une épée ancestrale dans une grotte mystérieuse. Les futures stars d’Hollywood ? Loin de là, puisqu’aucun des deux n’est réel. Il s’agit d’une mise en scène par IA avec, aux manettes, trois artistes seulement. Le rendu n’est bien sûr pas parfait, mais copie des effets spéciaux qui d’habitude prennent des mois à être conçus. De là à imaginer des films entiers réalisés par des équipes divisées par 10 ou par 100, il n’y a qu’un pas… Certains festivals, comme ceux de Rotterdam ou de Clermont-Ferrand, ont même programmé des œuvres conçues en quasi-totalité par IA, suscitant l’admiration, mais aussi l’inquiétude.
Menace sur l’emploi ou promesse de compétitivité ?
Selon l’Organisation internationale du travail (OIT), un travailleur sur quatre dans le monde exerce une profession exposée à l’IA générative à des degrés divers, par le biais de sa capacité d’automatisation ou de solutions alternatives. L’OIT note cependant que les emplois seront surtout « transformés au lieu d’être supprimés, car une intervention humaine reste indispensable. »
Une étude parallèle de l’Organisation de coopération et de développement économiques (OCDE) note l’accélération de l’adoption des intelligences artificielles depuis 2023. Avec, déjà, des disparités entre pays à l’échelle mondiale. En Europe, en 2024, 13,5 % des entreprises utilisaient des solutions à base d’IA. Mais le chiffre s’élève à 24 % dans les pays du Nord et 28% en Corée du Sud. Une fragmentation que l’on semble retrouver selon les secteurs, avec une prédominance d’utilisation dans les entreprises du numérique et de l’informatique.
Un exemple parlant est celui de l’entreprise Microsoft. Dans un rapport interne publié en 2025 sur le « travail hybride augmenté », la firme américaine arrive à la conclusion que ses cadres maîtrisant l’IA dégagent jusqu’à 30% de productivité en plus. Notamment grâce aux assistants rédactionnels et de synthèse intégrés dans les suites bureautiques (Copilot, Gemini...). Elle économiserait ainsi près de 500 millions de dollars grâce à l’utilisation d’IA. Un haut fait mis en avant… une semaine à peine après l’annonce d’un plan de licenciement de 9000 employés. Sur les six premiers mois de 2025, près de 94 000 employés de la tech ont perdu leur emploi.
ChatGPT à l’école, entre triche et aide à l’apprentissage
Le débat sur l’usage de l’IA à l’école n’aura pas fait long feu. Tous s’en servent : étudiants comme professeurs ! Les assistants conversationnels aident aux dissertations comme à la correction des devoirs... à condition, bien sûr, d’un usage raisonné. Justement, le recours à l’IA générative a pour la première fois été explicitement interdit à l’épreuve du baccalauréat 2025, sur fond de méfiance croissante. Mais ces outils doivent être intégrés à l’apprentissage, souligne une étude de mars 2025, qui insiste sur l’importance de la relecture et de la vérification des informations. Science Po et d’autres universités préfèrent proposer des chartes IA, en guise de contrat de confiance avec les étudiants.


L’éthique des algorithmes
L’IA tend à l’Homme le miroir de ses stéréotypes, comme l’ont révélé, lors des multiples demandes en ligne adressées à Midjourney, certains motifs récurrents et pour le moins dérangeants. Nourrie des bases de données disponibles sur internet, l’IA, en effet, en restitue les clichés. Ainsi, sommé de représenter un « voleur blanc », Midjourney a dessiné… un homme noir vêtu de blanc. Misogynie également, patente dans les premières versions de ChatGPT qui reléguaient souvent les femmes en cuisine. Depuis, les choses semblent s’être équilibrées, grâce à un entraînement affiné et surveillé par des entreprises propriétaires soucieuses de leur image.
Quand les Gafam se disputent le trône de l’IA
Des start-up face aux géants du numérique ? Le match semble avoir tourné court. En moins de deux ans, Microsoft, Amazon et Google ont injecté plus de 15 milliards de dollars dans le secteur. Parmi ces géants, Microsoft a pris une longueur d’avance en nouant un partenariat exclusif avec OpenAI. Face à ce quasi-monopole, Google, d’abord dépassé par le succès de ChatGPT, a lancé en 2025 le puissant modèle de vidéos Veo 3. Alimenté non-stop par les bases de données de YouTube, il impressionne par ses capacités. Meta, de son côté, a d’abord joué la carte de l’ouverture avec LLaMA 3, un modèle open source qui séduit les chercheurs et les développeurs indépendants par sa modularité et son accessibilité. Mais en parallèle, l’entreprise promet déjà des « profils IA » sur Facebook ou Instagram...
Dans cet affrontement, Amazon et Apple restent discrets. En injectant plusieurs milliards dans la start-up Anthropic, Amazon intègre désormais le modèle Claude dans ses services cloud, son assistant vocal Alexa et ses solutions professionnelles. Tandis qu’Apple mise sur la confidentialité de ses modèles pour son écosystème.
Mais la course ne se joue plus seulement entre les Gafam. La Chine a consolidé ses ambitions grâce aux modèles Ernie de Baidu et aux IA développées par Alibaba Cloud ou Huawei, avec l’objectif de rattraper puis dépasser les standards occidentaux. DeepSeek, sorti en janvier 2025, égalait la puissance américaine, avec un coût inférieur. En Europe, la surprise vient de la France : la start-up Mistral AI, fondée en 2023, est devenue en deux ans l’un des principaux fournisseurs de modèles open source de haut niveau. Son modèle Mistral Next, lancé en juin 2025, est à la fois performant, transparent et personnalisable.

Compagnons de solitude, vraiment ?
Ils sont à l’écoute, attentionnés et vous couvrent de conseils et compliments : les compagnons affectifs version IA génératives, tels que Replika, Character.ai ou Anima, cartonnent. Et inquiètent les spécialistes. Car s’ils ont des bienfaits pour soulager certains handicaps, ils offrent un rapport « humain » trompeur, surtout auprès des plus jeunes. Avec déjà des conséquences dramatiques. Fin 2024, Sewell Garcia, âgé de 14 ans, a mis fin à ses jours suite à sa « relation amoureuse » avec un chatbot. L’IA n’a bien sûr pas d’intention malveillante, mais a encouragé l’adolescent dans son projet plutôt que de le stopper. Là où un véritable ami l’aurait stoppé ?
Voir c’est (ne plus) croire
Les premiers détournements par IA pouvaient amuser : le pape en doudoune, Donald Trump sur un vélociraptor. Le faux est évident quand il est grossier. Mais désormais, et à moins d’avoir l’œil avisé, les images générées artificiellement en un clic sont pratiquement impossibles à distinguer de vraies images. Une aubaine pour les escrocs et les politiques. Comme l’actuel président des États-Unis, Donald Trump. En juillet 2024, quatre mois avant les élections, un animateur radio conservateur, Mark Walters, publie cette image de Donald Trump entouré de jeunes hommes noirs. Une image totalement fausse, mais susceptible d’influer sur l’opinion publique et d’attirer un nouvel électorat.

Vers l’ère du soupçon généralisé
Le monde de demain sera-t-il saturé d’informations, dont aucune ne sera réelle ou vérifiable ? Ce cauchemar rappelle la théorie de l’internet mort (dead Internet), dans lequel la majorité de nos interactions s’effectuerait avec des bots ou des IA et des contenus visant à faire cliquer les internautes. Cette théorie jusque-là considérée comme complotiste pourrait devenir réalité, tant les posts écrits par IA, relayés par des chatbots IA, se multiplient.
Pour l’heure, la menace vient surtout des deepfakes. Ces contenus n’ont pas attendu les IA pour exister. Ils désignent les images, vidéos ou sons truqués, à but de divertissement, manipulation ou harcèlement. Pour ce qui est du divertissement, les réseaux sociaux sont déjà submergés de contenus alternatifs. Comme ces visites d’époques passées (Antiquité romaine, Moyen Âge…), spectaculaires, mais sans valeur historique. Les manipulations ne sont pas en reste. En 2024, un employé a transféré plus de 25 millions d’euros à un escroc après avoir reçu un appel vidéo truqué : l’image et la voix de son directeur financier avaient été entièrement simulées par IA. Ce genre d’escroquerie, baptisé vishing IA (voice phishing), progresse rapidement. En Chine, des banques expérimentent déjà des mots de passe familiaux non vocaux ou des codes gestuels pour authentifier les appels sensibles.
Mais le risque principal touche la jeunesse. Les photos truquées amplifient le harcèlement scolaire ou la pédocriminalité. Heureusement sur ce point, des lois existent. Ne reste plus qu’à enseigner aux plus jeunes à ne pas publier leurs photos sur les bases de données.

Un coût carbone non négligeable
Comme pour le numérique, la construction et l’alimentation en énergie des centres de données (où sont stockées les sources des modèles) et des terminaux (nos téléphones ou ordinateurs pour les utiliser) constituent le premier poste de l’empreinte carbone de l’IA. S’y ajoute l’entraînement des modèles sur des milliers de processeurs graphiques actifs durant des jours. Ensuite, les requêtes des utilisateurs n’entraînent qu’une modeste consommation énergétique... mais qui s’ajoute à toutes les autres ! À l’échelle mondiale, la consommation d’électricité liée aux centres de données devrait plus que doubler d’ici 2030, pour atteindre 945 TWh, une hausse essentiellement due à l’IA, d’après l’AIE.
