
L’IA au risque de l’emballement ?
- chapô -
Enquête d’Adrien Denèle - Publié le
Omniprésente au quotidien
On ne la présente même plus ! L’intelligence artificielle générative est désormais omniprésente au quotidien. Les mairies les utilisent pour leurs visuels de communication, les comptables pour leurs tableurs Excel, et même les vidéastes s’y mettent depuis l’arrivée fracassante des vidéos générées par Sora, Google Veo 3 ou ChatGPT. De multiples secteurs bénéficient ainsi des possibilités offertes par cette IA de dernière génération.
La technologie fuse, la législation et l’éthique peinent à la suivre. Car elle permet aussi à un étudiant de générer un devoir de philosophie en un clic, ou à un escroc de se faire passer pour la famille de sa cible… Bref, les modèles apprennent plus vite que nos lois ne s’écrivent, et les effets sociétaux sur l’éducation, l’emploi, la création ou la vie privée, se font sentir avant que des garde-fous ne soient mis en place. Avec, déjà, des conséquences sur notre rapport à la réalité : qu’il s’agisse de fausses informations, de fausses images ou de fausses relations humaines.
Une révolution technologique portée par de jeunes entreprises privées jusqu’alors méconnues, comme OpenAI, fondée fin 2015 – par Sam Altman et Elon Musk, tout de même ! – société mère de ChatGPT. Depuis, les géants du numérique (Microsoft, Meta, Amazon) sont entrés dans la course, rejoints par des sociétés chinoises ou indiennes. Face à elles, le vieux continent joue sa souveraineté, tandis que l’enjeu climatique semble abandonné, alors que les centres de données s’annoncent toujours plus nombreux.
La déferlante Ghibli
Fin mars 2025, tout le monde voulait son portrait façon « studio Ghibli ». Des illustrations « inspirées » (ou plutôt « entraînées ») pour copier le style poétique du studio d’animation japonais. Elles voient le jour grâce aux nouvelles générations d’IA comme GPT-4o et suscitent un engouement immédiat. Plus de 2,4 millions de publications sur la seule plateforme X (anciennement Twitter). Un succès… au détriment du droit des artistes, et ironie de l’histoire, à l’opposé de la vision très « humaine » du studio et surtout de son fondateur, Hayao Miyazaki, qui s’oppose frontalement à ces usages. Les mêmes détournements de style se multiplient : Disney, Pixar, ou tableaux de maître, sans qu’aucune législation ne les freine.


Films par IA, la fin d’Hollywood ?
Une bande annonce épique met en scènes deux enfants, pris dans un conflit galactique et découvrant une épée ancestrale dans une grotte mystérieuse. Les futures stars d’Hollywood ? Loin de là, puisqu’aucun des deux n’est réel. Il s’agit d’une mise en scène par IA avec, aux manettes, trois artistes seulement. Le rendu n’est bien sûr pas parfait, mais copie des effets spéciaux qui d’habitude prennent des mois à être conçus. De là à imaginer des films entiers réalisés par des équipes divisées par 10 ou par 100, il n’y a qu’un pas… Certains festivals, comme ceux de Rotterdam ou de Clermont-Ferrand, ont même programmé des œuvres conçues en quasi-totalité par IA, suscitant l’admiration, mais aussi l’inquiétude.
Menace sur l’emploi ou promesse de compétitivité ?
Selon l’Organisation internationale du travail (OIT), un travailleur sur quatre dans le monde exerce une profession exposée à l’IA générative à des degrés divers, par le biais de sa capacité d’automatisation ou de solutions alternatives. L’OIT note cependant que les emplois seront surtout « transformés au lieu d’être supprimés, car une intervention humaine reste indispensable. » Une étude parallèle de l’Organisation de coopération et de développement économiques (OCDE) note l’accélération de l’adoption des intelligences artificielles depuis 2023. Avec, déjà, des disparités entre pays à l’échelle mondiale. En Europe, en 2024, 13,5 % des entreprises utilisaient des solutions à base d’IA. Mais le chiffre s’élève à 24 % dans les pays du Nord et 28% en Corée du Sud. Une fragmentation que l’on semble retrouver selon les secteurs, avec une prédominance d’utilisation dans les entreprises du numérique et de l’informatique.
Un exemple parlant est celui de l’entreprise Microsoft. Dans un rapport interne publié en 2025 sur le « travail hybride augmenté », la firme américaine arrive à la conclusion que ses cadres maîtrisant l’IA dégagent jusqu’à 30% de productivité en plus. Notamment grâce aux assistants rédactionnels et de synthèse intégrés dans les suites bureautiques (Copilot, Gemini...). Elle économiserait ainsi près de 500 millions de dollars grâce à l’utilisation d’IA. Un haut fait mis en avant… une semaine à peine après l’annonce d’un plan de licenciement de 9000 employés. Sur les six premiers mois de 2025, près de 94 000 employés de la tech ont perdu leur emploi.
ChatGPT à l’école, entre triche et aide à l’apprentissage
Le débat sur l’usage, ou pas, de l’IA en contexte scolaire n’aura pas fait long feu. Tous s’en servent : étudiants comme professeurs ! Les assistants conversationnels aident aux dissertations comme à la correction des devoirs... à condition, bien sûr, d’être employés de manière raisonnée et encadrée. Justement, l’épreuve du baccalauréat en 2025 a pour la première fois explicitement interdit l’usage d’IA génératives. Un signal fort, dans un climat de méfiance croissante. Une étude franco-italienne parue en mars 2025 pointe le besoin d’intégrer ces outils dans l’apprentissage, en insistant sur l’importance de la relecture et de la vérification des informations. Science Po Paris et d’autres universités préfèrent adopter des « chartes des IA », misant sur un contrat de confiance école-étudiant.


L’éthique des algorithmes
L’IA tend à l’Homme le miroir de ses stéréotypes, comme l’ont révélé, lors des multiples demandes en ligne adressées à Midjourney, certains motifs récurrents et pour le moins dérangeants. Nourrie des bases de données disponibles sur internet, l’IA, en effet, en restitue les clichés. Ainsi, sommé de représenter un « voleur blanc », Midjourney a dessiné… un homme noir vêtu de blanc. Misogynie également, patente dans les premières versions de ChatGPT qui reléguaient souvent les femmes en cuisine. Depuis, les choses semblent s’être équilibrées, grâce à un entraînement affiné et surveillé par des entreprises propriétaires soucieuses de leur image.
Quand les Gafam se disputent le trône de l’IA
De jeunes start-ups face aux géants du numérique ? Le match semble avoir tourné court. En moins de deux ans, Microsoft, Amazon et Google ont injecté plus de 15 milliards de dollars dans le secteur. Parmi ces géants, Microsoft a su prendre une longueur d’avance en nouant un partenariat exclusif avec OpenAI. Face à ce quasi-monopole, Google, d’abord dépassé par le succès de ChatGPT, a lancé en 2025 le puissant modèle de vidéos Veo 3. Alimenté non-stop par les bases de données de YouTube, il impressionne par ses capacités. Meta, de son côté, a d’abord joué la carte de l’ouverture avec LLaMA 3, un modèle open source qui séduit les chercheurs et les développeurs indépendants par sa modularité et son accessibilité. Mais en parallèle, l’entreprise promet déjà des « profils IA » sur Facebook ou Instagram, qui inquiètent.
Dans cet affrontement, Amazon et Appel restent discrets. En injectant plusieurs milliards dans la start-up Anthropic, Amazon intègre désormais le modèle Claude dans ses services cloud (AWS), son assistant vocal Alexa et ses solutions professionnelles. Tandis qu’Apple mise sur la confidentialité de ses modèles pour son écosystème. Mais la course ne se joue plus seulement entre les Gafam. La Chine a consolidé ses ambitions grâce aux modèles Ernie de Baidu et aux IA développées par Alibaba Cloud ou Huawei, avec l’objectif de rattraper puis dépasser les standards occidentaux. DeepSeek, sorti en janvier 2025, égalait la puissance américaine, avec un coût inférieur. En Europe, la surprise vient de la France : la start-up Mistral AI, fondée en 2023, est devenue en deux ans l’un des principaux fournisseurs de modèles open source de haut niveau. Son modèle Mistral Next, lancé en juin 2025, rivalise en performance tout en étant entièrement transparent et personnalisable.

Compagnons de solitude, vraiment ?
Ils sont à l’écoute, attentionnés et vous couvrent de conseils et compliments : les compagnons affectifs version IA génératives, tels que Replika, Character.ai ou Anima, cartonnent. Et inquiètent les spécialistes. Car s’ils ont des bienfaits pour soulager certains handicaps, ils offrent un rapport « humain » trompeur, surtout auprès des plus jeunes. Avec déjà des conséquences dramatiques. Fin 2024, Sewell Garcia, âgé de 14 ans, a mis fin à ses jours suite à sa « relation amoureuse » avec un chatbot. L’IA n’a bien sûr pas d’intention malveillante, mais a encouragé l’adolescent dans son projet plutôt que de le stopper. Là où un véritable ami l’aurait stoppé ?
Voir c’est (ne plus) croire
Les premiers détournements par IA pouvaient amuser : le pape en doudoune, Donald Trump sur un vélociraptor. Le faux est évident quand il est grossier. Mais désormais, et à moins d’avoir l’œil avisé, les images générées artificiellement en un clic sont pratiquement impossibles à distinguer de vraies images. Une aubaine pour les escrocs et les politiques. Comme l’actuel président des États-Unis, Donald Trump. En juillet 2024, quatre mois avant les élections, un animateur radio conservateur, Mark Walters, publie cette image de Donald Trump entouré de jeunes hommes noirs. Une image totalement fausse, mais susceptible d’influer sur l’opinion publique et d’attirer un nouvel électorat.

Vers l’ère du soupçon généralisé
Va-t-on vers un monde où nous serons submergés d’informations, dont aucune ne sera réelle ou vérifiable ? Ce cauchemar rappelle la théorie de l’internet mort (dead Internet), dans lequel la majorité de nos interactions s’effectuerait avec des bots ou des IA, avec des contenus visant à faire cliquer les internautes. Mais cette théorie jusque-là considérée comme complotiste pourrait devenir réalité, tant les posts écrits par IA, et commentés par des chatbots IA, se multiplient.
Pour l’heure, la menace vient surtout des deepfakes. Ces contenus n’ont pas attendu les IA pour exister. Ils désignent les images, vidéos ou sons truqués, à but de divertissement, de manipulation ou de harcèlement. Pour ce qui est du divertissement, les réseaux sociaux sont déjà submergés de contenus alternatifs. Comme ces visites d’époques passées (Antiquité romaine, Moyen Âge…), impressionnantes mais sans valeur historique. Les manipulations ne sont pas en reste. En 2024, un employé a transféré plus de 25 millions d’euros à un escroc après avoir reçu un appel vidéo truqué : l’image et la voix de son directeur financier avaient été entièrement simulées par IA. Ce genre d’escroquerie, baptisé vishing IA (voice phishing), progresse rapidement. En Chine, des banques expérimentent déjà des mots de passe familiaux non vocaux ou des codes gestuels pour authentifier les appels sensibles.
Mais le risque principal touche la jeunesse. Les photos truquées amplifient le harcèlement scolaire. Pire, les jeunes femmes sont ciblées par les réseaux pédocriminels pour obtenir de véritables photos dénudées, sous menace de diffuser de fausses photos d’elles. Heureusement sur ce point, des lois existent. Ne reste plus qu’à éduquer les plus jeunes à ne pas publier leurs photos sur les bases de données.

Un coût carbone non négligeable
L’empreinte carbone de l’IA n’est pas négligeable. Sa principale source, comme pour le numérique en général, réside dans la construction et l’alimentation en énergie des centres de données (où sont stockées les sources des modèles) et des terminaux (nos téléphones ou ordinateurs pour les utiliser). Vient ensuite le coût massif de l’entraînement des modèles : des milliers de processeurs graphiques actifs durant des jours. Ensuite, les requêtes des utilisateurs n’entraînent qu’une modeste consommation énergétique... mais qui s’ajoute à toutes les autres ! À l’échelle mondiale, la consommation d’électricité liée aux centres de données devrait plus que doubler d’ici 2030, pour atteindre 945 TWh, une hausse essentiellement due à l’IA, d’après l’Agence internationale de l’énergie (IAE).
