Après la tenue de sommets à Londres en 2023 et à Séoul en 2024, orientés vers les questions de sécurité posés par l’AI, Paris a accueilli, les 10 et 11 février 2025, un nouveau sommet sur l’intelligence artificielle. Selon le site de l’Élysée, il s’agissait « de promouvoir l’IA comme une source d’innovations positives majeure, de définir en ce domaine une stratégie française et européenne, de mettre en avant le savoir-faire des acteurs et de rassembler les partenaires internationaux (le Premier ministre indien assurait la coprésidence du sommet) autour de cette vision commune ». C’est bien cette vision enamourée de l’IA qui ressort des discours des chefs d’État ou des chefs d’entreprise présents. En particulier, E. Macron et U. Von der Layen ont annoncé tous deux leur décision de participer à d’importants investissements utiles au développement de l’IA en France et en Europe : il n’a été alors question que « d’opportunités », de la volonté « d’être dans la course » et de « construire les usines de demain ».
Les objectifs annoncés sur le site France diplomatie étaient pourtant différents : les thèmes du sommet devaient porter sur « l’IA au service des intérêts publics », « l’avenir du travail », « l’innovation et la culture », « l’IA de confiance » et « la gouvernance mondiale de l’IA ». Ces thèmes ont bien été traités lors du sommet par diverses conférences, mais les titres, comme pour réfuter d’avance les critiques sous-jacentes, ont été rendus plus valorisants : « comment mettre l’IA au service du travail ? » ; « créer un cercle vertueux entre l’IA, l’information et la création » ; « tirer parti de l’IA pour protéger les démocraties » et « mettre en place une gouvernance de l’IA efficiente et réellement inclusive ». L’on est alors revenu chez les Bisounours, où l’IA apporte des solutions et non des problèmes et où on se garde d’évoquer avec précision les mesures nécessaires pour atteindre cet horizon magnifique.
Dans la réalité, un sommet ambigu de bout en bout
L’enthousiasme, factice ou sincère, des chefs d’État et des chefs d’entreprises présents au sommet n’a réussi à dissimuler ni l’âpre contexte de concurrence entre puissances ni le dédain pour toute forme de régulation.
La France et l’Union européenne ont fièrement annoncé d’énormes investissements, (respectivement 109 Mds et 200 Mds « dans les années à venir »), en affichant leur intention de « gagner la course » de l’IA ou, au moins, de ne pas perdre la face devant les puissances dominantes que sont d’ores et déjà, en ce domaine, les USA et la Chine. Il s’agissait notamment de répondre à l’annonce récente du Président Trump portant sur 500 Mds d’investissements sur 4 ans pour construire, au Texas, des data centers nécessaires au développement de l’IA, infrastructures qui malheureusement consomment une énergie démentielle.
Pour autant, ni aux États-Unis ni en France, les investissements annoncés ne sont financés, même partiellement, par la puissance publique. Ce sont des entreprises, des banques ou des fonds privés qui investissent, avec la bénédiction et l’aide des états : Soft Bank, Oracle, Microsoft, Nvidia et Open AI aux États-Unis et en France, pour l’essentiel, les Émirats arabes unis et un fonds d’investissement canadien, avec une participation de la « start-up française » de l’IA, Mistral. La situation n’est pour autant pas identique entre les deux pays : les États-Unis veulent aider leurs entreprises déjà pilotes sur l’AI, en particulier les GAFAM ; la France quant à elle, dépourvue de grands entrepreneurs de l’IA, accueille des investissements étrangers sur les infrastructures sans que l’on connaisse les contreparties ou les usagers de ces installations et sans que l’on comprenne si et comment cette présence étrangère va influer sur la course mondiale aux premières places dont la France restera sans doute exclue.
L’investissement européen quant à lui conjugue 50 Mds d’argent européen et 150 Mds d’apport d’entreprises. Pour autant, les règles d’attribution des financements européens ne sont pas connues, même si les discours des officiels européens semblent privilégier une IA en open source et une IA plus technique que générale, fournissant à des secteurs d’activité, santé, industrie ou services financiers, des instruments d’amélioration de la productivité. Toutefois, en 2024, un rapport de la Cour des comptes européenne notait que, jusqu’alors, les plans de l’Union pour l’IA, qui se donnaient pour objectif, en 2018 et 2021, de développer un écosystème européen d’IA, ont été largement inefficaces : mise en œuvre partielle, coordination insuffisante, faiblesses du suivi en seraient cause.
Le sommet s’est inscrit en tout cas dans une logique de concurrence entre États et pas de collaboration internationale, tout en reléguant au second plan les préoccupations régulatrices voire prudentielles de l’IA. Le site privé Euractiv, titre de presse spécialisé dans les questions européennes, titrait le 10 février dernier : « Au sommet de l’IA, la réglementation est passé de mode », citant un assistant du Président de la République ayant participé à l’organisation du sommet : « Nous devons veiller à ce que les risques de l’IA soient pris en compte, mais innovons d’abord et créons des champions européens ». Quant au Vice-Président américain, il a affirmé que son pays avait le leadership sur l’IA et entendait le garder et qu’il ne tolérerait aucune mesure tendant à brider les entreprises américaines.
Il est vrai toutefois que la déclaration finale du sommet regorge de bonnes intentions : volonté d’une approche inclusive, éthique, sécurisée, axée sur les droits humains, accessible à tous, durable et évitant la concentration du marché. Il s’agit en réalité d’une suite d’affirmations sans portée concrète. La seule mesure qui répond à ces objectifs est la création de Current AI, fondation qui doit soutenir la création d’AI en open source et préservant l’intérêt général : pour l’instant, la structure est très faiblement dotée (400 millions) même si d’autres financements sont envisagés. Qui penserait que cette structure va infléchir les décisions et les objectifs de la tech ? Dès la fin du sommet, l’Union européenne a discrètement retiré un projet de directive sur la responsabilité en matière d’intelligence artificielle, au motif qu’il n’y aurait pas de consensus pour l’adopter. L’Union ne veut pas être regardée comme un régulateur qui ne sait faire que réguler, même si elle est à l’origine du règlement sur l’IA, seul texte qui entend encadrer son développement et lui imposer des obligations lorsqu’elle est porteuse de risques avérés. Désormais l’Union souhaite être regardée comme une puissance engagée dans le défi de l’innovation, ce qui relève, pour l’instant, de la méthode Coué.
Surtout, la déclaration finale n’a pas été signée par des puissances qui participent à la course aux premières places, les USA, le Royaume Uni et Israël. Le discours du Vice-président américain, sans atteindre les sommets de cynisme de son discours à la Conférence de Munich sur la sécurité, était limpide : les Etats-Unis exigent le démantèlement de la régulation européenne sur les services numériques, en y incluant l’IA. Ils ne peuvent adhérer à un discours qui, même par hypocrisie pure, demanderait à l’IA de respecter les droits humains et la démocratie. Ils n’ont pas signé ? Pas grave, ont dit les puissances invitantes, France et Inde, la déclaration est de toute façon d’application facultative. Pas grave, mais jusqu’à quand ? Et comment se terminera le bras de fer entre les GAFAM et les autorités européennes quand celles-ci voudront appliquer les quelques règles qu’elles ont adoptées ?
Un inquiétant rapport international sur les risques qui n’a pas fait les gros titres
Deuxième paradoxe, le sommet a été l’occasion de présenter (sans grand écho, il faut le reconnaître) le Rapport scientifique international sur la sécurité de l’IA, piloté par Yoshua Bengio, fruit du travail d’une centaine d’experts de 30 pays, demandé lors du premier sommet de Londres. Le rapport, qui se concentre sur les risques de l’IA à usage général, n’est pas vraiment surprenant quand il énumère ceux-ci : risques d’utilisation malveillante (parution de contenus falsifiés sur des individus pour affecter leur réputation, manipulation des opinions publiques, facilitation de la cybercriminalité, voire de la fabrication d’armes chimiques ou biologiques) ; risques de « mauvais fonctionnement » de l’IA, dont la fiabilité est loin d’être parfaite, et risques de biais politiques et sociaux dans les prises de décision, voire de perte de contrôle de la décision ; risques systémiques s’agissant du marché du travail, du fossé qui peut se creuser entre pays selon leur maîtrise de l’IA, de la concentration excessive des entreprises qui dominent le marché, des risques environnementaux, qui sont patents, des risques enfin pour la protection des droits d’auteur. Ces risques étant unanimement reconnus, les experts du rapport débattent entre eux de leur ampleur ou de leur proximité, certains les voyant proches et d’autres plus lointains.
Là où le rapport avive les craintes, c’est lorsqu’il corrige sa version intermédiaire de 2024 en montrant combien certains risques, qui faisaient alors l’objet de débats, se sont révélés ou ont augmenté en un an. Là où il fait peur, c’est quand il évoque la gestion des risques, évaluation de leur ampleur et mise en œuvre par les autorités publiques de remèdes ou de techniques destinés à les atténuer. Le rapport montre que cette gestion est quasi-impossible : les usages de l’IA générale sont extrêmement larges et chaque domaine est particulier ; les développeurs ne comprennent pas bien eux-mêmes le fonctionnement des IA qu’ils élaborent (il n’y a pas « programmation » mais « entraînement » des modèles) ; les modèles se modifient trop vite, ce qui expose les régulateurs à agir sans avoir suffisamment de preuves, en risquant d’être inefficaces, ou, à l’inverse, à attendre d’avoir des certitudes mais en intervenant trop tard ; surtout, il existe un écart entre ce que savent les entreprises et ce que savent les gouvernements : il n’y a ni partage ni transparence.
En définitive, le rapport conclut, un peu benoîtement, que « l’avenir est incertain, allant d’impacts très positifs à des conséquences très négatives » et que tout dépendra des choix que les sociétés et les gouvernements font et feront pour façonner le développement de l’IA.C’est une lapalissade. En tout état de cause, aujourd’hui, les décideurs ne se soucient pas des risques, tout en affirmant gravement que ce serait mieux si l’IA était durable, éthique, transparente et sécure.
Sur l’IA, certitudes et incertitudes
Même si cela peut surprendre, les économistes ne sont pas absolument pas unanimes sur les effets économiques d’ensemble de l’IA.
Certes, nombreux sont ceux qui prévoient des augmentations mirobolantes de la productivité et de la croissance, tel le FMI qui annonçait en 2024 une forte hausse de la production mondiale sur 10 ans. De même, une étude de Goldman Sachs évoquait en 2023 un gain de productivité supplémentaire de 1,5 point par an sur 10 ans aux États-Unis, certes à la condition d’une adoption généralisée de l’IA. Dans un article du Monde du 7 février 2025, L’impact de l’IA sur la main d’œuvre est positif, même pour des professions jugées vulnérables à l’automatisation, l’économiste P. Aghion, assimilant l’IA aux révolutions technologiques passées, avance une hausse de la productivité de 0,8 à 1,3 % par an dans les 10 prochaines années. Selon lui, l’emploi total augmenterait, les entreprises automatisées investissant d’autres secteurs d’activité. La réussite tiendrait cependant à deux conditions, une politique de concurrence empêchant la captation du marché par de grosses entreprises et une politique de formation améliorant la qualification de la population : ce n’est donc pas gagné.
Les experts de la direction du Trésor française (Les enjeux économiques de l’intelligence artificielle, avril 2024) comme l’organisme patronal Rexécode ou le think tank Terra nova (Ce que l’IA générative fait au travail et à l’emploi, février 2025) sont bien plus circonspects sur les effets de l’IA. Selon le Trésor, si des effets positifs sur la productivité individuelle sont constatés en cas de recours à l’IA, il est trop tôt pour dresser un constat identique au niveau global des entreprises ou des pays, d’autant que l’IA a un coût d’investissement préalable et de réorganisation interne : les calculs sur la capacité de l’IA à remplacer des tâches ou à se substituer à des emplois sont théoriques puisque les coûts ne sont pas pris en compte. Les effets dépendront de la vitesse d’adoption de ces nouvelles technologies et de l’effectivité des effets attendus sur l’accélération de l’innovation, puisqu’on attend de l’IA qu’elle « produise des idées ». L’effet sur l’emploi agrégé est donc incertain : il dépend de l’évolution des salaires, des nouveaux emplois éventuellement offerts aux personnes qualifiées (elles devraient être les plus touchées si l’IA se développe mais peuvent se voir offrir d’autres emplois) mais aussi des professions exercées, celles qui relèvent de la programmation et de l’écriture étant plus vulnérables que les emplois industriels. Enfin, dans l’adoption de l’IA, la formation jouera un rôle et, comme pour les TIC, les effets de concentration peuvent créer des distorsions au bénéfice de grosses entreprises qui capteraient le bénéfice de l’IA au détriment des autres.
Si l’on est bien en peine d’anticiper les effets économiques et sociaux de l’IA, il existe, en revanche, des certitudes : le développement de l’IA impliquera une augmentation considérable des besoins en énergie (qui la fournira ?) ; certaines utilisations de l’IA (son utilisation en temps de guerre, à des fins de contrôle ou de surveillance de la population, à des fins d’attribution d’un avantage matériel ou d’un rang dans un classement ou dans le domaine de l’information ou de la création) devraient imposer une régulation humaine à des fins éthiques : l’utilisation de l’IA par Israël lors de la guerre à Gaza, les pratiques chinoises de surveillance, l’utilisation de l’IA dans les services publics de l’emploi le démontrent. Même lorsque la réglementation existe (c’est le cas en Europe) comment l’appliquer alors que son application imposerait de lourdes contraintes aux entreprises, que les GAFAM, plus fortes que les États, s’y refusent et que certaines puissances dominantes (la Chine, mais aussi les USA désormais) s’y opposent absolument, parce qu’elles ne partagent pas la conception européenne de la démocratie et de la régulation ?
En interne, le sommet sur l’IA nous a rappelé ce que l’effacement du Président sur la scène intérieure nous avait permis d’oublier : l’arrogance techniciste, l’affichage de promesses floues de développement économique, les alliances ambiguës avec des dictateurs qui reprennent pourtant à leur compte, sans honte, les termes d’inclusivité et d’ouverture, la confusion des intérêts publics et privés, le mépris des « chevaliers d’industrie » pour les alertes humanistes. Au niveau international, s’ajoute aujourd’hui la morgue des dirigeants américains qui ne veulent prendre en compte que l’intérêt de leur business national, sans anticiper les perversions, s’alignant ainsi sur les dictatures. L’IA arrive et avec elle, malgré des progrès indéniables attendus dans certains domaines techniques, des jours sombres.
Pergama, le 3 mars 2025