TRANSFORMATION & ORGANISATION
« L’IA, nous oblige à nous questionner : que voulons-nous pour nous-mêmes et nos enfants ? »
Bien avant la déferlante ChatGPT, Cédric Villani alertait déjà sur les enjeux stratégiques de l’intelligence artificielle. Mathématicien, médaille Fields et ancien député, il sera l’invité du Gala Golden-i le 21 mai prochain.
March 27, 2026

À travers ce Grand Entretien, il livre un regard lucide sur la course mondiale aux centaines de milliards investis dans l’IA générative. Entre emballement financier, dépendance géopolitique, défis énergétiques et mutations de la guerre, il invite les dirigeants européens à considérer la technologie au-delà de l’effet « waouh ». À ses yeux, l’exubérance actuelle relève davantage du récit mobilisateur que d’une véritable rupture scientifique. Derrière la performance technologique se joue une question bien plus profonde : celle de notre souveraineté, de notre modèle de société… et de notre responsabilité collective.
L’intelligence artificielle est un sujet omniprésent dans nos sociétés. En 2018, vous remettiez au gouvernement français un rapport sur les enjeux liés au développement de cette technologie. Vous vous êtes intéressé au sujet bien avant ChatGPT, lancé en 2022… Qu’est-ce qui vous a amené à vous pencher sur l’IA ?
Au cœur des années 80, quiconque s’intéressait à la vulgarisation scientifique était exposé à l’intelligence artificielle. C’était l’un des grands récits technologiques de l’époque. Beaucoup des figures actuelles du domaine ont été marquées par cette période.
Lorsque j’ai commencé mes études supérieures dans les années 90, le sujet était passé de mode. Les réseaux de neurones étaient considérés comme une impasse. Les financements s’étaient taris.
On parlait davantage de théorie de la complexité, d’algorithmique, de mathématiques pures.
Quand le sujet est-il revenu au premier plan ?
Le vrai tournant contemporain, c’est 2012. Cette année-là, les réseaux de neurones profonds, qu’on croyait dépassés, reviennent avec une efficacité inattendue. L’augmentation massive des données, la disponibilité des GPU, la capacité à entraîner des architectures de plus en plus profondes… tout cela a changé la donne.
En 2012, Nvidia est une entreprise parmi d’autres. Quinze ans plus tard, elle est l’une des plus grandes capitalisations mondiales. Ce basculement n’est pas anodin : il traduit le fait que la puissance de calcul est devenue une ressource stratégique globale.
Entre 2012 et 2016, les algorithmes atteignent puis dépassent les performances humaines sur des tests standardisés : reconnaissance d’écriture, reconnaissance vocale, classification d’images. Ce moment-là enclenche une nouvelle dynamique industrielle.
« Nous ne pouvons actuellement pas expliquer pourquoi
les réseaux de neurones profonds fonctionnent aussi. »
Qui implique d’en faire un sujet politique ?
Lorsque je deviens député, il est clair que le sujet dépasse le monde académique. Le « flash crash » de 2010 avait déjà montré que des systèmes algorithmiques pouvaient provoquer des instabilités financières spectaculaires. En 2016, la campagne du Brexit révèle la puissance des mécanismes de manipulation algorithmique de l’information. Les premiers systèmes de diagnostic médical atteignent des performances comparables à celles des spécialistes humains.
On ne peut plus considérer l’IA comme un objet de laboratoire.
Le gouvernement français nouvellement installé voulait montrer qu’il abordait les enjeux d’avenir. On m’a confié une mission stratégique sur l’intelligence artificielle, pour voir comment l’aborder à l’échelle nationale, mais aussi au niveau européen.
Ce qui a été inhabituel, c’est que la mission elle-même a été médiatisée. Nous avons organisé des centaines d’auditions : chercheurs, industriels, représentants syndicaux, acteurs religieux, philosophes, militaires, spécialistes de la défense.
Très vite, il est apparu que l’IA n’était pas un sujet sectoriel mais transversal, d’une certaine manière insaisissable. Les questions techniques étaient importantes. Mais les enjeux politiques, sociaux, économiques et culturels l’étaient encore davantage.
Quels enjeux ou priorités identifiez-vous alors ?
La santé, d’abord, apparaît comme un enjeu crucial. Les gains potentiels apportés par l’IA dans ce domaine sont considérables : imagerie médicale, médecine personnalisée, aide au diagnostic, optimisation hospitalière. C’est un champ où l’IA peut apporter des bénéfices tangibles.
La mobilité ensuite. À l’époque, tout le monde parlait du véhicule autonome. L’enthousiasme s’est en partie atténué. Mais l’optimisation des flux, la gestion du trafic, la planification logistique sont des champs où l’IA continue de progresser.
Nous avons ajouté deux axes supplémentaires : l’écologie et la défense. Il nous a semblé indispensable que la transition écologique s’approprie ces outils. À l’époque déjà, nous avions identifié des tensions énergétiques. Mais nous n’avions pas anticipé l’ampleur actuelle du problème.
Il apparaît évident aujourd’hui que la course à l’IA a fait passer les enjeux écologiques au second plan…
Oui, complètement. Les grands modèles de langage consomment des quantités massives d’énergie et d’eau. L’empreinte environnementale de l’IA est devenue centrale. Dans une course effrénée, on a vu toutes les grandes entreprises abandonner leurs engagements écologiques les unes après les autres et nouer, à la place, des contrats gigantesques avec les énergies fossiles. La logique de compétition entre les grands acteurs de la tech a atteint un niveau phénoménal, sans comparaison avec ce qui prévalait auparavant.
Cela se traduit par une course aux milliards, voire aux centaines de milliards investis…
Oui, entre 2018 et aujourd’hui, l’emballement a été considérable. On parle de centaines de milliards investis… Ce qui, objectivement, n’a pas de sens, ni pour la bonne santé du monde, ni même d’un point de vue économique. Il n’y a pas de modèle soutenable derrière OpenAI. On se laisse entraîner dans une espèce de fuite en avant, en avançant des mirages associés à une forme d’intelligence artificielle générale. Selon moi, cela relève d’une escroquerie intellectuelle, qui permet de mystifier la course aux sommes démesurées, en dehors de toute rationalité.
Vous évoquiez encore l’enjeu de la défense…
Oui. Et c’est sans doute le sujet le plus préoccupant. L’IA est une technologie duale. La guerre en Ukraine a brutalement accéléré les transformations : drones, automatisation, guerre hybride. L’IA y joue un rôle qui, s’il est actuellement encore limité, va croissant. Le scénario inquiétant n’est pas celui d’un robot exterminateur autonome. C’est celui d’une humanité qui perfectionne, à travers l’IA, sa capacité à se détruire à grande échelle grâce à des outils automatisés.
En 2022, quatre ans après le rapport, arrive ChatGPT. Y voyez-vous une révolution scientifique ?
Pas au sens strict. Les Transformers, architecture au coeur des grands modèles de langage, ont été mis au point plusieurs années avant ChatGPT, dans les laboratoires de Google. ChatGPT constitue avant tout une rupture d’interface et de diffusion, plus qu’une révolution scientifique. Il a principalement rendu visible au grand public une puissance computationnelle qui existait déjà. Il produit un effet « waouh », de la même nature que Deep Blue d’IBM, qui a vaincu Kasparov aux échecs en 1997. Et cet effet déclenche une accélération financière et médiatique. Mais il faut rappeler que la majorité de l’IA économiquement utile ne repose pas sur des agents conversationnels. Pourtant, ce sont eux qui
ont capté l’imaginaire collectif.
En tant que mathématicien, qu’est-ce qui vous fascine ou vous inquiète le plus dans cette technologie ?
Le mystère théorique qui y est associé, et qui traduit notre incomplétude. À l’heure actuelle, nous ne disposons pas d’une théorie satisfaisante expliquant pourquoi les réseaux de neurones profonds fonctionnent aussi bien dans des espaces de dimension gigantesque. C’est un défi mathématique majeur.

Vous dites que cela marche bien, mais que l’on ne sait pas vraiment pourquoi…
Oui. Les grands acteurs du domaine sont souvent des expérimentateurs remarquables. Mais la compréhension théorique reste partielle. C’est un challenge majeur pour les mathématiciens. Pourtant, ce sont des questions qui intéressent peu le monde économique et les investisseurs. Tant que les performances progressent, on injecte davantage de puissance de calcul. On empile les GPU. C’est une approche extrêmement empirique.
Or, c’est à mes yeux un enjeu clé. Une science qui cesse de chercher à comprendre ses propres fondements prend un risque.
La robustesse à long terme suppose de la compréhension, pas seulement de la performance.
La vitesse à laquelle les modèles progressent est tout de même impressionnante…
Oui, cela répond à une logique de course. L’expérience montre qu’avec quelques mois de différence, les nouveaux modèles ou les concurrents rattrapent les performances des autres acteurs.
Aujourd’hui, entre les meilleurs algorithmes d’OpenAI et ceux de Google, il y a match. Beaucoup pensent que, d’ici quelques années, ce seront des modèles ouverts qui seront de loin les meilleurs. C’est la position de Yann LeCun, l’un des pères de l’IA moderne, qui vient de quitter Meta pour créer sa propre start-up et défendre cette vision.
On constate aujourd’hui que les modèles les plus célèbres sont aussi les plus coûteux, sans retour sur investissement clairement démontré. C’est un paradoxe.
Pour les entreprises, l’IA constitue une promesse de gains de productivité. Quel regard portez-vous sur les transformations attendues en la matière ?
À grande échelle, les effets restent modestes. À l’heure actuelle, on constate que les grandes entreprises internationales qui ont passé des contrats pour de l’IA générative n’ont vu aucun accroissement significatif de leurs performances. En revanche, d’autres initiatives, plus petites, plus ciblées, s’appuyant sur des modèles ouverts, poursuivant des objectifs clairs, avec des procédures d’évaluation rigoureuses, présentent des résultats plus prometteurs.
Chacun devrait se demander ce qu’il peut construire à coûts raisonnables, en visant des impacts déterminés, en réponse à des besoins identifiés par les utilisateurs. Il n’est pas nécessaire de recourir à des modèles généralistes coûteux pour aller chercher des progrès. Il convient plutôt de se demander : de quoi ai-je besoin ? Sur quels corpus travailler ? La valeur se crée dans la précision, pas dans la démesure.
En d’autres termes, ne faudrait-il pas, au préalable, se demander ce que l’on souhaite faire de ces modèles d’intelligence artificielle ?
Absolument. Aujourd’hui, on compte quelques dizaines de projets liés aux grands modèles de langage. Sous peu, ils seront certainement des centaines, avec des spécialisations ciblées répondant à des besoins précis. On constate un décrochage gigantesque entre la course effrénée que représentent les projets les plus visibles et ce que des structures plus modestes mettent en oeuvre.
« La valeur se crée dans
la précision, pas dans la démesure. »
Monsieur Zuckerberg nous dit que ce n’est pas grave si l’on gaspille quelques centaines de milliards pour atteindre une intelligence artificielle générale. Monsieur Musk est pressé d’être le premier à atteindre les 1 000 milliards de fortune personnelle. Monsieur Bezos licencie à tout-va au Washington Post et s’intéresse au contrôle de l’information. Pour l’instant, tous ces grands projets semblent avant tout servir des intérêts particuliers, plus que répondre aux besoins fondamentaux de l’humanité : accès à la santé, à une alimentation de qualité, à une information fiable.
Cela n’est pas très réjouissant…
Il faut regarder au-delà des grands projets. On trouve aussi une myriade d’entreprises et d’initiatives qui intègrent la tech et l’IA dans leurs projets à une échelle plus modeste. Depuis sept ans, j’ai arpenté de nombreux colloques consacrés à l’IA et à la tech. J’y ai découvert des centaines de success stories : des projets mettant la technologie au service de l’agriculture, de la santé, de la protection des personnes, de la lutte contre la fraude. Ce ne sont pas ces initiatives qui font les gros titres. Mais ce sont elles qui participent réellement au progrès.
Comment expliquer la dimension fantasmée associée à l’IA, qui suscite tantôt des craintes démesurées, tantôt un enthousiasme sans limite ?
Vous avez raison. Il y a, avec l’IA, quelque chose qui relève du fantasme. Le choix même du mot “intelligence” pour qualifier la technologie n’y est pas étranger. C’est comme s’il s’agissait de créer une nouvelle intelligence, un nouvel être. Tout le travail de ceux qui oeuvrent à la vulgarisation scientifique consiste à déconstruire cela, à démystifier ces croyances. Il faut expliquer que derrière la technologie, il y a des algorithmes, des projets, une histoire. Au-delà
des grandes annonces, il faut aussi écouter ce que nous disent les sociologues, les philosophes, les spécialistes des technologies. La réflexion ne peut pas être uniquement technique.
Le choix du mot “intelligence”, dès l’origine, relevait déjà d’une démarche marketing ?
Les premiers pionniers comme Claude Shannon ou Alan Turing étaient avant tout fascinés par le mystère de l’intelligence. Mais leurs successeurs, dans les années 1950 et 1960, John McCarthy, Marvin Minsky, cherchaient aussi à susciter un élan politique et financier.
Nous étions à l’époque post-Manhattan. Ils rêvaient de financements massifs, de projets transformateurs. Le terme “intelligence artificielle” est devenu un nom marketing puissant. Alors qu’en réalité, nous parlons d’apprentissage automatique, de science des données, de corrélations probabilistes. Mais ces termes génèrent moins de buzz.
La manière dont la technologie nous renvoie à notre humanité est tout de même intéressante…
Oui, je vois deux choses très positives dans ce débat. La première est très concrète : le développement de l’IA favorise une coopération interdisciplinaire inédite. Médecins et développeurs, agriculteurs et experts en data, industriels et chercheurs travaillent ensemble. Cette interface crée des transferts de compétences précieux et oblige chacun à mieux comprendre les limites et les forces des algorithmes.
La seconde est plus profonde. Face à l’ampleur de la révolution technologique, l’IA nous oblige à nous interroger : qui sommes-nous 2 ? De quoi avons-nous réellement besoin ? Que voulons-nous pour nous-mêmes, pour nos enfants, pour notre société ?
À l’échelle individuelle comme collective, l’IA devient un miroir. Voulons-nous un projet impérial de domination technologique ? Un projet de protection ? Un projet écologique ? La question n’est pas seulement technique. Elle est existentielle.
La technologie met-elle en péril des qualités que l’on considère comme singulièrement humaines, comme la créativité ?
Potentiellement, oui, si l’usage devient passif. On peut craindre qu’une majorité d’usagers vont consommer l’IA sans intention ni esprit critique. C’est d’ailleurs comme cela qu’elle nous est « vendue », en mettant en avant tout ce que la technologie est capable de « faire à notre place ». Le risque est la délégation systématique, lorsque l’on demande à l’algorithme quoi penser, quoi écrire, quoi décider. Il y a aussi un risque de concentration des sources d’information. Un nombre croissant de requêtes passe par un petit nombre d’agents IA gérés par une poignée d’acteurs. Cela soulève d’importantes questions, en matière de souveraineté notamment, d’information et d’influence.
En revanche, si l’on n’est pas passif, si l’on fait preuve de volonté et d’esprit créatif, ces outils peuvent enrichir la démarche. La motivation est l’ingrédient clé : selon l’usage que l’on en fait, l’outil appauvrit ou enrichit.
N’y a-t-il pas là un enjeu clé en matière d’éducation ?
Très clairement. La réponse à ces enjeux passe par l’éducation. L’IA est déjà un sujet central dans les salles de classe et les universités. Personnellement, je côtoie des étudiants motivés, curieux, attentifs. C’est sur ces qualités qu’il faut travailler.
Ces développements technologiques n’ont-ils pas au moins le mérite de remettre les mathématiques en lumière ?
C’est vrai. Mais prudence. On se souvient de la grande mode des mathématiques financières et du trading algorithmique. Beaucoup de jeunes se sont tournés vers cette discipline… jusqu’à la crise de 2008. Les mathématiciens ont alors été accusés d’avoir contribué à la catastrophe. Il faut faire gaffe.
Ne sommes-nous pas à l’abri de désillusions ?
Non, nous ne le sommes pas. Mais soyons clairs : des progrès importants sont réalisés grâce à l’IA. Le prix Nobel de chimie attribué à Demis Hassabis et John Jumper pour leurs travaux sur AlphaFold en est une illustration. Ce n’est pas du flanc. Ce ne sont pas des promesses en l’air, comme ce fut parfois le cas pour d’autres technologies comme la blockchain.
Mais lorsque les discours autour de l’IA prennent une dimension messianique, il est inévitable que les résultats soient en deçà des attentes.

Qu’en est-il de l’IA comme levier d’amélioration des performances économiques ?
Les effets doivent être relativisés. Comme pour d’autres technologies avant elle, je pense au tableur informatique, l’avantage compétitif s’estompera une fois que tout le monde sera équipé, à relativement brève échéance. En outre, la croissance reste limitée par la disponibilité des ressources, qu’elles soient physiques ou financières. Le gâteau ne peut pas croître indéfiniment.
Si vous deviez inviter des jeunes à changer leur regard sur les mathématiques, comment le feriez-vous ?
Je leur proposerais d’assister à une conférence. Je leur dirais que les mathématiques sont une discipline vivante, constamment renouvelée, qui a accompagné l’humanité dans toutes ses évolutions sociales, techniques et économiques.
C’est une discipline incarnée, faite de personnages, de passions, de coups de théâtre, de polémiques. C’est un art autant qu’une science, avec des styles, des écoles. Et surtout, il reste infiniment plus à découvrir que ce qui a déjà été découvert