
Introduction
L’effervescence autour de l’intelligence artificielle est aujourd’hui à la fois technologique, médiatique et financière. Des promesses grandioses — « l’AGI », le travail pris en charge par des machines, la création automatique de richesses — côtoient des annonces marketing destinées à lever des fonds et à capter l’attention. De nombreuses voix s’élèvent pour dire que les grands noms du secteur ont enjolivé, orienté ou sur-vendu leurs avancées. Il est temps de démêler le vrai du faux : qu’est-ce que l’AGI, quelles promesses sont réalistes, quelles pratiques marketing faut-il dénoncer, et pourquoi les marchés, devenus frileux, pourraient voir dans l’IA le germe d’une crise financière si la bulle éclate.
Qu’est-ce que l’AGI ?
AGI — Artificial General Intelligence — est défini, dans son sens idéal, comme une intelligence artificielle capable de comprendre, apprendre et accomplir des tâches intellectuelles au moins aussi bien qu’un humain dans un large éventail de domaines. Autrement dit : une machine capable d’adaptation, de raisonnement, de créativité et d’autonomie au-delà d’un cadre étroit.
Dans la rhétorique publique, des figures influentes (Sam Altman et Elon Musk par exemple) décrivent parfois l’AGI comme une promesse quasi-utopique : des machines qui « travaillent pour nous », génèrent des richesses, et permettent une redistribution qui rendrait obsolète le travail humain traditionnel. Ces images sont puissantes — elles vendent une vision — mais restent floues sur les moyens, le calendrier et les mécanismes politiques et économiques nécessaires pour que cela devienne réel.
Promesses, marketing et réalité technologique
Il existe une différence importante entre progrès technologique réel et discours commercial. Deux phénomènes doivent être distingués :
- Améliorations concrètes : modèles de langage plus grands, meilleurs modèles de vision, progrès en robotique, meilleurs algorithmes d’optimisation. Ce sont des étapes réelles, mesurables sur des tâches spécifiques.
- Narratifs stratégiques : discours sur l’AGI imminente, les « révolutions du travail », ou valeurs d’entreprise basées sur des projections optimistes. Ces récits servent souvent à attirer investisseurs, talents et couverture médiatique.
Certains observateurs reprochent aux acteurs du secteur d’avoir présenté comme imminente une capacité (l’AGI) qui reste, en pratique, très éloignée. D’autres pointent des comportements problématiques : optimisation sur des benchmarks, réglages visant à briller sur des tests publics plutôt qu’à améliorer la robustesse générale, ou communication qui amplifie les résultats exceptionnels.
L’analogie « Dieselgate » et le sur-ajustement aux tests
L’analogie avec le « Dieselgate » (tricherie instrumentée pour tromper un test) revient souvent : au lieu de manipuler un instrument, un modèle peut « bachoter » un benchmark en exploitant biais et fuites de données, ou en mémorisant les questions. Cela se produit lorsque l’évaluation n’est pas représentative du monde réel — et qu’un modèle est entraîné ou réglé pour obtenir de bonnes notes sur le test, sans pour autant développer des capacités générales ou robustes.
Ainsi le model O3 d’openAI a fait un score de 75% sur ARC-AGI version 1 mais son score est tombe a 4% avec un cout par tache de 200$.
| System | ARC-AGI-1 | ARC-AGI-2 | Efficiency (cost/task) |
| Human panel (at least 2 humans) | 98% | 100% | $17 |
| Human panel (average) | 64.2% | 60% | $17 |
| o3-preview-low (CoT + Search/Synthesis) | 75.7% | 4%* | $200 |
| o1-pro (CoT + Search/Synthesis) | ~50% | 1%* | $200* |
| ARChitects (Kaggle 2024 Winner) | 53.5% | 3% | $0.25 |
| o3-mini-high (Single CoT) | 35% | 0.0% | $0.41 |
| r1 and r1-zero (Single CoT) | 15.8% | 0.3% | $0.08 |
| gpt-4.5 (Pure LLM) | 10.3% | 0.0% | $0.29 |
Passer le bac en connaissant les sujets est ce vraiment passer le bac ?
L’IA comme perroquet statistique — mythe ou fondement ?
Un reproche récurrent est que les modèles actuels sont essentiellement des « perroquets statistiques » : ils prédisent la suite la plus probable d’un texte sur la base d’un gigantesque historique de données. Ce mécanisme peut créer des résultats impressionnants — génération fluide, réponses cohérentes — sans pour autant témoigner d’une compréhension profonde ou d’une pensée autonome.
Deux points importants :
- Performance vs compréhension : l’aptitude à produire des textes plausibles n’implique pas forcément compréhension causale, sens commun ou capacité d’auto-amélioration intentionnelle.
- Boucle de rétro-alimentation des données : si les modèles futurs s’entraînent majoritairement sur des données générées par d’autres modèles, il existe un risque de « dégradation de qualité » ou d’appauvrissement progressif (effet photocopie). Cela ne garantit pas une catastrophe inéluctable, mais c’est un facteur à surveiller : diversité et qualité des sources restent cruciales.
Pourquoi les marchés deviennent frileux
Les marchés financiers réagissent à deux choses : la promesse de gains futurs et la confiance dans la capacité à transformer ces promesses en revenus réels. Plusieurs raisons expliquent la prudence grandissante :
- Valorisations extrêmes : de nombreuses entreprises d’IA ont été évaluées sur la base d’hypothèses de croissance et de marges élevées. Si la monétisation tarde ou que la concurrence comprime les prix, ces valorisations s’ajustent violemment.
- Effet de levier et financement spéculatif : capital-risque, introduction en bourse et dette peuvent créer une bulle. Si les revenus ne suivent pas, les retraits de capitaux et la contraction du crédit entraînent des faillites en chaîne.
- Réalité opérationnelle : coûts d’infrastructure (GPU, datacenters), dépenses en R&D, et burn rate élevé. Une firme peut « brûler » beaucoup de cash pour rester compétitive sans garantie de revenus proportionnels.
- Hype et désillusion (cycle de Gartner) : l’IA suit souvent un cycle « hype → désillusion → adoption productive ». La phase de désillusion peut provoquer un mouvement de panique boursière.
- Régulation et risques réputationnels : incidents de sécurité, biais, usages malveillants peuvent déclencher interventions réglementaires ou réactions publiques qui réduisent la valeur.
Risque d’une crise financière liée à l’IA
Une crise liée à l’IA n’est pas automatique, mais plausible via ces canaux :
- Corrections de marché : effondrement des valorisations tech créant pertes massives pour institutions et fonds fortement exposés.
- Contagion : start-ups dépendantes de financements, fournisseurs d’infrastructure et entreprises clientes subissent des effets en cascade.
- Crédit et effet de levier : si certains acteurs utilisent de la dette pour soutenir des opérations non rentables, un retrait de financement peut provoquer défauts et forcings.
- Chocs macroéconomiques : pertes sur actifs technologiques peuvent réduire consommation et investissement, amplifiant une récession.
Cependant, il est aussi probable que les ajustements mènent à une consolidation saine : des entreprises inefficaces disparaissent, des technologies mûrissent lentement pour une adoption industrielle durable.
Conclusion et pistes raisonnables
L’AGI, telle qu’elle est souvent décrite publiquement, reste un objectif lointain et mal défini. Les discours marketing ont parfois confondu promesse, vision et réalité technique. Les marchés se montrent aujourd’hui plus prudents — ce qui est sain si cela évite un éclatement brutal et contagieux.
Pour naviguer cette période, il faudrait :
- Exiger des évaluations robustes des modèles (tests indépendants, généralisation, audits).
- Séparer communication et faits : transparence sur les limites, coûts et cas d’usage réels.
- Adapter la régulation pour limiter les risques systémiques et protéger les utilisateurs.
- Diversifier les investissements et ne pas spéculer uniquement sur des promesses d’AGI imminente.
Au fond, influencés par des décennies de films de science-fiction où l’IA domine le monde et prend le contrôle, nous avons peut-être projeté ces récits imaginaires sur une réalité qui n’existe pas. Ce qui devait rester de la fiction a été, à tort, perçu comme une évolution inévitable. Et rappelons nous que si c’est trop beau pour être vrai, c’est que cela n’est surement pas réel.


