La lecture centrale est que Terafab renforce le basculement narratif de Tesla, d’un constructeur de véhicules électriques vers une plateforme d’IA et d’infrastructure, mais le marché achète aujourd’hui une promesse industrielle à exécution lente. Elon Musk a annoncé que Tesla et SpaceX construiront à Austin deux usines avancées de puces dans le cadre du projet Terafab : l’une orientée vers les puces pour les véhicules et Optimus, l’autre vers le matériel destiné aux centres de données d’IA et aux usages spatiaux liés à SpaceX et xAI. Reuters et d’autres couvertures convergent sur deux points qui soutiennent ce mouvement : l’idée de réduire la dépendance à des tiers et l’intégration du projet dans l’écosystème Musk, où voiture, robot, satellites et modèles d’IA partagent le besoin d’une capacité de calcul propre.
Cela aide Tesla à être de nouveau valorisée en partie comme une histoire d’IA et non plus seulement comme un constructeur automobile. Le marché tend à récompenser l’intégration verticale lorsqu’il estime qu’une entreprise peut contrôler un goulet d’étranglement stratégique. Dans ce cas, le goulet d’étranglement est la puce avancée. Si Tesla parvient à concevoir, fabriquer, encapsuler et tester une plus grande partie de son silicium à proximité de ses propres opérations, elle renforce son récit d’autonomie technologique dans la conduite autonome, la robotique et l’entraînement/l’inférence. En outre, le fait que SpaceX ait resserré ses liens avec xAI ajoute une couche narrative : Terafab ne serait pas un projet isolé, mais une pièce d’un système plus large de calcul, de données et de déploiement industriel.
Le problème est que le marché pourrait intégrer trop tôt un actif qui n’a encore ni calendrier clair ni validation opérationnelle. Construire une usine avancée de semi-conducteurs ne ressemble pas à l’extension d’une usine d’assemblage automobile : cela exige des années, des investissements massifs, un accès à des outils critiques et une expérience industrielle qui n’est pas démontrée aujourd’hui au sein du groupe Musk. Certaines estimations citées par la presse situent le coût potentiel bien au-delà de 20 milliards de dollars et indiquent qu’elle ne serait pas opérationnelle avant 2028. Mon interprétation est que TSLA évolue davantage par expansion du multiple narratif que par amélioration immédiate du bénéfice attendu. Tant qu’il n’y aura ni échéances, ni partenaires technologiques, ni nœud de fabrication, ni structure de financement, Terafab ajoute de l’ampleur stratégique, mais ne réduit pas encore l’incertitude d’exécution. La thèse améliore l’histoire longue de Tesla ; elle n’améliore pas de manière visible ses flux de trésorerie à court terme.
Nvidia continue de fonctionner comme l’actif qui résume l’état d’esprit du trade IA : lorsque le marché croit en une monétisation réelle, le titre monte ; lorsqu’il doute de la rentabilité des dépenses dans les centres de données ou craint une régulation, il se refroidit. Cette condition de « thermomètre » n’est pas abstraite : Nvidia a clos son exercice fiscal 2026 avec 215,9 milliards de dollars de chiffre d’affaires et 68,1 milliards au quatrième trimestre, des chiffres qui maintiennent l’entreprise au centre du cycle d’investissement en IA. À cela s’est récemment ajouté l’accord visant à vendre à AWS un volume massif de puces et de réseau jusqu’en 2027, ce qui renforce la visibilité de la demande mais accroît aussi la dépendance envers les grands hyperscalers.
Le changement important dans la narration est que l’inférence prend de plus en plus de poids face à l’entraînement. Lors de la GTC 2026, Jensen Huang a porté l’opportunité de revenus de l’IA au-delà du billion de dollars d’ici 2027 et a mis explicitement l’accent sur l’inférence, pas seulement sur l’entraînement de modèles géants. La raison économique est claire : entraîner un modèle peut être un événement ponctuel, mais servir des millions de requêtes quotidiennes constitue une charge continue. Si le marché adhère à cette idée, Nvidia cesse de dépendre uniquement d’une course ponctuelle pour entraîner des modèles toujours plus grands et commence à capter un flux plus récurrent lié à l’usage réel. L’accord avec AWS et l’intégration de la technologie de Groq dans l’offre de Nvidia vont exactement dans ce sens.
En même temps, la valeur porte deux décotes potentielles : le bruit lié aux insiders et la politique industrielle et réglementaire. Les ventes internes de 2025 et d’autres mouvements récents d’insiders ont donné à une partie du marché matière à s’interroger sur le potentiel restant après la hausse, même si, à elles seules, elles n’invalident pas la demande fondamentale. Le risque le plus sérieux reste politique : exportations vers la Chine, révisions de sécurité et nouvelles règles américaines qui pourraient lier l’accès aux puces à des investissements ou à des conditions géopolitiques. Ma lecture est que NVDA n’est pas faible à cause de son activité, mais à cause de la crainte que le marché ait trop anticipé la rentabilité future du capex IA.
Tant que l’investissement dans les centres de données reste solide, Nvidia conserve son leadership ; si cet investissement commence à être évalué selon des critères de retour plus stricts, ce sera la première grande référence à subir une compression de multiple.
Micron domine la conversation parce que le catalyseur est très concret et frappe directement le cœur de sa thèse boursière : si une amélioration algorithmique réduit fortement les besoins de mémoire en inférence, le marché craint qu’une partie de la demande structurelle de DRAM/HBM pour l’IA soit surestimée. Google a présenté TurboQuant le 24 mars comme une méthode de compression destinée à réduire le goulet d’étranglement de la mémoire du KV cache dans les modèles longs. Dans son blog de recherche, Google affirme que TurboQuant peut maintenir les performances avec une forte compression, obtenir au moins une réduction de 6 fois de la mémoire KV dans certains tests et accélérer le calcul par rapport à des clés non quantifiées. Ce message a suffi à déclencher des ventes chez les fabricants de mémoire, avec Micron au centre de la réaction.
La réaction du marché a une logique tactique, mais elle peut être excessive si elle est interprétée comme une destruction automatique de la demande. La mémoire dans l’IA ne dépend pas seulement du nombre de bits nécessaires à chaque inférence, mais aussi du nombre total d’inférences exécutées, du type de modèles déployés et de la partie du système qui est optimisée. Une amélioration qui réduit le coût de l’inférence peut diminuer la mémoire par tâche, mais elle peut aussi faire exploser l’adoption, l’usage et la longueur du contexte. C’est là le point clé : moins de mémoire par requête n’implique pas nécessairement moins de mémoire agrégée dans le système. D’ailleurs, le cadrage même de Google suggère que TurboQuant est conçu pour débloquer de l’échelle et de l’efficacité dans les produits d’IA et de recherche, non pour éteindre la demande d’infrastructure. Ma lecture est que le vrai risque n’est pas « moins de mémoire », mais un changement de mix : quelle mémoire est nécessaire, où, et à quel prix.
En outre, Micron aborde cet épisode depuis une position opérationnelle très solide, ce qui complique la thèse baissière simpliste. L’entreprise vient de publier un trimestre fiscal très puissant, avec des revenus records, une forte génération de trésorerie et des prévisions soutenues par la demande en IA, en particulier dans la mémoire destinée aux centres de données. Reuters a également souligné que le marché a sanctionné l’action non seulement pour des doutes sur la demande future, mais aussi à cause de la hausse des dépenses d’investissement nécessaires pour y répondre. En d’autres termes, MU se trouve entre deux forces opposées : d’un côté, des résultats et un cycle de prix très solides ; de l’autre, la crainte que l’efficacité algorithmique et de futures augmentations de capacité du secteur n’érodent la pénurie actuelle. Aujourd’hui domine la peur que la pénurie de mémoire pour l’IA soit moins structurelle qu’il n’y paraissait. Mon hypothèse est plus modérée : TurboQuant ne casse pas la thèse de Micron, mais oblige à réexaminer avec davantage de précision quelle part de la demande future dépend du pur volume et quelle part dépend du pricing et du positionnement dans la HBM.
Investir en actions au comptant ou via des produits dérivés avec IG offre de nombreuses opportunités de diversification et de rendement. Pour cela, il est essentiel de choisir un courtier sûr et fiable. Les plateformes de trading en ligne permettent d’investir en toute confiance et offrent rapidité et confort, aussi bien sur mobile que sur ordinateur.
Disposer d’un compte chez un courtier en ligne permet d’accéder à une large gamme de marchés. Trader, ou effectuer des opérations de trading, consiste à anticiper l’évolution du prix d’un actif sans en être propriétaire.
Pour trader sur les indices, les devises, les matières premières, les actions, etc., suivez les étapes suivantes :
Ces informations ont été préparées par IG Europe GmbH et IG Markets Limited. En plus de la déclaration ci-dessous, le contenu de cette page ne contient pas d’enregistrement de nos cours, ni d’offre ou de sollicitation d’une transaction sur un instrument financier. IG décline toute responsabilité quant à l’utilisation qui pourrait être faite de ces commentaires et aux conséquences qui pourraient en découler. Aucune déclaration ou garantie n’est donnée quant à l’exactitude ou à l’exhaustivité de ces informations. Par conséquent, toute personne qui agit en son nom le fait entièrement à ses propres risques. Toutes les recherches citées ne tiennent pas compte des objectifs spécifiques d’un investissement, de la situation financière ou des besoins propres à chaque investisseur susceptible de les recevoir. Ces informations n’ont pas été préparées conformément aux exigences légales visant à promouvoir l’indépendance de la recherche en investissement et, en tant que tel, sont considérées comme une communication marketing. Bien que nous ne soyons pas spécifiquement contraints de traiter en amont de nos recommandations, nous ne cherchons pas à en tirer profit avant qu’elles ne soient fournies à nos clients. Voir la déclaration relative aux recherches non indépendantes et le résumé trimestriel.