Au cours des dernières années, avec la croissance rapide de l'industrie de l'IA, une entreprise a attiré une attention particulière. C'est Micron Technology. Honnêtement, elle était presque invisible, éclipsée par Nvidia et TSMC, mais la situation commence à changer radicalement.



En remontant un peu dans l'histoire, en 2012, Elpida, qui était la fierté de l'industrie des semi-conducteurs japonaise, a fait faillite. Autrefois, elle s'appuyait sur la puissance technologique des trois géants NEC, Hitachi et Mitsubishi, mais en moins de 20 ans, elle a disparu complètement du marché de la DRAM. C'est Micron qui a racheté cette société à l'époque. Par la suite, Samsung et SK Hynix en Corée du Sud ont dominé le marché, repoussant leurs concurrents. Mais Micron a survécu. Aujourd'hui, c'est la seule entreprise aux États-Unis capable de produire en masse des puces mémoire avancées.

Pourquoi la valeur de l'action Micron est-elle maintenant sous les projecteurs ? Parce qu'elle détient la clé à un problème structurel de l'informatique IA. La capacité de calcul des GPU a explosé, mais un gros goulot d'étranglement subsiste. Le temps d'attente pour les données dépasse le temps de calcul lui-même. Ce « mur de la mémoire » ne peut être résolu par logiciel, uniquement par matériel. Et c'est précisément ce sur quoi Micron travaille depuis 40 ans.

Lors de la phase d'inférence de l'IA, la charge de calcul est très faible, et le système est entièrement limité par la bande passante mémoire. Le cache KV des grands modèles de langage nécessite plusieurs dizaines de gigaoctets de mémoire, et avec deux GPU A100, le nombre de requêtes utilisateur traitables simultanément est limité à une dizaine. L'énergie consommée pour lire les données depuis la mémoire hors puce représente 100 à 200 fois la consommation d'énergie du traitement réel. En d'autres termes, la majorité de l'électricité dans un centre de données est consacrée au transfert de données, et non au calcul.

Nvidia fabrique ses GPU H100 et B200 chez TSMC, mais la mémoire à haute bande passante (HBM) intégrée à ces GPU est produite par Micron. Le GPU est le cerveau, mais la HBM est un canal de données ultra-rapide connecté étroitement à ce cerveau. Les deux sont indispensables, et ce n'est que lorsque l'architecture Nvidia et la technologie mémoire Micron sont combinées qu'un véritable accélérateur IA peut voir le jour.

La stratégie concurrentielle de Micron diffère totalement de celle de Nvidia. Nvidia mise sur l'architecture et l'écosystème, tandis que Micron s'appuie sur l'amélioration continue de ses technologies de processus et d'empilement de packages. Avec l'évolution vers un processus de 1-gamma, le coût par bit a été réduit, permettant de découper plus de puces par unité de surface. Cela améliore la marge brute.

Le cours actuel de Micron, autour de 600 dollars, avec un ratio cours/bénéfice de 21,44, reflète un modèle commercial différent de celui des autres entreprises de mémoire. Autrefois, elle produisait des mémoires DDR standard, dont la quantité et le prix de vente dépendaient entièrement du marché. Aujourd'hui, la HBM est fabriquée selon un mode de commande, avec des contrats à long terme irrévocables signés avant la production, notamment avec Nvidia, fixant prix et volume. La capacité de production de HBM en 2026 est déjà entièrement réservée.

Dans ce modèle, les revenus futurs de Micron ne sont plus simplement prévus, mais déterminés par ces contrats. La société évolue d'une entreprise cyclique vers un fournisseur d'infrastructures. La valorisation en bourse a également changé : avec des contrats stables, la valorisation de l'entreprise augmente naturellement.

Sur le marché mondial de la DRAM, Samsung, SK Hynix et Micron détiennent environ 95 % du marché, chacun ayant ses forces. Micron est le plus rapide en termes d'avancement technologique. Elle est souvent la première à annoncer la production en masse de DRAM de nouvelle génération à haute densité. En revanche, sur le marché de la HBM, SK Hynix domine avec plus de 50 % de parts. Cependant, la HBM de Micron est plus efficace énergétiquement, avec des tests montrant une réduction de 20 à 30 % de la consommation électrique. Dans les centres de données équipés de dizaines de milliers de GPU, cette différence se traduit directement par des coûts d'électricité et de refroidissement.

Ce qui a permis à Micron, en tant qu'acteur tardif, d'intégrer la chaîne d'approvisionnement de Nvidia, c'est cette stratégie de différenciation. Sa capacité de production est la plus petite du secteur, mais en poursuivant une stratégie de premium technologique, elle ouvre le marché sans dépendre de la guerre des prix.

Un autre point crucial est l'engagement de Micron dans CXL (Compute Express Link). La HBM résout le problème de bande passante au sein d’un seul GPU, mais lorsque des clusters IA s’étendent à plusieurs centaines ou milliers de GPU, de nouveaux défis apparaissent. La mémoire étant physiquement fixée au serveur et non partageable entre plusieurs machines, certains centres de données à grande échelle ont un taux d’inactivité de 20 à 30 %. CXL permet de résoudre ce problème en regroupant plusieurs modules de mémoire en pools indépendants, pouvant être mappés dynamiquement aux nœuds de calcul nécessaires.

Micron a annoncé un module d’extension mémoire CXL Type 3 basé sur le processus DDR5. Bien qu’il soit différent de la HBM, l’utilisation conjointe permet de garder les données « chaudes » (accédées fréquemment) en HBM locale, tout en déchargeant les données « froides » vers le pool de mémoire CXL. Cela permet d’atteindre des fenêtres de contexte extrêmement longues, comme celles de 1 million de tokens.

Le marché CXL est encore à ses débuts, et la fidélisation des clients n’est pas encore établie. En tant que fabricant spécialisé en stockage, Micron a une opportunité unique d’entrer sur ce marché sans les liens du passé.

Les banques d’investissement de Wall Street ciblent un prix cible dans 12 mois compris entre 400 et 675 dollars, avec une moyenne autour de 500 dollars. Par rapport au prix actuel, cela laisse envisager un potentiel de hausse supplémentaire. Cependant, si l’investissement dans l’infrastructure IA ralentit ou si Samsung réintègre la chaîne d’approvisionnement Nvidia avec la phase HBM4, l’offre et la demande seront réévaluées.

La compétitivité à long terme de Micron dépendra moins d’une seule technologie que de sa capacité à réduire les défauts, à améliorer le packaging, à intégrer les systèmes, etc. La « pile » ne désigne pas une seule technologie, mais une capacité globale à gérer simultanément toutes les contraintes physiques. Accumuler cette capacité nécessite des décennies d’expérience en fabrication.

Les mouvements du cours de Micron ne reflètent pas seulement la performance de l’entreprise, mais aussi l’évolution de l’infrastructure dans l’ère de l’IA. Récemment, on voit de plus en plus d’informations sur Micron dans les médias financiers, et comprendre le contexte technologique permettrait d’affiner les décisions d’investissement.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler