Une pénurie de puces mémoire fait bondir les coûts de l'électronique grand public
Le développement à marche forcée de l'intelligence artificielle (IA) a créé une pénurie de puces de mémoire, faisant grimper les coûts de fabrication des produits électroniques grand public, ce qui pourrait augmenter leur prix.
Depuis trois ans, l'attention s'est surtout concentrée sur les puces dites GPU, les processeurs nécessaires pour développer et utiliser les grands modèles d'IA générative.
Mais si les GPU, ou leurs petits frères, les CPU, gèrent les demandes de calcul d'un serveur informatique ou d'une console de jeu, l'ensemble a aussi besoin de mémoire, assurée par d'autres puces, les RAM (Random Access Memory) ou DRAM.
Il s'agit de la mémoire dite vive, mobilisable instantanément et qui n'a pas vocation à être conservée de façon permanente, comme c'est le cas sur un disque dur.
"Le marché de la mémoire est à un moment charnière", ont écrit, en décembre, les analystes du cabinet IDC, "où la demande dépasse sensiblement l'offre."
L'industrie s'adapte en urgence, s'en remettant à d'autres composants ou cherchant des lignes de production disponibles, "parce que la disponibilité est primordiale" dans un contexte ultra-concurrentiel, explique Craig Luhrmann, de l'équipe commerciale de Socionext, spécialiste des circuits intégrés.
Et les prix se sont rapidement ajustés à ce déséquilibre, au sein d'un secteur dominé par les Sud-Coréens Samsung et SK Hynix, ainsi que l'Américain Micron. "Il y a deux ans, on était à un quart" des tarifs pratiqués aujourd'hui, selon lui.
Pour ce vétéran de l'industrie, l'aspiration vient d'abord des centres de données, construits à toute allure pour suivre l'explosion de la demande d'IA générative.
Mais l'intelligence artificielle bouleverse aussi l'architecture des ordinateurs personnels et des smartphones, sans compter l'émergence des objets connectés, exposés par dizaines cette semaine au salon de la technologie CES de Las Vegas, dans l'ouest des Etats-Unis, et capables de réaliser des opérations sans cesse plus complexes.
- Compromis -
Un groupe comme Nvidia, qui fabrique des GPU et CPU et ne vend quasiment qu'à des entreprises, peut se permettre d'absorber tout ou partie du surcoût des RAM, selon Craig Luhrmann, car ses marges sont très élevées (73% de marge opérationnelle).
Mais ce n'est pas le cas pour beaucoup d'acteurs de l'électronique grand public.
Certains "vont devoir faire des compromis", avertit Michal Siwinski, responsable produit chez Arteris, dédié à la rationalisation des circuits intégrés.
Pour les nouveautés IA, "peut-être que le chien" robot "va renifler et se rouler par terre, mais il ne pourra pas aboyer parce qu'il n'y aura pas assez de mémoire", illustre le responsable.
De manière générale, "cela peut vouloir dire qu'on va parfois utiliser moins de mémoire" volontairement, abonde Avi Greengart, président du cabinet Techsponential, ou "choisir pour des ordinateurs portables des puces conçues initialement pour des smartphones".
C'est un numéro d'équilibriste, car "vous ne voulez pas présenter un produit moins performant, mais vous ne voulez pas non plus vendre quelque chose qui va coûter 600 dollars de plus que l'an dernier", poursuit l'analyste.
Pour plusieurs observateurs, les équipementiers pourraient faire le choix de préserver les prix des produits de base tout en relevant ceux du haut de gamme, dont les consommateurs sont moins sensibles à ces ajustements.
Malgré ces contorsions, IDC voit le marché des smartphones se contracter jusqu'à 5% en 2026 et s'attend à ce que l'émergence des PC IA, dotés de nouvelles fonctionnalités génératives, soit plus lente que prévue du fait de cette pénurie de mémoire.
En vieil habitué, Craig Luhrmann rappelle que le marché des semi-conducteurs est hautement cyclique et anticipe un rattrapage classique des producteurs de RAM, puis une surcapacité tirant les prix vers le bas.
Mais d'autres, notamment IDC, voient un profond recalibrage à l'oeuvre, qui pourrait prendre du temps.
"La quantité de mémoire dont nous avons besoin va continuer à augmenter", prévient Curtis Jazwiecki, de la startup Shirley OS, qui gère les besoins en IA d'un système informatique.
"On agrège de plus en plus d'informations et on doit en extraire ce dont on a besoin de plus en plus vite", relève-t-il.
Pour Michal Siwinski, l'incapacité actuelle des fabricants à répondre à la demande est une aubaine et non un problème. "Les contraintes sont souvent très bonnes pour les ingénieurs", dit-il, "car cela les force à trouver de nouvelles solutions."
C.Campos--ECdLR