Prévisions chocs
Prévisions "chocs" 2026
Saxo Group
Investment Strategist
Cerebras teste la demande en infrastructures d’intelligence artificielle au-delà des GPU dominants de Nvidia.
Le positionnement de l’entreprise repose sur la vitesse : des réponses d’IA plus rapides, pas seulement des modèles plus grands à entraîner.
Les principaux risques concernent la valorisation, la concentration de clients et la capacité à transformer une forte demande en profits durables.
L’intelligence artificielle a passé ces dernières années à engloutir du capital, de l’électricité et l’attention des investisseurs. La question suivante est désormais plus simple : peut-elle répondre plus vite, à moindre coût et à grande échelle ?
C’est la promesse de Cerebras Systems, l’entreprise de puces dédiées à l’IA qui prépare l’une des introductions en Bourse (IPO) les plus suivies de l’année. Selon Bloomberg, citant des sources de Reuters, la demande des investisseurs serait suffisamment forte pour que Cerebras envisage à la fois une fourchette de prix plus élevée et une offre d’actions plus importante.
En clair, le marché serait prêt à payer plus cher avant même le début de la cotation. La fourchette de prix pourrait passer de 115–125 USD à 150–160 USD par action, tandis que l’offre pourrait atteindre 30 millions d’actions. Au haut de la fourchette, Cerebras pourrait lever environ 4,8 milliards USD. L’IPO devient ainsi un véritable test de l’appétit du marché pour l’infrastructure IA.
Ce n’est pas une entrée discrète. C’est plutôt comme entrer dans une bibliothèque avec une fanfare.
Pour les investisseurs à long terme, cette IPO ne concerne pas seulement une entreprise. Elle mesure aussi jusqu’où le marché est prêt à valoriser la prochaine couche de l’infrastructure IA, dans un écosystème qui s’élargit des puces aux centres de données, en passant par l’énergie et le refroidissement.
Cerebras conçoit des puces et systèmes pour les charges de travail liées à l’IA. Son approche diffère des GPU traditionnels popularisés par Nvidia. L’entreprise utilise des puces à l’échelle d’une tranche de silicium entière (wafer-scale), conçues pour rapprocher calcul, mémoire et transfert de données.
L’idée est simple : moins d’attente, plus de réponses.
Cela est crucial car l’IA évolue de l’entraînement vers l’inférence. L’entraînement correspond à l’apprentissage d’un modèle sur d’immenses volumes de données. L’inférence, c’est lorsque ce modèle répond réellement à un utilisateur. Chaque réponse de chatbot, suggestion de code ou agent IA repose sur ce processus — c’est la partie “utilisable” de l’IA, celle qui génère des coûts à chaque requête.
Cerebras affirme que son Wafer-Scale Engine 3 peut offrir jusqu’à 15 fois plus de rapidité en inférence que certains systèmes basés sur GPU. Ces chiffres doivent être pris avec prudence, mais la tendance est claire : la vitesse devient un argument clé.
Cela ne signifie pas que Cerebras remplace Nvidia. Nvidia conserve un écosystème dominant et une échelle difficile à égaler. Mais cela montre que le marché cherche des outils spécialisés selon les usages. L’IA ne sera peut-être pas un monopole de puce unique.
La demande rapportée pour l’IPO est déjà très élevée avant même la cotation. Reuters indique que les ordres dépasseraient 20 fois le nombre d’actions disponibles. Si cela se confirme, il s’agirait de la plus grande IPO de 2026.
Deux enseignements principaux :
Premièrement, les investisseurs restent très attirés par l’infrastructure IA. Même si Nvidia et les géants du cloud sont déjà accessibles, les IPO de pure players restent rares.
Deuxièmement, les exigences de valorisation sont élevées. Cerebras a généré 510 millions USD de revenus en 2025, en forte croissance, mais reste déficitaire. La croissance peut justifier une valorisation élevée, mais uniquement si elle se transforme en flux de trésorerie durable.
OpenAI et Amazon jouent ici un rôle important. OpenAI s’est engagé à utiliser jusqu’à 750 MW de capacité Cerebras d’ici 2028. AWS prévoit également d’intégrer les puces Cerebras à son cloud. Ce sont des clients majeurs.
Le risque principal reste toutefois la concentration de clients, notamment avec certains contrats liés au Moyen-Orient. De nouveaux accords pourraient réduire ce risque, mais cela doit être prouvé dans la durée.
L’histoire de Cerebras reflète une tendance plus large : il n’y aura probablement pas un seul gagnant dans l’IA.
L’IA repose sur les puces, la mémoire, les réseaux, les centres de données, l’énergie et le refroidissement. Cela crée des opportunités dans toute la chaîne de valeur, mais aussi des risques de surévaluation.
Le point clé pour les investisseurs n’est pas de chercher “le prochain Nvidia”, mais de comprendre où se situe chaque entreprise dans cette chaîne. Nvidia reste central. Cerebras vise un segment spécialisé où la latence et la vitesse sont critiques. D’autres acteurs optimisent le cloud ou les modèles.
Cerebras agit donc comme un signal : la demande en infrastructure IA reste forte, mais le marché devient plus segmenté.
Valorisation : une IPO très attendue peut intégrer des années de croissance future. Toute déception peut entraîner de fortes corrections.
Exécution : livrer des systèmes complexes, monter en capacité et convertir les contrats en revenus réels reste un défi.
Concentration et géopolitique : dépendre de quelques clients est risqué, et les tensions autour des semi-conducteurs restent un facteur clé.
Cerebras arrive à un moment clé : l’IA passe de “qui entraîne le plus gros modèle ?” à “qui rend l’IA rapide, fiable et rentable au quotidien ?”
L’IPO sera visible et probablement spectaculaire, mais la vraie question reste la qualité des revenus, la diversification des clients et la rentabilité à long terme. Le marché envoie un signal clair : la course continue, mais avec plus de pistes pour les concurrents.
Ce contenu est fourni à titre marketing et ne constitue pas un conseil en investissement. Les performances passées ne garantissent pas les résultats futurs.
Les instruments mentionnés peuvent être émis par un partenaire rémunérant l’émetteur pour la promotion. Tous les contenus sont produits dans un objectif d’information.