Le lancement de DeepSeek-R1 montre qu’il n’y a pas de rempart parmi les grands modèles d’IA générative

Nous pensons qu'à mesure que le prix des LLM diminue, la valeur et l'utilisation de l'infrastructure en nuage augmentent.

Dan Romanoff, CPA 28.01.2025
Facebook Twitter LinkedIn

Illustration of AI depicted by a robot in thought with red and green circuit wires extending from its head, representing the robot's cognitive process

DeepSeek, une entreprise chinoise spécialisée dans l’intelligence artificielle, a publié R1, son modèle de raisonnement open-source, au début du mois.

Les capacités du modèle correspondent à peu près à celles des modèles avancés d’OpenAI, d’Anthropic et d’Alphabet GOOGL/GOOG tout en ayant des coûts d’entraînement très nettement inférieurs.

Pourquoi c’est important : L’impressionnante dynamique performance/coût de R1 a suscité l’inquiétude des investisseurs quant à la nécessité des milliards de dollars de dépenses en capital que les grandes entreprises technologiques américaines ont effectuées (et les milliards supplémentaires qu’elles prévoient de dépenser) dans l’IA générative.

  • Le lancement de R1 et son prix considérablement réduit (plus de 90 % inférieur au dernier modèle de raisonnement d’OpenAI) vont de pair avec notre vision plus large de la “banalisation des compléments” de l’espace des grands modèles de langage.
  • Nous pensons qu'à mesure que le prix des LLM (le bien complémentaire) diminue, la valeur et l’utilisation du bien principal des vendeurs de nuages publics, l’infrastructure de nuages, augmentent. À cette fin, nous pensons qu’Amazon AMZN, Microsoft MSFT, et Google bénéficient de la réduction des prix des LLM à long terme.

Le bilan: Nous maintenons nos estimations de juste valeur pour Microsoft (490 $ par action), Amazon (200 $) et Alphabet (220 $), et nous considérons que ces entreprises sans bastille économique bénéficient d’une couche de LLM banalisée, l’augmentation des dépenses en IA créant des vents contraires pour leurs activités de cloud public.

  • Bien que nous nous attendions à ce que les dépenses d’investissement des fournisseurs de cloud public restent élevées à court terme, nous considérons qu’elles sont principalement destinées à répondre à la demande d’IA générative, qui devrait prospérer avec des prix plus bas pour les LLM, par opposition aux modèles de formation de pointe.
  • Parallèlement, nous nous attendons à ce que ces grandes entreprises technologiques américaines reproduisent certaines des techniques d’IA que DeepSeek a exploitées pour faire baisser le coût de R1 afin de réduire les coûts de l’entraînement et de l’inférence de leurs modèles, ce qui pourrait faire baisser leurs dépenses d’investissement à moyen et long terme.

© Morningstar, 2025 - L’information contenue dans ce document est à vocation pédagogique et fournie à titre d’information UNIQUEMENT. Il n’a pas vocation et ne devrait pas être considéré comme une invitation ou un encouragement à acheter ou vendre les titres cités. Tout commentaire relève de l’opinion de son auteur et ne devrait pas être considéré comme une recommandation personnalisée. L’information de ce document ne devrait pas être l’unique source conduisant à prendre une décision d’investissement. Veillez à contacter un conseiller financier ou un professionnel de la finance avant de prendre toute décision d’investissement.


L'auteur ou les auteurs ne possèdent pas de parts dans les titres mentionnés dans cet article. En savoir plus sur les politiques éditoriales de Morningstar.

Facebook Twitter LinkedIn

A propos de l'auteur

Dan Romanoff, CPA  est analyste actions chez Morningstar.