DeepSeek dévoile son étude V3, silence sur le modèle R2

DeepSeek a dévoilé son modèle R1 en janvier dernier. Une véritable tempête pour le monde de l’IA. R1 représente une avancée majeure dans la compétition mondiale des modèles de langage de grande taille (LLMs). Conçu sous la direction de Wenfeng Liang, ce modèle se distinguait par son approche innovante, qui ne repose pas sur les mêmes méthodes de calcul intensif que celles privilégiées par ses homologues américains. Bien que des attentes croissantes se soient cristallisées autour du modèle R2, Wenfeng Liang a choisi de ne pas communiquer d’informations à ce sujet, préférant concentrer ses efforts sur la publication d’une étude relative au modèle V3. Cette stratégie de communication soulève des questions sur l’avenir de DeepSeek dans le secteur hyper compétitif de l’intelligence artificielle. Alors que la concurrence avec d’autres géants technologiques, tels que Baidu et Alibaba, s’intensifie, la situation devient cruciale pour la Chine, qui cherche à affirmer sa présence sur le marché des technologies de pointe et à rivaliser avec des entreprises comme OpenAI.