Mango : la réponse de Meta à Nano Banana

Après Avocado, Meta travaille sur un autre modèle de nouvelle génération, cette fois « multimodal » capable de traiter les images et des vidéos, dénommé Mongo. Avec une sortie qui est planifiée dans la première moitié de 2026, en parallèle du grand modèle de langage appelé Avocado. L’information provient d’un article du Wall Street Journal relayé par divers médias qui indiquent que Mango est conçu pour améliorer la génération d’images et surtout de vidéos à partir de descriptions, dans le cadre d’une stratégie visant à rattraper OpenAI, Google et d’autres concurrents. La feuille de route interne a été évoquée lors d’une session Q&A interne où Alexandr Wang (directeur de l’IA) et Chris Cox (directeur produit) ont discuté de ces projets. Avocado mettrait l’accent sur les capacités de codage tandis que Mango se concentre sur la qualité, la cohérence temporelle et le réalisme des contenus visuels.