MiniMax M2.5 : 20x moins cher que Claude et #1 sur OpenClaw ?

Niels
Niels Co-founder
Publié le 11 mars 2026

Chez Emelia, nous utilisons l'intelligence artificielle au quotidien pour optimiser la prospection B2B de nos clients. Chez Bridgers, nous construisons des solutions IA sur mesure pour des entreprises de toutes tailles. Quand un modele open source chinois commence a rivaliser avec les meilleurs modeles proprietaires du marche pour une fraction du prix, c'est le genre de disruption qui merite qu'on s'y attarde. MiniMax M2.5 est en train de bouleverser l'ecosysteme des agents de code IA, et voici pourquoi vous devriez vous y interesser.

Qu'est-ce que MiniMax M2.5 et pourquoi tout le monde en parle ?

MiniMax M2.5 #1 Concept

MiniMax M2.5 est un modele de langage (LLM) open source developpe par MiniMax, une entreprise chinoise basee a Shanghai. Sorti le 12 fevrier 2026, il a immediatement fait parler de lui en affichant des performances de codage au niveau des meilleurs modeles proprietaires du marche, tout en etant radicalement moins cher.

Le modele repose sur une architecture Mixture-of-Experts (MoE) avec 230 milliards de parametres au total, mais seulement 10 milliards de parametres actifs par token, soit un ratio d'activation de 4,3%. Cette architecture ultra-legere est ce qui permet a M2.5 d'atteindre des performances de niveau frontier tout en restant nettement plus rapide et economique que les modeles denses d'intelligence comparable. A titre de comparaison, GLM-5, un autre modele chinois de premier plan sorti la meme semaine, utilise 744 milliards de parametres au total avec 40 milliards actifs, ce qui fait de M2.5 le choix le plus efficient de loin.

MiniMax M2.5 a ete entraine a l'aide d'un framework de reinforcement learning proprietaire appele Forge, alimente par l'algorithme CISPO, dans plus de 200 000 environnements complexes du monde reel. L'entrainement couvre plus de 10 langages de programmation (Python, Go, C, C++, TypeScript, Rust, Kotlin, Java, JavaScript, PHP, Lua, Dart, Ruby, entre autres). Il couvre le cycle complet de developpement logiciel : de la conception systeme zero-to-one a la mise en place d'environnements, en passant par l'iteration de fonctionnalites, la revue de code et les tests complets. Le modele est disponible en deux versions : une version standard a 50 tokens/seconde et une version Lightning a 100 tokens/seconde, soit deux fois plus rapide que la plupart des modeles frontier.

Ce qui a veritablement enflamme la communaute, c'est le partenariat entre Ollama et MiniMax, annonce le jour meme du lancement. Le tweet d'Ollama a cumule plus de 435 000 impressions et 4 100 likes, offrant un acces gratuit au modele pendant plusieurs jours.

En quelques semaines, MiniMax M2.5 est devenu le modele le plus utilise sur OpenClaw, l'agent de codage IA populaire. Des developpeurs du monde entier l'adoptent pour leurs workflows quotidiens, et MiniMax a meme lance MaxClaw, une integration officielle entre OpenClaw et M2.5.

MiniMax M2.5 vs Claude Opus : les benchmarks

Les chiffres parlent d'eux-memes. Sur le benchmark SWE-Bench Verified, la reference pour evaluer les capacites de resolution de bugs sur des projets GitHub reels, MiniMax M2.5 obtient 80,2%. Claude Opus 4.6, le modele phare d'Anthropic, affiche 80,8%. L'ecart n'est que de 0,6 point.

MiniMax M2.5 Benchmark Comparison

Sur le Multi-SWE-Bench, qui evalue les capacites sur des projets multi-fichiers plus complexes, M2.5 depasse Opus avec un score de 51,3% contre 50,3%. Sur les scaffoldings alternatifs Droid et OpenCode, M2.5 devance egalement Opus 4.6 : 79,7% vs 78,9% sur Droid, et 76,1% vs 75,9% sur OpenCode.

En termes de vitesse, M2.5 a reduit son temps d'execution moyen par tache SWE-Bench de 31,3 minutes (M2.1) a 22,8 minutes, soit une amelioration de 37%. Ce temps est quasi identique aux 22,9 minutes de Claude Opus 4.6. Et le modele consomme moins de tokens par tache : 3,52 millions contre 3,72 millions pour M2.1.

Au-dela du codage, M2.5 affiche des scores solides en raisonnement : 86,3% sur AIME25, 85,2% sur GPQA-D, et 76,3% sur BrowseComp pour les taches de recherche agentique.

Voici le comparatif complet des principaux modeles :

Caracteristique

MiniMax M2.5

Claude Opus 4.6

GPT-5.2

Gemini 3.1 Pro

SWE-Bench Verified

80,2%

80,8%

80,0%

78,0%

Multi-SWE-Bench

51,3%

50,3%

49,1%

42,7%

Prix input (par M tokens)

0,15$ (std) / 0,30$ (Lightning)

5,00$

1,75$

2,00$

Prix output (par M tokens)

1,20$ (std) / 2,40$ (Lightning)

25,00$

14,00$

12,00$

Open source

Oui (MIT modifie)

Non

Non

Non

Support Ollama

Oui (natif)

Non

Non

Non

Fenetre de contexte

1M tokens (API) / 205K (local)

200K (1M en beta)

128K

1M

Vitesse

50-100 TPS

~60 TPS

~80 TPS

~70 TPS

Parametres totaux

230B (10B actifs)

Non divulgue

Non divulgue

Non divulgue

Quel prix pour MiniMax M2.5 ? 20x moins cher que Claude

C'est probablement l'argument le plus percutant de MiniMax M2.5 : le rapport qualite-prix. Selon les donnees officielles de MiniMax, le cout par tache sur SWE-Bench Verified represente seulement 10% du cout de Claude Opus 4.6. En termes de prix par million de tokens en sortie, on passe de 25$ pour Opus a 1,20$ pour M2.5 standard, soit un facteur de plus de 20x. Meme face a GPT-5.2 (14$ par million de tokens en sortie) et Gemini 3.1 Pro (12$ par million de tokens en sortie), M2.5 reste nettement moins cher.

Pour mettre cela en perspective concrete : pour un usage quotidien de 10 millions de tokens en entree et 2 millions en sortie, M2.5 coute environ 4,70$ par jour contre environ 100$ par jour pour Opus. Sur un mois de travail, cela represente une economie de pres de 2 000$. Un test en conditions reelles realise par un developpeur lors d'une session de codage de 1 a 2 heures a montre que M2.5 consommait environ 17 millions de tokens pour un cout de 1,20$, tandis que Claude Opus 4.6 consommait environ 1,47 million de tokens pour 7,58$. MiniMax utilise davantage de tokens par session car il raisonne de maniere plus verbeuse, mais la facture finale reste une fraction de la concurrence.

MiniMax le resume ainsi : il suffit d'1$ pour faire tourner le modele en continu pendant une heure a 100 tokens par seconde. A 50 tokens par seconde, le cout tombe a 0,30$.

MiniMax propose egalement un "Coding Plan" dedie, a partir de 10$ par mois pour 100 prompts par tranche de 5 heures, et un plan Coding Plus a 20$ par mois pour 300 prompts par tranche de 5 heures. Alibaba propose meme un "Coding Plan" a 3$ par mois qui donne acces a MiniMax M2.5, Kimi K2.5, GLM-5 et Qwen 3.5-Plus via une seule cle API.

Comment utiliser MiniMax M2.5 avec OpenClaw et Ollama

L'un des grands atouts de MiniMax M2.5 est sa facilite d'integration. Grace au partenariat avec Ollama, vous pouvez utiliser le modele en quelques lignes de commande, sans configuration complexe, sans serveur MCP a installer, sans cle API a gerer.

Via Ollama Cloud

Pour utiliser MiniMax M2.5 directement via le cloud Ollama :

En mode chat : ollama run minimax-m2.5:cloud

Avec OpenClaw : ollama launch openclaw --model minimax-m2.5:cloud

Avec Claude Code : ollama launch claude --model minimax-m2.5:cloud

Avec Codex : ollama launch codex --model minimax-m2.5:cloud

Avec OpenCode : ollama launch opencode --model minimax-m2.5:cloud

En local

Les poids du modele sont disponibles sur HuggingFace. MiniMax recommande SGLang ou vLLM pour des performances optimales. Cependant, avec 230 milliards de parametres au total, il faut du materiel serieux : au minimum un cluster de GPU avec 192 Go de VRAM. Des versions quantifiees en GGUF sont disponibles pour un deploiement plus accessible, mais avec une fenetre de contexte limitee a environ 196K tokens.

Via MaxClaw

MiniMax a lance MaxClaw, une integration officielle entre OpenClaw et MiniMax Agent, alimentee par M2.5. MaxClaw fonctionne 24/7 sur Telegram, WhatsApp, Slack et Discord, avec un ecosysteme de plus de 10 000 experts pre-configures. Le prix demarre a 19$ par mois.

Parametres recommandes

Pour des resultats optimaux, MiniMax recommande : temperature=1.0, top_p=0.95, top_k=40.

MiniMax : qui est cette entreprise chinoise qui defie les geants de l'IA ?

MiniMax est une entreprise fondee en 2021 a Shanghai par Yan Junjie, un ancien cadre de SenseTime age de 36 ans. Passionne de jeux video, Yan s'est interesse a OpenAI en 2019 apres que leurs bots aient battu les meilleures equipes humaines sur Dota 2. Cette fascination l'a pousse a passer de la vision par ordinateur au traitement du langage naturel.

Les debuts de MiniMax ont ete difficiles. Yan decrit les trois premieres annees comme "une pure agonie", dans un contexte ou la plupart des startups IA chinoises se contentaient de cloner ChatGPT. MiniMax, elle, a choisi de construire un modele multimodal unique capable de traiter texte, audio, image, video et musique.

Le pari a fini par payer. En janvier 2026, MiniMax a realise son introduction en bourse a Hong Kong, levant 618 millions de dollars avec des actions fixees au prix maximum de 165 HK$ chacune. L'entreprise a ete valorisee a environ 6,5 milliards de dollars, et Yan Junjie est devenu milliardaire a 36 ans avec une fortune estimee a 3,2 milliards de dollars.

Parmi les investisseurs notables : Alibaba, Tencent, l'Abu Dhabi Investment Authority, Hillhouse Investment et miHoYo (le createur de Genshin Impact, dont le cofondateur Liu Wei siege au conseil d'administration de MiniMax). En 2026, le chiffre d'affaires a plus que double pour atteindre 79 millions de dollars, meme si les pertes se sont creusees a 1,87 milliard de dollars en raison d'investissements massifs en R&D.

MiniMax compte desormais plus de 212 millions d'utilisateurs cumules. La vision de Yan est claire : rendre l'IA accessible au plus grand nombre. "Les modeles IA seront-ils concentres entre les mains de quelques-uns a un tarif prohibitif de 1 000$ par mois, ou seront-ils accessibles a tous pour 20$ ?" a-t-il declare. Avec M2.5, la reponse semble pencher nettement vers la seconde option.

MiniMax M2.5 : le meilleur modele open source pour coder en 2026 ?

C'est la question que tout le monde se pose. Et les signaux sont forts. MiniMax M2.5 se distingue par plusieurs caracteristiques uniques dans l'ecosysteme open source :

Planification architecturale. Contrairement a la plupart des modeles qui generent du code ligne par ligne, M2.5 a developpe un comportement de "spec-writing" : avant d'ecrire la moindre ligne de code, il decompose et planifie les fonctionnalites, la structure et le design UI du projet, comme le ferait un architecte logiciel experimente.

Couverture full-stack. Le modele couvre les projets full-stack sur plusieurs plateformes : Web, Android, iOS, Windows et Mac, incluant les API serveur, la logique metier, les bases de donnees, et pas seulement des demos frontend.

Productivite interne. MiniMax affirme que 80% de son nouveau code est genere par M2.5, et que 30% des taches de l'entreprise sont realisees de maniere autonome par le modele.

Adoption massive. Le developpeur Pratham (448 000 abonnes) resume le sentiment de la communaute : "MiniMax M2.5 > Claude Opus 4.6. Je l'utilise depuis plusieurs jours et je n'ai jamais atteint la limite."

Notion a egalement integre MiniMax M2.5 comme premier modele open-weight dans ses Custom Agents. Akshay Kothari, cofondateur de Notion, a souligne que pour les taches simples, le modele est "beaucoup moins cher que les autres."

Cas d'usage concrets

Pour les developpeurs independants et startups : Vous pouvez desormais faire tourner un agent de codage performant pour 10$ par mois au lieu de 200-400$ avec Claude Opus. C'est un changement fondamental pour les budgets serres.

Pour les equipes d'ingenierie : OpenClaw + MiniMax M2.5 permet d'automatiser la revue de code, la resolution de bugs et les tests a grande echelle, sans exploser les couts API.

Pour les entreprises : La generation automatisee de documents Word, presentations PowerPoint et modeles financiers Excel, avec un taux de victoire de 59% face aux modeles grand public selon les tests internes de MiniMax.

Pour la prospection et le marketing : Chez Emelia, l'integration de modeles performants et abordables comme M2.5 dans les workflows d'automatisation ouvre des possibilites nouvelles pour la personalisation a grande echelle des campagnes de prospection.

Les limites de MiniMax M2.5

Soyons honnetes : MiniMax M2.5 n'est pas parfait, et il est important de connaitre ses faiblesses avant de l'adopter.

Qualite d'output inferieure a Opus sur les taches complexes. Plusieurs utilisateurs rapportent que si M2.5 brille sur les benchmarks, la qualite du code en conditions reelles, notamment sur les projets complexes et non standard, reste en dessous de Claude Opus 4.6. Un testeur note : "MiniMax n'est pas proche d'Opus en qualite de sortie, mais Opus est extremement cher."

Pas de multimodalite. Contrairement a GPT-5.2 et Gemini 3.1 Pro, M2.5 est un modele texte uniquement (avec support d'images en entree). Il ne peut pas traiter de videos, de diagrammes complexes ou generer des images.

Erreurs logiques occasionnelles. Le code genere "en une passe" peut contenir des incoherences logiques, notamment sur les animations et interactions complexes.

Fenetre de contexte limitee en local. Si l'API MiniMax annonce 1 million de tokens, les deploiements locaux via GGUF sont limites a environ 196K tokens.

Licence MIT modifiee. L'utilisation commerciale est autorisee, mais vous devez afficher le credit "MiniMax M2.5" dans votre produit.

Raisonnement general. Sur les benchmarks de raisonnement pur (hors code), M2.5 se situe en dessous des modeles frontier comme GPT-5.2 et Gemini 3.1 Pro. Son score sur l'Artificial Analysis Intelligence Index est de 42, superieur a la moyenne mais en retrait par rapport aux leaders.

Vitesse en local. Plusieurs testeurs notent que M2.5 est plus lent que GLM-5 et Gemini 3 Deep Think pour generer des reponses, notamment en raison du temps de reflexion et de raisonnement.

A qui s'adresse MiniMax M2.5 ?

Vous devriez l'essayer si :

  • Vous utilisez des agents de codage IA (OpenClaw, Claude Code, Codex, OpenCode) et voulez reduire vos couts de 90%

  • Vous etes developpeur independant ou startup avec un budget limite

  • Vous cherchez un modele open source performant pour du codage full-stack

  • Vous voulez un modele qui fonctionne nativement avec Ollama

Vous pouvez passer votre tour si :

  • La qualite absolue du code est votre priorite numero un et le budget n'est pas un probleme

  • Vous avez besoin de multimodalite (video, images, diagrammes)

  • Vos taches impliquent principalement du raisonnement general plutot que du codage

  • Vous ne voulez pas dependre d'un modele chinois pour des raisons de conformite ou de preference

Pourquoi un modele chinois domine-t-il l'ecosysteme des agents de code ?

La montee en puissance de MiniMax M2.5 n'est pas un cas isole. Elle s'inscrit dans une tendance plus large : les laboratoires d'IA chinois produisent des modeles open source qui egalent ou depassent les alternatives proprietaires occidentales pour une fraction du prix. En fevrier 2026, en parallele de M2.5, Zhipu a lance GLM-5 (744 milliards de parametres), Moonshot a sorti Kimi K2.5, et Alibaba a cree un plan de codage unifie donnant acces a tous ces modeles pour seulement 3$ par mois.

Cela compte car les economies du developpement IA sont en train de changer. Quand l'intelligence de codage de niveau frontier coute 0,15$ par million de tokens en entree au lieu de 5$, cela transforme qui peut construire avec l'IA et ce qu'il est possible de construire. Les developpeurs independants, les startups bootstrappees et les equipes des marches emergents ont soudain acces aux memes capacites de codage qui necessitaient auparavant des budgets API de niveau entreprise.

La communaute de developpeurs l'a bien remarque. Sur PinchBench, qui evalue les LLM en tant que vrais agents de codage OpenClaw selon le taux de reussite, la vitesse et le cout, les modeles open source occupent le quadrant le plus attractif. MiniMax M2.5, DeepSeek V3.2 et Kimi K2.5 offrent tous des taux de reussite eleves a faible cout.

Pour les fournisseurs de modeles occidentaux, le message est clair : la performance seule ne suffit plus. Le rapport performance-prix est la nouvelle frontiere.

Ce qu'il faut retenir

MiniMax M2.5 represente un tournant dans l'ecosysteme IA. Pour la premiere fois, un modele open source chinois rivalise directement avec les meilleurs modeles proprietaires americains sur les taches de codage, tout en etant 10 a 20 fois moins cher. Le fait que Notion l'ait adopte, qu'Ollama ait forge un partenariat officiel, et qu'il soit devenu le modele le plus utilise sur OpenClaw en a peine un mois, montre que la disruption est bien reelle.

MiniMax ne s'arrete pas la. En trois mois et demi, d'octobre 2026 a fevrier 2026, l'entreprise a successivement lance M2, M2.1 et M2.5. Leur rythme d'amelioration sur SWE-Bench Verified a depasse celui des familles de modeles Claude, GPT et Gemini. Si cette trajectoire se maintient, M2.5 ne sera que le debut.

La question n'est plus de savoir si les modeles open source peuvent rivaliser avec les modeles proprietaires. La question est desormais : pourquoi continuez-vous a payer 20 fois plus cher ?

logo emelia

Découvrez Emelia, votre outil de prospection tout en un.

logo emelia

Des prix clairs, transparents et sans frais cachés.

Aucun engagement, des prix pour vous aider à augmenter votre prospection.

Start

37€

/mois

Envoi d'emails illimités

Connecter 1 compte LinkedIn

Actions LinkedIn illimitées

Email Warmup inclus

Scraping illimité

Contacts illimités

Grow

Populaire
arrow-right
97€

/mois

Envoi d'emails illimités

Jusqu'à 5 comptes LinkedIn

Actions LinkedIn illimitées

Warmup illimité

Contacts illimités

1 intégration CRM

Scale

297€

/mois

Envoi d'emails illimités

Jusqu'à 20 comptes LinkedIn

Actions LinkedIn illimitées

Warmup illimité

Contacts illimités

Multi CRM Connexion

Unlimited API Calls

Crédits(optionnel)

Vous n'avez pas besoin de crédits si vous voulez simplement envoyer des emails ou faire des actions sur LinkedIn

Peuvent être utilisés pour :

Trouver Emails

Action IA

Trouver des Numéros

Vérifier des Emails

1 000
5 000
10 000
50 000
100 000
1 000 Emails trouvés
1 000 IA Actions
20 Numéros
4 000 Vérifications
19par mois

Découvrez d'autres articles qui pourraient vous intéresser !

Voir tous les articles
NielsNiels Co-founder
Lire la suite
NielsNiels Co-founder
Lire la suite
MathieuMathieu Co-founder
Lire la suite
NielsNiels Co-founder
Lire la suite
MathieuMathieu Co-founder
Lire la suite
Made with ❤ for Growth Marketers by Growth Marketers
Copyright © 2026 Emelia All Rights Reserved