06 51 09 86 07 franck.canonne@gmail.com       CV Franck Canonne  CV          LinkedIn  LinkedIn          AssessFirst  AssessFirst   

Mistral veut désormais créer une « intelligence distribuée » avec ses nouveaux modèles Mistral 3.

Un nouveau modèle d’IA open-source rejoint la course à l’IA. Mais le français Mistral AI a choisi de faire petit avec les SLM là où la plupart des autres continuent de ne jurer que par le grand avec les LLM.

Mistral 3, une famille de quatre modèles open-source publiée par la société mardi, offre « une flexibilité et un contrôle sans précédent pour les entreprises et les développeurs », selon la société. La suite comprend un grand modèle, deux modèles de taille moyenne et une édition plus petite, visant à répondre à une plus grande variété de besoins.

« Cette gamme de modèles étend les capacités d’IA appliquée de nos clients à la robotique, aux drones autonomes et aux petites applications sur appareil sans accès au réseau, ainsi qu’aux plus grands flux de travail agentiques d’entreprise au monde », écrit Mistral.

Multilingue et multimodal

Mistral est fier de sa dernière famille de produits qui se distingue par deux facteurs : la formation multilingue et les capacités multimodales.

Les modèles d’IA des entreprises américaines se concentrent principalement sur les données d’entraînement en anglais. Et cela peut limiter leurs applications pour les développeurs non anglophones. Mistral a historiquement créé des modèles entraînés dans d’autres langues. L’entreprise a déclaré que Mistral 3 était particulièrement adapté aux langues européennes.

La nouvelle série de modèles se distingue aussi des modèles open-source tels que Kimi K2 et ceux de DeepSeek, par leur caractère multimodal. Kimi K2 rivalise avec le modèle GPT-5 d’OpenAI. Mais il se limite au texte, ce qui réduit ses possibilités d’utilisation.

« Habituellement, vous avez le meilleur modèle en vision, le meilleur modèle pour le texte. Ici, nous avons tout regroupé dans le même modèle », a déclaré Guillaume Lample, cofondateur et directeur scientifique de Mistral, lors d’une interview accordée à ZDNET.

Mistral Large 3

Mistral Large 3, le plus grand de la famille avec 675 milliards de paramètres, est un modèle Mixture of Experts (MoE). Cela signifie qu’il est divisé en sous-réseaux, ou « experts », qui traitent conjointement une requête de manière plus efficace que les modèles ordinaires.

Des experts spécifiques s’activent en fonction du contenu de la requête, ce qui permet au modèle de traiter des tâches plus importantes sans nécessiter des calculs astronomiques.

Avec une fenêtre contextuelle de 256k, Mistral Large 3 peut traiter des requêtes complexes. Cela va de l’analyse et du codage de documents au contenu créatif et à des cas d’utilisation plus agentiques tels que l’automatisation des flux de travail et le travail d’assistant.

Ministral 3

Le sous-ensemble le plus petit de la famille Mistral 3 comprend plusieurs tailles : 14B, 8B et 3B. Et il se divise en trois variantes : Base (pré-entraîné), Instruct (optimisé pour prendre des directions dans le chat), et Reasoning.

« La prochaine vague d’IA ne sera pas définie par l’échelle pure, mais par l’ubiquité – par des modèles suffisamment petits pour fonctionner sur un drone, dans une voiture, dans des robots, sur un téléphone ou un ordinateur portable », a déclaré Mistral dans le communiqué. Cela souligne que les petits modèles sont souvent préférables pour les cas d’utilisation de la vie réelle. En réduisant les coûts et la latence, ils peuvent être plus accessibles que des modèles plus lourds, plus lents et plus coûteux qui nécessitent une infrastructure plus importante pour fonctionner.

Mistral ajoute que les petits modèles comme Ministral 3 sont également plus faciles à personnaliser, ce qui les rend idéaux pour s’adapter aux flux de travail de l’entreprise. La société souligne que la personnalisation est le principal attrait de cette version pour les développeurs de tous types de projets.

« En équilibrant l’efficacité et la performance, Ministral 3 permet même aux environnements à ressources limitées de tirer parti de l’IA sans sacrifier la capacité ou l’évolutivité », dit Mistral.

IA pour le Edge computing et l’accessibilité

Disponible sous une licence Apache 2.0, l’ensemble de la famille Mistral 3 est open source.

Cependant, Mistral présente Ministral 3 comme étant accessible au-delà de cette licence en raison de sa portabilité.

« Ministral 3 peut être déployé sur un seul GPU, allant de 16 Go de VRAM à seulement 4 Go de VRAM avec une quantification de 4 bits », écrit la société. « Cela élimine le besoin de matériel haut de gamme, rendant l’IA accessible aux startups, aux laboratoires de recherche et aux entreprises de toutes tailles. »

Robots d’usine, drones et voitures connectées

Mistral cite plusieurs cas d’utilisation pour lesquels elle a conçu les nouveaux modèles plus petits, notamment les applications « edge AI », ou les situations dans lesquelles les entreprises déploient l’IA dans des environnements dépourvus de Wifi.

Il s’agit notamment :

  • Des robots d’usine qui utilisent les données des capteurs en direct pour résoudre les problèmes sans dépendre du cloud
  • Des drones utilisés dans les catastrophes naturelles, la recherche et le sauvetage ou d’autres situations d’urgence qui s’appuient sur la vision et les données thermiques sur l’appareil
  • Des voitures connectées équipées d’assistants d’IA qui peuvent fonctionner hors connectivité.

Selon M. Lample, cette capacité hors ligne est particulièrement importante pour mettre les modèles d’IA entre les mains de personnes qui n’y auraient pas accès autrement.

Vers l’IA en mode local sur ordinateur ou smartphone

« Des milliards de personnes n’ont pas accès à l’internet aujourd’hui, mais elles disposent néanmoins d’un ordinateur portable ou d’un smartphone », a-t-il déclaré à ZDNET. « Ils ont certainement du matériel sur lequel ils peuvent faire fonctionner ces petits modèles. C’est donc quelque chose qui pourrait changer la donne.

Étant donné que les applications d’Edge IA se trouvent sur l’appareil, elles préservent également la confidentialité des données, fait aussi remarquer Mistral.

L’ouverture d’un large éventail de modèles contribue à démocratiser les percées scientifiques et à faire entrer l’industrie dans une nouvelle ère de l’IA, que nous appelons « intelligence distribuée » », a ajouté l’entreprise dans son communiqué.

Source : ZDNet.com

error: Non, désolé...
Share This