Outils pour utilisateurs

Outils du site


work_in_progress:installer-mistral-ai

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

work_in_progress:installer-mistral-ai [2025/12/10 20:47] – créée yoannwork_in_progress:installer-mistral-ai [2025/12/13 12:45] (Version actuelle) yoann
Ligne 2: Ligne 2:
  
  
-====== Mistral AI : installer localement un agent IA ======+====== Mistral.ai : installer localement un agent IA ======
  
 :TODO: :TODO:
 +
 +Historiquement, le modèle Opensource le plus puissant était celui distribué par la société Meta, la maison mère de Facebook. Ce LLM est connu sous le nom de **LLama** et de **CodeLLama** pour le modèle entraîné pour produire du code.
 +
 +De nouveaux LLM français très puissants ont vu le jour, il s'agit des LLM Mistral / Mixtral de la société Mistral.ai.
 +
 +Mistral.AI met à disposition du public ses modèles entraînés et affinés sous la licence Apache 2.0. Ainsi Mistral.AI souhaite faciliter le développement de nouvelles techniques et applications qui peuvent bénéficier à un large éventail d'industries et de domaines.
 +
 +===== A propos du modèle M8x7B =====
 +
 +Le modèle de Mistral.AI M8x7B((**M**istral**8x7B**illion)) se compose de 8 agents experts de "seulement" 7 milliards de paramètres. Cette architecture désignée "architecture éparpillée ou réseau clairsemé d'experts" permet d'obtenir des résultats proches de Chat GPT3.5 s'appuyant pourtant sur plusieurs centaines de milliards de paramètres.
 +
 +Concernant le processus de génération de la réponse, pour chaque mot (token), les deux experts les plus appropriés sont sélectionnés parmi les 8. L'opération est répétée jusqu’à la génération complète de la réponse.
 +
 +A l'exécution, on obtient un modèle aussi rapide et consommateur qu'un modèle de 14 milliards de paramètres, alors qu'il a les connaissances et capacités d'un modèle de 56 milliards (Mixtral 8x7B décembre 2023).
 +
 +Mixtral 8x7B est le premier réseau de mélange d'experts à atteindre une performance de pointe parmi les modèles open-source. Mixtral 8x7B Instruct surpasse Claude-2.1, Gemini Pro, et GPT-3.5 Turbo sur des benchmarks d'évaluation humaine. Parce qu'il n'utilise que deux experts à chaque pas de temps, Mixtral n'utilise que 13 milliards de paramètres actifs par jeton tout en surpassant le meilleur modèle précédent utilisant 70 milliards de paramètres par jeton (Llama 2 70B).
 +
 +
 +===== A propos du modèle Small 3.2 =====
 +
 +Lors de l'écriture de cette note, le modèle Mixtral 8x7B est classé modèle historique sur [[https://docs.mistral.ai/]]. Il est remplacé depuis le 30/03/2025 par Mistral Small 3.2
 +
 +===== Prérequis =====
 +
 +<note>
 +Les LLM fonctionnent à base de vecteurs, de la même manière qu'un univers 3D au sein d'un jeu vidéo : c'est la raison pour laquelle les GPU des cartes graphiques sont particulièrement efficaces pour les exécuter.
 +</note>
 +
 +A confirmer :
 +  * 16 Go RAM
 +  * Carte vidéo NVIDIA dédié ;
  
  
 ===== Références ===== ===== Références =====
  
 +  * https://docs.mistral.ai/models/mixtral-8x7b-0-1
   * https://www.techout.fr/installer-mistral-ai-sur-son-ordinateur-guide-complet/   * https://www.techout.fr/installer-mistral-ai-sur-son-ordinateur-guide-complet/
   * https://onedollarvps.com/fr/blogs/how-to-run-devstral-small-2505-locally.html   * https://onedollarvps.com/fr/blogs/how-to-run-devstral-small-2505-locally.html
   * https://www.datacamp.com/fr/tutorial/devstral-quickstart-guide   * https://www.datacamp.com/fr/tutorial/devstral-quickstart-guide
 +  * https://ffreea.substack.com/p/comment-installer-mistral-ai-en-10
 +  * https://www.geeek.org/mistral-ollama/
 +  * https://intelligence-artificielle.developpez.com/actu/352780/Le-modele-de-langage-open-source-Mixtral-8x7B-de-la-startup-francaise-Mistral-AI-ecrase-la-concurrence-d-apres-un-sujet-de-recherche/
work_in_progress/installer-mistral-ai.txt · Dernière modification : 2025/12/13 12:45 de yoann