Ci-dessous, les différences entre deux révisions de la page.
| Prochaine révision | Révision précédente | ||
| work_in_progress:installer-mistral-ai [2025/12/10 20:47] – créée yoann | work_in_progress:installer-mistral-ai [2025/12/19 11:32] (Version actuelle) – yoann | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | {{tag>sysadmin | + | {{tag>application |
| - | ====== Mistral | + | ====== Mistral.ai : installer localement un agent IA ====== |
| :TODO: | :TODO: | ||
| + | Historiquement, | ||
| + | |||
| + | De nouveaux LLM français très puissants ont vu le jour, il s'agit des LLM Mistral / Mixtral de la société Mistral.ai. | ||
| + | |||
| + | Mistral.AI met à disposition du public ses modèles entraînés et affinés sous la licence Apache 2.0. Ainsi Mistral.AI souhaite faciliter le développement de nouvelles techniques et applications qui peuvent bénéficier à un large éventail d' | ||
| + | |||
| + | ===== A propos du modèle M8x7B ===== | ||
| + | |||
| + | Le modèle de Mistral.AI M8x7B((**M**istral**8x7B**illion)) se compose de 8 agents experts de " | ||
| + | |||
| + | Concernant le processus de génération de la réponse, pour chaque mot (token), les deux experts les plus appropriés sont sélectionnés parmi les 8 disponibles. L' | ||
| + | |||
| + | A l' | ||
| + | |||
| + | ===== A propos du modèle Small 3.2 ===== | ||
| + | |||
| + | Lors de l' | ||
| + | |||
| + | ===== Prérequis ===== | ||
| + | |||
| + | < | ||
| + | Les LLM fonctionnent à base de vecteurs, de la même manière qu'un univers 3D au sein d'un jeu vidéo : c'est la raison pour laquelle les GPU des cartes graphiques sont particulièrement efficaces pour les exécuter. | ||
| + | </ | ||
| + | |||
| + | ===== Prérequis matériel ==== | ||
| + | |||
| + | * **GPU** : NVIDIA GeForce RTX 4090 | ||
| + | * **CPU** : AMD Ryzen 7950X3D | ||
| + | * **RAM** : 64Go | ||
| + | * **Operating System**: Linux (Arch BTW) | ||
| + | * **Idle GPU Memory Usage** : 0.341/23.98 Go | ||
| + | |||
| + | |||
| + | Espace disque : ~ 5 GO disponible pour Mistral 7B via ollama | ||
| + | |||
| + | ===== Installation ===== | ||
| + | |||
| + | |||
| + | ==== Création d'une VM (optionnel) ==== | ||
| + | |||
| + | Il est possible d' | ||
| + | |||
| + | Création d'un disque de 20 Go pour la VM | ||
| + | |||
| + | <code bash> | ||
| + | mkdir -p ~/ | ||
| + | qemu-img create -f qcow2 ~/ | ||
| + | chown --recursive yoann: | ||
| + | chmod --recursive ug+rw,o-rwx ~/ | ||
| + | </ | ||
| + | |||
| + | Création de la VM via virt-install | ||
| + | |||
| + | < | ||
| + | virt-install --name=" | ||
| + | --metadata title=" | ||
| + | --vcpus=8 \ | ||
| + | --memory=16384 \ | ||
| + | --osinfo=debian13 \ | ||
| + | --features kvm_hidden=on \ | ||
| + | --machine q35 \ | ||
| + | --disk path=/ | ||
| + | --cdrom=/ | ||
| + | --graphics spice \ | ||
| + | --video virtio \ | ||
| + | --network network=default, | ||
| + | --console pty, | ||
| + | --hostdev pci_0000_01_00_0 \ | ||
| + | --hostdev pci_0000_01_00_1 \ | ||
| + | --wait -1 | ||
| + | </ | ||
| + | |||
| + | Installation des pilotes propriétaire CUDA | ||
| + | |||
| + | |||
| + | ==== Installation Mistral M8x7b via ollama ==== | ||
| + | |||
| + | |||
| + | Installer Ollama | ||
| + | |||
| + | Déployer le | ||
| ===== Références ===== | ===== Références ===== | ||
| + | * https:// | ||
| * https:// | * https:// | ||
| * https:// | * https:// | ||
| * https:// | * https:// | ||
| + | * https:// | ||
| + | * https:// | ||
| + | * https:// | ||
| + | * https:// | ||
| + | * https:// | ||