laptop_mac macOS Sonoma
Intermediate
schedule 8 min read
by Alex Rivera • May 14, 2024
Si vous détestez jongler avec le terminal, les environnements Python et les dépendances cassées, LM Studio est votre sanctuaire. Il encapsule llama.cpp dans une superbe application Mac native qui vous permet de télécharger et de dialoguer avec des LLMs en un seul clic.
Introduction
LM Studio est une application de bureau gratuite pour Mac. Elle offre une interface épurée, semblable à ChatGPT, mais s'exécute à 100% en local sur votre matériel. Elle gère le téléchargement des modèles, la configuration des paramètres, et même le démarrage d'un serveur API local — sans toucher à une seule ligne de code.
Step 1 Pourquoi LM Studio ?
- Navigateur de modèles visuel : Recherchez et téléchargez des modèles HuggingFace directement depuis l'application.
- Détection automatique du matériel : Il configure automatiquement l'accélération GPU Apple Metal pour les puces M1/M2/M3.
- Estimateur de RAM : Il vous indique précisément la quantité de RAM qu'un modèle utilisera avant que vous ne le téléchargiez.
Step 2 Installation
- Rendez-vous sur lmstudio.ai.
- Cliquez sur Download for Mac (Apple Silicon).
- Ouvrez le fichier
.dmg et faites glisser LM Studio dans votre dossier Applications.
Pour obtenir une vitesse maximale, nous devons nous assurer qu'il utilise le GPU de votre Mac plutôt que le CPU, plus lent.
- Ouvrez LM Studio.
- Accédez à l'onglet Settings (icône d'engrenage).
- Faites défiler jusqu'à Hardware Settings.
- Assurez-vous que la case Apple Metal est bien cochée.
Step 4 Téléchargement des modèles
- Cliquez sur l'icône Loupe (Recherche) dans la barre latérale gauche.
- Saisissez le nom d'un modèle tel que
Mistral 7B Instruct ou Llama 3 8B.
- Examinez les résultats. LM Studio met en évidence en vert les modèles compatibles avec la mémoire unifiée de votre Mac.
- Choisissez une quantification
Q4_K_M ou Q5_K_M (le meilleur équilibre entre vitesse et intelligence).
- Cliquez sur Download.
Step 5 Serveur API local
LM Studio peut servir de remplacement transparent à l'API OpenAI.
- Cliquez sur l'icône Serveur local (
<->) dans la barre latérale gauche.
- Sélectionnez votre modèle téléchargé dans le menu déroulant supérieur.
- Cliquez sur Start Server.
Votre IA locale écoute désormais sur http://localhost:1234/v1. Vous pouvez brancher cette URL dans des extensions VS Code, des scripts Python, ou toute application attendant un point de terminaison OpenAI !