LM Studio sur Mac : L'interface IA hors ligne la plus simple

laptop_mac macOS Sonoma Intermediate schedule 8 min read
Author by Alex Rivera • May 14, 2024

Si vous détestez jongler avec le terminal, les environnements Python et les dépendances cassées, LM Studio est votre sanctuaire. Il encapsule llama.cpp dans une superbe application Mac native qui vous permet de télécharger et de dialoguer avec des LLMs en un seul clic.

Introduction

LM Studio est une application de bureau gratuite pour Mac. Elle offre une interface épurée, semblable à ChatGPT, mais s'exécute à 100% en local sur votre matériel. Elle gère le téléchargement des modèles, la configuration des paramètres, et même le démarrage d'un serveur API local — sans toucher à une seule ligne de code.

Step 1 Pourquoi LM Studio ?

  • Navigateur de modèles visuel : Recherchez et téléchargez des modèles HuggingFace directement depuis l'application.
  • Détection automatique du matériel : Il configure automatiquement l'accélération GPU Apple Metal pour les puces M1/M2/M3.
  • Estimateur de RAM : Il vous indique précisément la quantité de RAM qu'un modèle utilisera avant que vous ne le téléchargiez.

Step 2 Installation

  1. Rendez-vous sur lmstudio.ai.
  2. Cliquez sur Download for Mac (Apple Silicon).
  3. Ouvrez le fichier .dmg et faites glisser LM Studio dans votre dossier Applications.

Step 3 Activation du GPU Metal

Pour obtenir une vitesse maximale, nous devons nous assurer qu'il utilise le GPU de votre Mac plutôt que le CPU, plus lent.

  1. Ouvrez LM Studio.
  2. Accédez à l'onglet Settings (icône d'engrenage).
  3. Faites défiler jusqu'à Hardware Settings.
  4. Assurez-vous que la case Apple Metal est bien cochée.

Step 4 Téléchargement des modèles

  1. Cliquez sur l'icône Loupe (Recherche) dans la barre latérale gauche.
  2. Saisissez le nom d'un modèle tel que Mistral 7B Instruct ou Llama 3 8B.
  3. Examinez les résultats. LM Studio met en évidence en vert les modèles compatibles avec la mémoire unifiée de votre Mac.
  4. Choisissez une quantification Q4_K_M ou Q5_K_M (le meilleur équilibre entre vitesse et intelligence).
  5. Cliquez sur Download.

Step 5 Serveur API local

LM Studio peut servir de remplacement transparent à l'API OpenAI.

  1. Cliquez sur l'icône Serveur local (<->) dans la barre latérale gauche.
  2. Sélectionnez votre modèle téléchargé dans le menu déroulant supérieur.
  3. Cliquez sur Start Server.

Votre IA locale écoute désormais sur http://localhost:1234/v1. Vous pouvez brancher cette URL dans des extensions VS Code, des scripts Python, ou toute application attendant un point de terminaison OpenAI !