LM Studio su Mac: L'interfaccia AI offline più semplice

laptop_mac macOS Sonoma Intermediate schedule 8 min read
Author by Alex Rivera • May 14, 2024

Se odi avere a che fare con il terminale, gli ambienti Python e le dipendenze rotte, LM Studio è il tuo santuario. Racchiude llama.cpp all'interno di una splendida app Mac nativa che ti permette di scaricare e chattare con i modelli LLM in un solo clic.

Step 1 Introduzione

LM Studio è un'applicazione desktop gratuita per Mac. Offre un'interfaccia pulita, simile a ChatGPT, ma funziona al 100% in locale sul tuo hardware. Gestisce il download dei modelli, la configurazione delle impostazioni e persino l'avvio di un server API locale senza toccare una singola riga di codice.

Step 2 Perché LM Studio?

  • Browser visuale dei modelli: Cerca e scarica modelli da HuggingFace direttamente all'interno dell'app.
  • Rilevamento automatico dell'hardware: Configura automaticamente l'accelerazione GPU Apple Metal per i chip M1/M2/M3.
  • Stimatore RAM: Ti indica esattamente quanta RAM utilizzerà un modello prima di scaricarlo.

Step 3 Installazione

  1. Vai su lmstudio.ai.
  2. Clicca su Download for Mac (Apple Silicon).
  3. Apri il file .dmg e trascina LM Studio nella cartella Applicazioni.

Step 4 Abilitare la GPU Metal

Per ottenere la massima velocità, dobbiamo assicurarci che utilizzi la GPU del tuo Mac invece della CPU, più lenta.

  1. Apri LM Studio.
  2. Vai alla scheda Settings (icona a forma di ingranaggio).
  3. Scorri verso il basso fino a Hardware Settings.
  4. Assicurati che la casella Apple Metal sia abilitata.

Step 5 Scaricare i modelli

  1. Clicca sull'icona della Lente di ingrandimento (Cerca) nella barra laterale sinistra.
  2. Digita il nome di un modello come Mistral 7B Instruct o Llama 3 8B.
  3. Osserva i risultati. LM Studio evidenzia in verde i modelli che rientrano nella memoria unificata del tuo Mac.
  4. Scegli una quantizzazione Q4_K_M o Q5_K_M (il miglior compromesso tra velocità e intelligenza).
  5. Clicca su Download.

Step 6 Server API locale

LM Studio può fungere da sostituto diretto per le API di OpenAI.

  1. Clicca sull'icona Local Server (<->) nella barra laterale sinistra.
  2. Seleziona il modello scaricato dal menu a tendina in alto.
  3. Clicca su Start Server.

La tua IA locale è ora in ascolto su http://localhost:1234/v1. Puoi collegare questo URL alle estensioni di VS Code, agli script Python o a qualsiasi app che si aspetti un endpoint OpenAI!