WindowsにLM Studioをセットアップする

laptop_mac macOS Sonoma Intermediate schedule 8 min read
Author by Alex Rivera • May 14, 2024

ターミナル操作、Python環境、壊れた依存関係に悩まされることが嫌いなら、LM Studioはあなたの聖域です。llama.cpp を美しいネイティブWindowsアプリ内にラップし、ワンクリックでLLMのダウンロードとチャットを可能にします。

Step 1 はじめに

LM Studioは、Windows向けの無償デスクトップアプリケーションです。ChatGPTに似たクリーンなインターフェースを提供しながら、100%ローカルのハードウェア上で動作します。モデルのダウンロード、設定の構成、さらにはローカルAPIサーバーの起動まで、コードを一行も書かずに処理できます。

Step 2 なぜLM Studioなのか?

  • ビジュアルモデルブラウザ: アプリ内から直接HuggingFaceのモデルを検索・ダウンロード可能。
  • ハードウェア自動検出: CUDA(NVIDIA)またはROCm(AMD)のGPUアクセラレーションを自動的に設定。
  • RAM使用量推定機能: ダウンロードに、モデルが消費するVRAM量を正確に表示。

Step 3 インストール

  1. lmstudio.ai にアクセスする。
  2. Download for Windows をクリックする。
  3. .exe ファイルを開いてインストールする。

Step 4 GPUアクセラレーションの有効化

最大速度を得るために、低速なCPUではなくNVIDIAまたはAMDのグラフィックカードを使用するよう設定する必要があります。

  1. LM Studioを開く。
  2. Settings タブ(歯車アイコン)に移動する。
  3. Hardware Settings までスクロールダウンする。
  4. GPU Offload のチェックボックスを有効にし、スライダーを 99 レイヤーまで最大化する。

Step 5 モデルのダウンロード

  1. 左サイドバーの虫眼鏡(検索)アイコンをクリックする。
  2. Mistral 7B InstructLlama 3 8B などのモデル名を入力する。
  3. 検索結果を確認する。LM Studioは、PCのメモリに収まるモデルを緑色でハイライト表示する。
  4. Q4_K_M または Q5_K_M の量子化を選択する(速度と精度の最適なバランス)。
  5. Download をクリックする。

Step 6 ローカルAPIサーバー

LM StudioはOpenAI APIのドロップイン代替として機能します。

  1. 左サイドバーのLocal Serverアイコン(<->)をクリックする。
  2. 上部のドロップダウンからダウンロード済みのモデルを選択する。
  3. Start Server をクリックする。

これでローカルAIが http://localhost:1234/v1 上でリクエストを待ち受けます。このURLをVS Code拡張機能、Pythonスクリプト、またはOpenAIエンドポイントに対応した任意のアプリに接続できます!