Mac上のLM Studio:最も簡単なオフラインAIインターフェース

laptop_mac macOS Sonoma Intermediate schedule 8 min read
Author by Alex Rivera • May 14, 2024

ターミナル操作、Python環境、依存関係の破損に悩まされることに辟易しているなら、LM Studioはまさに理想の避難所です。llama.cppを洗練されたネイティブMacアプリとして内包し、ワンクリックでLLMのダウンロードとチャットを実現します。

Step 1 はじめに

LM Studioは、Mac向けの無料デスクトップアプリケーションです。ChatGPTに似たクリーンなインターフェースを提供しながら、100%ローカルのハードウェア上で動作します。モデルのダウンロード、設定の構成、さらにはローカルAPIサーバーの起動まで、一行のコードも記述することなく実現します。

Step 2 なぜLM Studioなのか?

  • ビジュアルモデルブラウザ: アプリ内から直接HuggingFaceのモデルを検索・ダウンロード可能。
  • ハードウェア自動検出: M1/M2/M3チップ向けのApple Metal GPUアクセラレーションを自動的に構成。
  • RAM使用量推定機能: ダウンロードに、モデルが使用するRAM容量を正確に提示。

Step 3 インストール

  1. lmstudio.ai にアクセスする。
  2. Download for Mac(Apple Silicon)をクリックする。
  3. .dmg ファイルを開き、LM StudioをApplicationsフォルダにドラッグする。

Step 4 Metal GPUの有効化

最大速度を引き出すためには、低速なCPUではなくMacのGPUを使用するよう設定する必要があります。

  1. LM Studioを起動する。
  2. Settingsタブ(歯車アイコン)に移動する。
  3. Hardware Settingsまでスクロールダウンする。
  4. Apple Metalのチェックボックスが有効になっていることを確認する。

Step 5 モデルのダウンロード

  1. 左サイドバーの虫眼鏡(検索)アイコンをクリックする。
  2. Mistral 7B InstructLlama 3 8B などのモデル名を入力する。
  3. 検索結果を確認する。LM Studioは、MacのUnified Memoryに収まるモデルを緑色でハイライト表示する。
  4. Q4_K_M または Q5_K_M の量子化方式を選択する(速度と精度の最適なバランス)。
  5. Downloadをクリックする。

Step 6 ローカルAPIサーバー

LM StudioはOpenAI APIの代替として、ドロップイン方式で機能します。

  1. 左サイドバーのローカルサーバーアイコン(<->)をクリックする。
  2. 上部のドロップダウンからダウンロード済みのモデルを選択する。
  3. Start Serverをクリックする。

ローカルAIが http://localhost:1234/v1 でリクエストを待ち受ける状態になりました。このURLをVS Codeの拡張機能、Pythonスクリプト、またはOpenAIエンドポイントを必要とする任意のアプリケーションに設定するだけで、すぐに活用できます。