Home chevron_right Linux Guides chevron_right LinuxにLM Studioをセットアップする(Ubuntu/Debian) LinuxにLM Studioをセットアップする(Ubuntu/Debian) laptop_mac macOS Sonoma Intermediate schedule 8 min read by Alex Rivera • May 14, 2024 ターミナルの操作が煩わしいと感じますか?LM Studio はネイティブの Linux 用 AppImage を提供しており、モデルのダウンロード、GPU レイヤーの調整、LLM とのチャットを美しい GUI で行うことができます。 Step 1 はじめに LM Studio は、基盤となる llama.cpp エンジンを洗練された Electron ベースのユーザーインターフェースでラップしています。Linux 上で GGUF モデルを検索、ダウンロード、設定する作業を驚くほどシンプルにしてくれます。 Step 2 前提条件 Linux 向けの LM Studio は AppImage 形式で配布されています。正常に動作させるには、FUSE(Filesystem in Userspace)ライブラリがインストールされている必要があります。 Ubuntu 22.04 以降の場合は、以下を実行してください: Terminalcontent_copyCopysudo apt update sudo apt install libfuse2 また、NVIDIA ドライバーがインストールされ、正常に動作していることも確認してください(nvidia-smi)。 Step 3 インストール ブラウザを開き、lmstudio.ai にアクセスします。 Download for Linux をクリックして .AppImage ファイルを取得します。 ターミナルを開き、ダウンロードフォルダに移動します: Terminalcontent_copyCopycd ~/Downloads AppImage に実行権限を付与します: Terminalcontent_copyCopychmod +x LM_Studio-*.AppImage アプリケーションを起動します: Terminalcontent_copyCopy./LM_Studio-*.AppImage (ヒント:AppImageLauncher のようなツールを使用すると、デスクトップのアプリケーションメニューへの統合を自動化できます)。 Step 4 GPU アクセラレーションの有効化 最大速度を引き出すために、LM Studio が NVIDIA GPU を正しく認識していることを確認します。 LM Studio を開きます。 左サイドバーのギアアイコンから Settings タブに移動します。 Hardware Settings までスクロールします。 GPU Offload のチェックボックスを有効にし、スライダーを最大値の 99 レイヤーに設定します。 Step 5 モデルのダウンロード 左サイドバーの虫眼鏡(検索)アイコンをクリックします。 Mistral 7B や Llama 3 8B などのモデルを検索します。 LM Studio は複数の量子化オプションを表示します。速度と精度のバランスが最も優れた Q4_K_M または Q5_K_M を選択してください。 Download をクリックします。 Step 6 ローカル API サーバー LM Studio は、OpenAI の API フォーマットを完全に模倣したローカル API をホストすることができます。 左サイドバーのローカルサーバーアイコン(<->)をクリックします。 ドロップダウンからダウンロード済みのモデルを選択します。 Start Server をクリックします。 これにより、Linux マシンが http://localhost:1234/v1 で API をホストするようになります。VS Code の拡張機能(Continue.dev など)やカスタム Python スクリプトをこのエンドポイントに直接向けることができます。 Continue Reading Performance Mistral 7B vs Llama 3 on Apple Silicon Tools Best GUI clients for Local LLMs Advanced Quantization 101: Speed up your Inference