Configurar o LM Studio no Linux (Ubuntu/Debian)

laptop_mac macOS Sonoma Intermediate schedule 8 min read
Author by Alex Rivera • May 14, 2024

Não quer lidar com o terminal? O LM Studio fornece um AppImage nativo para Linux que oferece uma bela interface gráfica para baixar modelos, ajustar camadas de GPU e conversar com LLMs.

Step 1 Introdução

O LM Studio envolve o motor llama.cpp subjacente em uma interface de usuário elegante baseada em Electron. Ele torna incrivelmente simples encontrar, baixar e configurar modelos GGUF no Linux.

Step 2 Pré-requisitos

O LM Studio para Linux é distribuído como um AppImage. Para que ele funcione corretamente, você deve ter a biblioteca FUSE (Filesystem in Userspace) instalada.

No Ubuntu 22.04 e versões posteriores, execute:

Terminal
sudo apt update
sudo apt install libfuse2

Certifique-se de que seus drivers NVIDIA também estejam instalados e funcionando (nvidia-smi).

Step 3 Instalação

  1. Abra seu navegador e acesse lmstudio.ai.
  2. Clique em Download for Linux para obter o arquivo .AppImage.
  3. Abra seu terminal e navegue até a pasta de Downloads:
Terminal
cd ~/Downloads
  1. Torne o AppImage executável:
Terminal
chmod +x LM_Studio-*.AppImage
  1. Execute o aplicativo:
Terminal
./LM_Studio-*.AppImage

(Dica: Você pode usar uma ferramenta como o AppImageLauncher para integrá-lo automaticamente ao menu de aplicativos da sua área de trabalho).

Step 4 Habilitando a Aceleração por GPU

Para obter velocidade máxima, certifique-se de que o LM Studio detecte sua GPU NVIDIA.

  1. Abra o LM Studio.
  2. Vá para a aba Settings (ícone de engrenagem na barra lateral esquerda).
  3. Role para baixo até Hardware Settings.
  4. Marque a caixa para GPU Offload e maximize o controle deslizante para 99 camadas.

Step 5 Baixando Modelos

  1. Clique no ícone de Lupa (Busca) na barra lateral esquerda.
  2. Pesquise por modelos como Mistral 7B ou Llama 3 8B.
  3. O LM Studio exibirá múltiplas opções de quantização. Escolha Q4_K_M ou Q5_K_M para o melhor equilíbrio entre velocidade e inteligência.
  4. Clique em Download.

Step 6 Servidor de API Local

O LM Studio pode hospedar uma API local que imita perfeitamente o formato de API da OpenAI.

  1. Clique no ícone Local Server (<->) na barra lateral esquerda.
  2. Selecione seu modelo baixado no menu suspenso.
  3. Clique em Start Server.

Sua máquina Linux agora está hospedando uma API em http://localhost:1234/v1. Você pode apontar extensões do VS Code (como o Continue.dev) ou scripts Python personalizados diretamente para este endpoint.