Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Linux.
All Linux Tutorials
LINUX
7 MIN READ
Exécuter Ollama sur Linux : Le Guide Définitif
Déployez Ollama en tant que service systemd en arrière-plan sur Ubuntu/Debian. Configuration complète pour NVIDIA CUDA et AMD ROCm.
Read Guide arrow_forward
LINUX
6 MIN READ
Configurer LM Studio sur Linux (Ubuntu/Debian)
Installez l'AppImage de LM Studio sur Linux pour obtenir une belle interface graphique pour vos modèles d'IA locaux.
Read Guide arrow_forward
LINUX
15 MIN READ
Llama 3 local sur Linux
Déployez le modèle Llama 3 de Meta localement sur Linux en utilisant llama.cpp avec une prise en charge complète de CUDA. Ce guide couvre la compilation, la quantification et l'exécution du modèle depuis la ligne de commande.
Read Guide arrow_forward
LINUX
12 MIN READ
Service à haut débit avec vLLM sur Ubuntu
Pour des performances de niveau entreprise, déployez vLLM sur Linux afin de servir des modèles avec PagedAttention et un débit de jetons maximal.
Read Guide arrow_forward