Home chevron_right Linux
LINUX GUIDES

Local AI for
Linux.

Linux gives you maximum control and performance for local AI. Pick your preferred inference engine and get up and running fast.

All Linux Tutorials

LINUX 7 MIN READ

Exécuter Ollama sur Linux : Le Guide Définitif

Déployez Ollama en tant que service systemd en arrière-plan sur Ubuntu/Debian. Configuration complète pour NVIDIA CUDA et AMD ROCm.

Read Guide arrow_forward
LINUX 6 MIN READ

Configurer LM Studio sur Linux (Ubuntu/Debian)

Installez l'AppImage de LM Studio sur Linux pour obtenir une belle interface graphique pour vos modèles d'IA locaux.

Read Guide arrow_forward
LINUX 15 MIN READ

Llama 3 local sur Linux

Déployez le modèle Llama 3 de Meta localement sur Linux en utilisant llama.cpp avec une prise en charge complète de CUDA. Ce guide couvre la compilation, la quantification et l'exécution du modèle depuis la ligne de commande.

Read Guide arrow_forward
LINUX 12 MIN READ

Service à haut débit avec vLLM sur Ubuntu

Pour des performances de niveau entreprise, déployez vLLM sur Linux afin de servir des modèles avec PagedAttention et un débit de jetons maximal.

Read Guide arrow_forward