Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Windows.
All Windows Tutorials
WINDOWS
6 MIN READ
Exécuter Ollama sur Windows de manière native
Ollama fonctionne désormais nativement sur Windows sans WSL. Installez, téléchargez des modèles et discutez depuis PowerShell en moins de 5 minutes.
Read Guide arrow_forward
WINDOWS
8 MIN READ
Configurer LM Studio sur Windows
Apprenez à installer et configurer LM Studio sur Windows avec la prise en charge des GPU NVIDIA/AMD. Exécutez des modèles GGUF localement avec une belle interface de chat.
Read Guide arrow_forward
WINDOWS
14 MIN READ
Llama.cpp sur Windows : Le guide CUDA
Compilez llama.cpp à partir des sources sur Windows en utilisant CMake et la boîte à outils NVIDIA CUDA pour une vitesse maximale de génération de tokens.
Read Guide arrow_forward