147 GUIDES AND GROWING

Run AI Locally.
Free. Private. Yours.

Step-by-step guides for Mac, Windows & Linux — no cloud, no API bills, and total control over your intelligence.

Start Here

Where do you want to run AI?

Pick your setup below — we'll take you straight to the right guide.

MAC 9 MIN READ FEATURED

Le Guide de Survie du Mac 8 Go pour l'IA Locale

Peut-on faire tourner de l'IA sur un M1 ou M2 avec 8 Go de RAM ? Oui. Voici les meilleurs modèles et paramètres pour éviter la saturation de la mémoire virtuelle.

Author avatar

Arjun Mehta

Core Contributor

Read Guide arrow_forward

$ curl -fsSL https://ollama.com/install.sh | sh

# Downloading Ollama...

# Setting up environment variables...

$ ollama run llama3.1

> Pulling manifest...

> Success

memory

All Setup Guides

MAC 9 MIN READ

Le Guide de Survie du Mac 8 Go pour l'IA Locale

Peut-on faire tourner de l'IA sur un M1 ou M2 avec 8 Go de RAM ? Oui. Voici les meilleurs modèles et paramètres pour éviter la saturation de la mémoire virtuelle.

Read Guide arrow_forward
MAC 11 MIN READ

Remplacer GitHub Copilot : Ollama + Continue.dev

Arrêtez de payer 10 $/mois. Configurez Ollama et l'extension Continue.dev dans VS Code sur votre Mac pour une autocomplétion IA entièrement gratuite et privée.

Read Guide arrow_forward
MAC 8 MIN READ

LM Studio sur Mac : L'interface IA hors ligne la plus simple

Installez LM Studio sur macOS pour obtenir une interface graphique élégante permettant de télécharger et d'exécuter des modèles GGUF avec accélération Metal.

Read Guide arrow_forward
WINDOWS 6 MIN READ

Exécuter Ollama sur Windows de manière native

Ollama fonctionne désormais nativement sur Windows sans WSL. Installez, téléchargez des modèles et discutez depuis PowerShell en moins de 5 minutes.

Read Guide arrow_forward
WINDOWS 8 MIN READ

Configurer LM Studio sur Windows

Apprenez à installer et configurer LM Studio sur Windows avec la prise en charge des GPU NVIDIA/AMD. Exécutez des modèles GGUF localement avec une belle interface de chat.

Read Guide arrow_forward
MAC 7 MIN READ

IA Mac à l'échelle du système : Connecter Ollama à Raycast

Intégrez vos LLM locaux directement dans Raycast. Sélectionnez du texte n'importe où sur votre Mac et appuyez sur un raccourci clavier pour le résumer ou le réécrire gratuitement.

Read Guide arrow_forward
MAC 14 MIN READ

Llama.cpp sur Mac : Le guide de l'utilisateur avancé

Compilez et exécutez llama.cpp from scratch sur macOS. Obtenez des performances maximales, zéro superflu et un contrôle total sur vos paramètres d'accélération Metal.

Read Guide arrow_forward
LINUX 7 MIN READ

Exécuter Ollama sur Linux : Le Guide Définitif

Déployez Ollama en tant que service systemd en arrière-plan sur Ubuntu/Debian. Configuration complète pour NVIDIA CUDA et AMD ROCm.

Read Guide arrow_forward
MAC 10 MIN READ

Le framework MLX d'Apple : Une vitesse maximale pour l'IA

Comment utiliser le framework natif MLX d'Apple pour exécuter Llama 3 et Mistral à des vitesses fulgurantes nativement sur les puces Apple Silicon.

Read Guide arrow_forward
WINDOWS 14 MIN READ

Llama.cpp sur Windows : Le guide CUDA

Compilez llama.cpp à partir des sources sur Windows en utilisant CMake et la boîte à outils NVIDIA CUDA pour une vitesse maximale de génération de tokens.

Read Guide arrow_forward
MAC 12 MIN READ

Le Guide Ultime : Exécuter Ollama sur Mac M3

La masterclass définitive pour installer, optimiser et exécuter Ollama sur Apple Silicon. Comprenez la mémoire unifiée, la quantification des modèles et comment tirer le meilleur parti de votre puce M3.

Read Guide arrow_forward
LINUX 6 MIN READ

Configurer LM Studio sur Linux (Ubuntu/Debian)

Installez l'AppImage de LM Studio sur Linux pour obtenir une belle interface graphique pour vos modèles d'IA locaux.

Read Guide arrow_forward
LINUX 15 MIN READ

Llama 3 local sur Linux

Déployez le modèle Llama 3 de Meta localement sur Linux en utilisant llama.cpp avec une prise en charge complète de CUDA. Ce guide couvre la compilation, la quantification et l'exécution du modèle depuis la ligne de commande.

Read Guide arrow_forward
LINUX 12 MIN READ

Service à haut débit avec vLLM sur Ubuntu

Pour des performances de niveau entreprise, déployez vLLM sur Linux afin de servir des modèles avec PagedAttention et un débit de jetons maximal.

Read Guide arrow_forward