Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Mac.
All Mac Tutorials
Le Guide de Survie du Mac 8 Go pour l'IA Locale
Peut-on faire tourner de l'IA sur un M1 ou M2 avec 8 Go de RAM ? Oui. Voici les meilleurs modèles et paramètres pour éviter la saturation de la mémoire virtuelle.
Read Guide arrow_forwardRemplacer GitHub Copilot : Ollama + Continue.dev
Arrêtez de payer 10 $/mois. Configurez Ollama et l'extension Continue.dev dans VS Code sur votre Mac pour une autocomplétion IA entièrement gratuite et privée.
Read Guide arrow_forwardLM Studio sur Mac : L'interface IA hors ligne la plus simple
Installez LM Studio sur macOS pour obtenir une interface graphique élégante permettant de télécharger et d'exécuter des modèles GGUF avec accélération Metal.
Read Guide arrow_forwardIA Mac à l'échelle du système : Connecter Ollama à Raycast
Intégrez vos LLM locaux directement dans Raycast. Sélectionnez du texte n'importe où sur votre Mac et appuyez sur un raccourci clavier pour le résumer ou le réécrire gratuitement.
Read Guide arrow_forwardLlama.cpp sur Mac : Le guide de l'utilisateur avancé
Compilez et exécutez llama.cpp from scratch sur macOS. Obtenez des performances maximales, zéro superflu et un contrôle total sur vos paramètres d'accélération Metal.
Read Guide arrow_forwardLe framework MLX d'Apple : Une vitesse maximale pour l'IA
Comment utiliser le framework natif MLX d'Apple pour exécuter Llama 3 et Mistral à des vitesses fulgurantes nativement sur les puces Apple Silicon.
Read Guide arrow_forwardLe Guide Ultime : Exécuter Ollama sur Mac M3
La masterclass définitive pour installer, optimiser et exécuter Ollama sur Apple Silicon. Comprenez la mémoire unifiée, la quantification des modèles et comment tirer le meilleur parti de votre puce M3.
Read Guide arrow_forward