Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Mac.
All Mac Tutorials
Der 8-GB-Mac-Überlebensleitfaden für lokale KI
Kann man KI auf einem 8-GB-M1- oder M2-Mac ausführen? Ja. Hier sind die besten Modelle und Einstellungen, um den Tod durch Swap-Speicher zu vermeiden.
Read Guide arrow_forwardGitHub Copilot ersetzen: Ollama + Continue.dev
Hör auf, 10 $/Monat zu bezahlen. Richte Ollama und die Continue.dev-Erweiterung in VS Code auf deinem Mac ein für eine völlig kostenlose und private KI-Autovervollständigung.
Read Guide arrow_forwardLM Studio auf dem Mac: Die einfachste Offline-KI-Oberfläche
Installieren Sie LM Studio auf macOS, um eine übersichtliche grafische Benutzeroberfläche zum Herunterladen und Ausführen von GGUF-Modellen mit Metal-Beschleunigung zu erhalten.
Read Guide arrow_forwardSystemweite Mac-KI: Ollama mit Raycast verbinden
Integrieren Sie Ihre lokalen LLMs direkt in Raycast. Markieren Sie Text an beliebiger Stelle auf Ihrem Mac und drücken Sie eine Tastenkombination, um ihn kostenlos zusammenzufassen oder umzuschreiben.
Read Guide arrow_forwardLlama.cpp auf dem Mac: Der Leitfaden für Power-User
Kompilieren und führen Sie llama.cpp von Grund auf unter macOS aus. Erzielen Sie maximale Leistung, keinerlei Ballast und vollständige Kontrolle über Ihre Metal-Beschleunigungsparameter.
Read Guide arrow_forwardApples MLX-Framework: Maximale KI-Geschwindigkeit
Wie man Apples natives MLX-Framework verwendet, um Llama 3 und Mistral mit rasanter Geschwindigkeit nativ auf Apple Silicon auszuführen.
Read Guide arrow_forwardDer ultimative Leitfaden: Ollama auf dem Mac M3 ausführen
Der definitive Meisterkurs zur Installation, Optimierung und Ausführung von Ollama auf Apple Silicon. Verstehen Sie Unified Memory, Modellquantisierung und wie Sie das Beste aus Ihrem M3-Chip herausholen.
Read Guide arrow_forward