Home chevron_right Mac
MACOS GUIDES

Local AI for
Mac.

Apple Silicon makes your Mac one of the best local AI machines available. Pick your engine below and follow a step-by-step guide.

All Mac Tutorials

MAC 9 MIN READ

Der 8-GB-Mac-Überlebensleitfaden für lokale KI

Kann man KI auf einem 8-GB-M1- oder M2-Mac ausführen? Ja. Hier sind die besten Modelle und Einstellungen, um den Tod durch Swap-Speicher zu vermeiden.

Read Guide arrow_forward
MAC 11 MIN READ

GitHub Copilot ersetzen: Ollama + Continue.dev

Hör auf, 10 $/Monat zu bezahlen. Richte Ollama und die Continue.dev-Erweiterung in VS Code auf deinem Mac ein für eine völlig kostenlose und private KI-Autovervollständigung.

Read Guide arrow_forward
MAC 8 MIN READ

LM Studio auf dem Mac: Die einfachste Offline-KI-Oberfläche

Installieren Sie LM Studio auf macOS, um eine übersichtliche grafische Benutzeroberfläche zum Herunterladen und Ausführen von GGUF-Modellen mit Metal-Beschleunigung zu erhalten.

Read Guide arrow_forward
MAC 7 MIN READ

Systemweite Mac-KI: Ollama mit Raycast verbinden

Integrieren Sie Ihre lokalen LLMs direkt in Raycast. Markieren Sie Text an beliebiger Stelle auf Ihrem Mac und drücken Sie eine Tastenkombination, um ihn kostenlos zusammenzufassen oder umzuschreiben.

Read Guide arrow_forward
MAC 14 MIN READ

Llama.cpp auf dem Mac: Der Leitfaden für Power-User

Kompilieren und führen Sie llama.cpp von Grund auf unter macOS aus. Erzielen Sie maximale Leistung, keinerlei Ballast und vollständige Kontrolle über Ihre Metal-Beschleunigungsparameter.

Read Guide arrow_forward
MAC 10 MIN READ

Apples MLX-Framework: Maximale KI-Geschwindigkeit

Wie man Apples natives MLX-Framework verwendet, um Llama 3 und Mistral mit rasanter Geschwindigkeit nativ auf Apple Silicon auszuführen.

Read Guide arrow_forward
MAC 12 MIN READ

Der ultimative Leitfaden: Ollama auf dem Mac M3 ausführen

Der definitive Meisterkurs zur Installation, Optimierung und Ausführung von Ollama auf Apple Silicon. Verstehen Sie Unified Memory, Modellquantisierung und wie Sie das Beste aus Ihrem M3-Chip herausholen.

Read Guide arrow_forward