147 GUIDES AND GROWING

Run AI Locally.
Free. Private. Yours.

Step-by-step guides for Mac, Windows & Linux — no cloud, no API bills, and total control over your intelligence.

Start Here

Where do you want to run AI?

Pick your setup below — we'll take you straight to the right guide.

MAC 9 MIN READ FEATURED

Der 8-GB-Mac-Überlebensleitfaden für lokale KI

Kann man KI auf einem 8-GB-M1- oder M2-Mac ausführen? Ja. Hier sind die besten Modelle und Einstellungen, um den Tod durch Swap-Speicher zu vermeiden.

Author avatar

Arjun Mehta

Core Contributor

Read Guide arrow_forward

$ curl -fsSL https://ollama.com/install.sh | sh

# Downloading Ollama...

# Setting up environment variables...

$ ollama run llama3.1

> Pulling manifest...

> Success

memory

All Setup Guides

MAC 9 MIN READ

Der 8-GB-Mac-Überlebensleitfaden für lokale KI

Kann man KI auf einem 8-GB-M1- oder M2-Mac ausführen? Ja. Hier sind die besten Modelle und Einstellungen, um den Tod durch Swap-Speicher zu vermeiden.

Read Guide arrow_forward
MAC 11 MIN READ

GitHub Copilot ersetzen: Ollama + Continue.dev

Hör auf, 10 $/Monat zu bezahlen. Richte Ollama und die Continue.dev-Erweiterung in VS Code auf deinem Mac ein für eine völlig kostenlose und private KI-Autovervollständigung.

Read Guide arrow_forward
MAC 8 MIN READ

LM Studio auf dem Mac: Die einfachste Offline-KI-Oberfläche

Installieren Sie LM Studio auf macOS, um eine übersichtliche grafische Benutzeroberfläche zum Herunterladen und Ausführen von GGUF-Modellen mit Metal-Beschleunigung zu erhalten.

Read Guide arrow_forward
WINDOWS 6 MIN READ

Ollama nativ auf Windows ausführen

Ollama läuft jetzt nativ auf Windows ohne WSL. Installieren Sie es, laden Sie Modelle herunter und chatten Sie in weniger als 5 Minuten über PowerShell.

Read Guide arrow_forward
WINDOWS 8 MIN READ

LM Studio unter Windows einrichten

Erfahren Sie, wie Sie LM Studio unter Windows mit NVIDIA/AMD-GPU-Unterstützung installieren und konfigurieren. Führen Sie GGUF-Modelle lokal mit einer ansprechenden Chat-Oberfläche aus.

Read Guide arrow_forward
MAC 7 MIN READ

Systemweite Mac-KI: Ollama mit Raycast verbinden

Integrieren Sie Ihre lokalen LLMs direkt in Raycast. Markieren Sie Text an beliebiger Stelle auf Ihrem Mac und drücken Sie eine Tastenkombination, um ihn kostenlos zusammenzufassen oder umzuschreiben.

Read Guide arrow_forward
MAC 14 MIN READ

Llama.cpp auf dem Mac: Der Leitfaden für Power-User

Kompilieren und führen Sie llama.cpp von Grund auf unter macOS aus. Erzielen Sie maximale Leistung, keinerlei Ballast und vollständige Kontrolle über Ihre Metal-Beschleunigungsparameter.

Read Guide arrow_forward
LINUX 7 MIN READ

Ollama auf Linux ausführen: Der ultimative Leitfaden

Ollama als systemd-Hintergrunddienst auf Ubuntu/Debian bereitstellen. Vollständige Einrichtung für NVIDIA CUDA und AMD ROCm.

Read Guide arrow_forward
MAC 10 MIN READ

Apples MLX-Framework: Maximale KI-Geschwindigkeit

Wie man Apples natives MLX-Framework verwendet, um Llama 3 und Mistral mit rasanter Geschwindigkeit nativ auf Apple Silicon auszuführen.

Read Guide arrow_forward
WINDOWS 14 MIN READ

Llama.cpp unter Windows: Der CUDA-Leitfaden

Kompilieren Sie llama.cpp unter Windows aus dem Quellcode mithilfe von CMake und dem NVIDIA CUDA-Toolkit für maximale Token-Generierungsgeschwindigkeit.

Read Guide arrow_forward
MAC 12 MIN READ

Der ultimative Leitfaden: Ollama auf dem Mac M3 ausführen

Der definitive Meisterkurs zur Installation, Optimierung und Ausführung von Ollama auf Apple Silicon. Verstehen Sie Unified Memory, Modellquantisierung und wie Sie das Beste aus Ihrem M3-Chip herausholen.

Read Guide arrow_forward
LINUX 6 MIN READ

LM Studio unter Linux (Ubuntu/Debian) einrichten

Installieren Sie das LM Studio AppImage unter Linux, um eine übersichtliche grafische Oberfläche für Ihre lokalen KI-Modelle zu erhalten.

Read Guide arrow_forward
LINUX 15 MIN READ

Lokales Llama 3 unter Linux

Stellen Sie Metas Llama-3-Modell lokal unter Linux mit llama.cpp und vollständiger CUDA-Unterstützung bereit. Diese Anleitung behandelt die Kompilierung, Quantisierung und die Ausführung des Modells über die Befehlszeile.

Read Guide arrow_forward
LINUX 12 MIN READ

Hochdurchsatz-Serving mit vLLM auf Ubuntu

Für unternehmensgerechte Leistung setzen Sie vLLM auf Linux ein, um Modelle mit PagedAttention und maximalem Token-Durchsatz bereitzustellen.

Read Guide arrow_forward