Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Linux.
All Linux Tutorials
LINUX
7 MIN READ
Ollama auf Linux ausführen: Der ultimative Leitfaden
Ollama als systemd-Hintergrunddienst auf Ubuntu/Debian bereitstellen. Vollständige Einrichtung für NVIDIA CUDA und AMD ROCm.
Read Guide arrow_forward
LINUX
6 MIN READ
LM Studio unter Linux (Ubuntu/Debian) einrichten
Installieren Sie das LM Studio AppImage unter Linux, um eine übersichtliche grafische Oberfläche für Ihre lokalen KI-Modelle zu erhalten.
Read Guide arrow_forward
LINUX
15 MIN READ
Lokales Llama 3 unter Linux
Stellen Sie Metas Llama-3-Modell lokal unter Linux mit llama.cpp und vollständiger CUDA-Unterstützung bereit. Diese Anleitung behandelt die Kompilierung, Quantisierung und die Ausführung des Modells über die Befehlszeile.
Read Guide arrow_forward
LINUX
12 MIN READ
Hochdurchsatz-Serving mit vLLM auf Ubuntu
Für unternehmensgerechte Leistung setzen Sie vLLM auf Linux ein, um Modelle mit PagedAttention und maximalem Token-Durchsatz bereitzustellen.
Read Guide arrow_forward