Der 8-GB-Mac-Überlebensleitfaden für lokale KI
Kann man KI auf einem 8-GB-M1- oder M2-Mac ausführen? Ja. Hier sind die besten Modelle und Einstellungen, um den Tod durch Swap-Speicher zu vermeiden.
$ curl -fsSL https://ollama.com/install.sh | sh
# Downloading Ollama...
# Setting up environment variables...
$ ollama run llama3.1
> Pulling manifest...
> Success