La Guida alla Sopravvivenza per l'IA Locale su Mac da 8GB
Puoi eseguire l'IA su un Mac M1 o M2 da 8GB? Sì. Ecco i migliori modelli e le impostazioni migliori per evitare il collasso della memoria swap.
$ curl -fsSL https://ollama.com/install.sh | sh
# Downloading Ollama...
# Setting up environment variables...
$ ollama run llama3.1
> Pulling manifest...
> Success