Le Guide de Survie du Mac 8 Go pour l'IA Locale
Peut-on faire tourner de l'IA sur un M1 ou M2 avec 8 Go de RAM ? Oui. Voici les meilleurs modèles et paramètres pour éviter la saturation de la mémoire virtuelle.
$ curl -fsSL https://ollama.com/install.sh | sh
# Downloading Ollama...
# Setting up environment variables...
$ ollama run llama3.1
> Pulling manifest...
> Success