Guía de supervivencia para IA local en Mac con 8GB
¿Puedes ejecutar IA en un M1 o M2 con 8GB? Sí. Aquí están los mejores modelos y configuraciones para evitar que la memoria de intercambio acabe con tu equipo.
$ curl -fsSL https://ollama.com/install.sh | sh
# Downloading Ollama...
# Setting up environment variables...
$ ollama run llama3.1
> Pulling manifest...
> Success