로컬 AI를 위한 8GB 맥 생존 가이드
8GB M1 또는 M2에서 AI를 실행할 수 있을까요? 네, 가능합니다. 스왑 메모리 문제를 피하기 위한 최적의 모델과 설정을 소개합니다.
$ curl -fsSL https://ollama.com/install.sh | sh
# Downloading Ollama...
# Setting up environment variables...
$ ollama run llama3.1
> Pulling manifest...
> Success