लोकल AI के लिए 8GB Mac सर्वाइवल गाइड
क्या आप 8GB M1 या M2 पर AI चला सकते हैं? हाँ। यहाँ सबसे अच्छे मॉडल और सेटिंग्स दिए गए हैं जिससे आप स्वैप मेमोरी की समस्या से बच सकते हैं।
$ curl -fsSL https://ollama.com/install.sh | sh
# Downloading Ollama...
# Setting up environment variables...
$ ollama run llama3.1
> Pulling manifest...
> Success