147 GUIDES AND GROWING

Run AI Locally.
Free. Private. Yours.

Step-by-step guides for Mac, Windows & Linux — no cloud, no API bills, and total control over your intelligence.

Start Here

Where do you want to run AI?

Pick your setup below — we'll take you straight to the right guide.

MAC 9 MIN READ FEATURED

लोकल AI के लिए 8GB Mac सर्वाइवल गाइड

क्या आप 8GB M1 या M2 पर AI चला सकते हैं? हाँ। यहाँ सबसे अच्छे मॉडल और सेटिंग्स दिए गए हैं जिससे आप स्वैप मेमोरी की समस्या से बच सकते हैं।

Author avatar

Arjun Mehta

Core Contributor

Read Guide arrow_forward

$ curl -fsSL https://ollama.com/install.sh | sh

# Downloading Ollama...

# Setting up environment variables...

$ ollama run llama3.1

> Pulling manifest...

> Success

memory

All Setup Guides

MAC 9 MIN READ

लोकल AI के लिए 8GB Mac सर्वाइवल गाइड

क्या आप 8GB M1 या M2 पर AI चला सकते हैं? हाँ। यहाँ सबसे अच्छे मॉडल और सेटिंग्स दिए गए हैं जिससे आप स्वैप मेमोरी की समस्या से बच सकते हैं।

Read Guide arrow_forward
MAC 11 MIN READ

GitHub Copilot को बदलें: Ollama + Continue.dev

$10 प्रति माह देना बंद करें। अपने Mac पर VS Code में Ollama और Continue.dev एक्सटेंशन सेट अप करें और पूरी तरह से मुफ्त, निजी AI ऑटोकम्पलीट का आनंद लें।

Read Guide arrow_forward
MAC 8 MIN READ

Mac पर LM Studio: सबसे आसान ऑफलाइन AI इंटरफेस

macOS पर LM Studio इंस्टॉल करें और Metal एक्सेलेरेशन के साथ GGUF मॉडल डाउनलोड करने और चलाने के लिए एक सुंदर GUI प्राप्त करें।

Read Guide arrow_forward
WINDOWS 6 MIN READ

Ollama को Windows पर नेटिव रूप से चलाएं

Ollama अब WSL के बिना Windows पर नेटिव रूप से चलता है। PowerShell से 5 मिनट से कम समय में इंस्टॉल करें, मॉडल डाउनलोड करें और चैट करें।

Read Guide arrow_forward
WINDOWS 8 MIN READ

Windows पर LM Studio सेटअप करें

जानें कि NVIDIA/AMD GPU सपोर्ट के साथ Windows पर LM Studio को कैसे इंस्टॉल और कॉन्फ़िगर करें। एक सुंदर चैट इंटरफ़ेस के साथ GGUF मॉडल को लोकल रूप से चलाएं।

Read Guide arrow_forward
MAC 7 MIN READ

सिस्टम-वाइड मैक AI: Ollama को Raycast से कनेक्ट करें

अपने लोकल LLMs को सीधे Raycast में इंटीग्रेट करें। अपने Mac पर कहीं भी टेक्स्ट हाइलाइट करें और उसे मुफ्त में सारांशित या फिर से लिखने के लिए एक हॉटकी दबाएं।

Read Guide arrow_forward
MAC 14 MIN READ

Mac पर Llama.cpp: पावर यूज़र की संपूर्ण गाइड

macOS पर llama.cpp को शुरू से कंपाइल करें और चलाएं। अधिकतम प्रदर्शन, शून्य अनावश्यक भार, और अपने Metal एक्सेलेरेशन पैरामीटर पर पूर्ण नियंत्रण प्राप्त करें।

Read Guide arrow_forward
LINUX 7 MIN READ

Linux पर Ollama चलाएं: संपूर्ण मार्गदर्शिका

Ubuntu/Debian पर Ollama को एक बैकग्राउंड systemd सेवा के रूप में तैनात करें। NVIDIA CUDA और AMD ROCm के लिए पूर्ण सेटअप।

Read Guide arrow_forward
MAC 10 MIN READ

Apple का MLX Framework: अधिकतम AI गति

Apple के native MLX framework का उपयोग करके Llama 3 और Mistral को Apple Silicon पर तेज़ गति से natively चलाने का तरीका।

Read Guide arrow_forward
WINDOWS 14 MIN READ

Windows पर Llama.cpp: CUDA गाइड

अधिकतम टोकन जनरेशन गति के लिए CMake और NVIDIA CUDA टूलकिट का उपयोग करके Windows पर llama.cpp को सोर्स से कंपाइल करें।

Read Guide arrow_forward
MAC 12 MIN READ

अंतिम गाइड: Mac M3 पर Ollama चलाएं

Apple Silicon पर Ollama को इंस्टॉल करने, ऑप्टिमाइज़ करने और चलाने की निश्चित मास्टरक्लास। Unified Memory, मॉडल क्वांटाइज़ेशन को समझें और अपने M3 चिप का अधिकतम उपयोग करना सीखें।

Read Guide arrow_forward
LINUX 6 MIN READ

Linux (Ubuntu/Debian) पर LM Studio सेटअप करें

अपने स्थानीय AI मॉडल के लिए एक सुंदर ग्राफिकल इंटरफ़ेस प्राप्त करने हेतु Linux पर LM Studio AppImage इंस्टॉल करें।

Read Guide arrow_forward
LINUX 15 MIN READ

लिनक्स पर लोकल लामा 3

llama.cpp का उपयोग करके पूर्ण CUDA समर्थन के साथ लिनक्स पर Meta के Llama 3 मॉडल को लोकल रूप से तैनात करें। यह गाइड कमांड लाइन से मॉडल के संकलन, क्वांटाइज़ेशन और संचालन को कवर करती है।

Read Guide arrow_forward
LINUX 12 MIN READ

Ubuntu पर vLLM के साथ हाई-थ्रूपुट सर्विंग

एंटरप्राइज-ग्रेड प्रदर्शन के लिए, PagedAttention और अधिकतम टोकन थ्रूपुट के साथ मॉडल्स को सर्व करने हेतु Linux पर vLLM को डिप्लॉय करें।

Read Guide arrow_forward