सिस्टम-वाइड मैक AI: Ollama को Raycast से कनेक्ट करें

laptop_mac macOS Sonoma Intermediate schedule 8 min read
Author by Alex Rivera • May 14, 2024

Step 1 macOS पर AI को System-Wide उपयोग करना

आधुनिक macOS पावर यूज़र एक खंडित AI परिदृश्य में काम करता है — ChatGPT के लिए ब्राउज़र टैब पिन किए हुए, लेखन सहायता के लिए अलग ऐप्स, और लगातार context-switching जो flow state को नष्ट कर देती है। क्या होगा अगर आपका AI किसी ब्राउज़र विंडो में सीमित न होकर आपके operating system के ताने-बाने में सीधे बुना हो, जब भी ज़रूरत हो तुरंत उपलब्ध हो, milliseconds में जवाब दे, और आपके machine से बाहर कोई data न जाए?

यही होता है जब आप Ollama को Raycast से जोड़ते हैं। यह संयोजन वास्तव में आपके Mac के साथ interact करने के तरीके को बदल देता है।

यह Architecture अलग क्यों है

अधिकांश AI integrations एक ही pattern का पालन करते हैं: एक ऐप खोलो, prompt टाइप करो, cloud response का इंतज़ार करो, output कॉपी करो। यह workflow हर कदम पर cognitive overhead पैदा करता है। Raycast + Ollama इस pattern को पूरी तरह तोड़ता है, AI को एक first-class system primitive के रूप में स्थापित करके।

Approach Latency Privacy Offline Support Context Awareness
Browser-based ChatGPT High (network round-trip) ❌ Data sent to OpenAI ❌ Requires internet Limited
Native AI apps Medium Varies Sometimes Minimal
Raycast + Ollama Ultra-low (localhost) ✅ 100% local ✅ Fully offline Deep (system-wide)

Ollama इसमें क्या लाता है

Ollama एक lightweight inference server है जो Apple Silicon पर locally बड़े language models चलाता है। यह http://localhost:11434 पर एक clean REST API expose करता है, जिससे अन्य tools के लिए इसका उपयोग करना बेहद आसान हो जाता है। Llama 3, Mistral, Phi-3, और Gemma 2 जैसे models M-series chips पर प्रभावशाली गति से चलते हैं, और अक्सर सामान्य कार्यों के लिए cloud model response times से मेल खाते हैं या उन्हें पार कर जाते हैं।

Terminal
# Verify Ollama is running and listening
curl http://localhost:11434/api/tags

# Expected output: a JSON list of your locally installed models

एक बार जब Ollama एक background service के रूप में चलने लगता है, तो यह एक persistent AI backbone बन जाता है जिसे कोई भी properly configured application query कर सकती है — Raycast सहित।

Raycast इसमें क्या लाता है

Raycast एक system-wide command launcher है जिसने लाखों Mac users के लिए effectively Spotlight की जगह ले ली है। इसका extension ecosystem इसे लगभग किसी भी चीज़ के साथ integrate करने देता है, और इसका AI command framework आपको selected text, clipboard contents, या free-form prompts को सीधे किसी भी LLM endpoint में pipe करने में सक्षम बनाता है।

यहाँ एक महत्वपूर्ण insight है: Raycast commands macOS में कहीं से भी उपलब्ध हैं। चाहे आप Xcode में किसी function की review कर रहे हों, Notion में कोई document draft कर रहे हों, Slack में कोई message compose कर रहे हों, या Terminal में किसी script को debug कर रहे हों — एक single hotkey invocation AI को वहाँ ले आती है जहाँ आप काम कर रहे हैं, बिना ऐप switch किए।

Composability की शक्ति

इस setup को वास्तव में शक्तिशाली बनाने वाली कोई एक feature नहीं है — यह composability है। आप कर सकते हैं:

  • किसी भी editor में code चुनें → एक Raycast AI command invoke करें → explanation अपने clipboard में inject करें
  • Safari में एक dense paragraph highlight करें → page छोड़े बिना उसे सरल भाषा में summarize करें
  • Terminal से कोई error message लें → उसे एक debugging prompt के through run करें → fix तुरंत वापस paste करें

यही AI को एक ऐसे tool के रूप में इस्तेमाल करने और इसे एक ऐसी capability के रूप में साथ रखने के बीच का अंतर है जिसे आप visit करते हैं। आगे के sections आपको इस system को scratch से assemble करने के बारे में बताएंगे — Raycast extension install करने से लेकर hotkeys configure करने तक, जो पूरे workflow को एक native OS feature जैसा महसूस कराते हैं।

Note: इस guide में सब कुछ पूरी तरह से on-device चलता है। कोई API keys नहीं, कोई subscriptions नहीं, कोई telemetry नहीं। आपके prompts और responses आपके Mac से बाहर कभी नहीं जाते।

Step 2 Prerequisites: Raycast Setup

Ollama integration में जाने से पहले, आपको एक properly configured Raycast environment की आवश्यकता है। इस foundation को skip करने से बाद में परेशानी होगी — तो चलिए इसे शुरू से ही सही तरीके से करते हैं।

What You'll Need

Requirement Version Notes
Raycast 1.50.0+ AI features के लिए Pro plan आवश्यक है
macOS 12 Monterey+ Ventura या Sonoma की दृढ़ता से अनुशंसा की जाती है
Ollama 0.1.20+ एक local service के रूप में चलना चाहिए
RAM 8GB minimum बड़े models के लिए 16GB+ की अनुशंसा की जाती है

Installing Raycast

यदि आपने अभी तक Raycast install नहीं किया है, तो यह एक सीधी प्रक्रिया है। नवीनतम stable release सीधे raycast.com से download करें या Homebrew के माध्यम से install करें:

Terminal
brew install --cask raycast

एक बार install हो जाने पर, Raycast launch करें और initial onboarding पूरा करें। Spotlight को तुरंत Replace करें — यह उस workflow के लिए अनिवार्य है जो हम बना रहे हैं। यहाँ navigate करें:

Terminal
System Settings → Keyboard → Keyboard Shortcuts → Spotlight

Show Spotlight search को ⌘Space से uncheck करें, फिर Raycast की preferences में General → Raycast Hotkey के अंतर्गत ⌘Space assign करें।


Verifying Your Raycast Version

Ollama extension के लिए Raycast की extension API को custom model endpoints support करने की आवश्यकता है। Raycast preferences खोलें और अपना build confirm करें:

Terminal
Raycast → About Raycast → Build Number

वैकल्पिक रूप से, अपने terminal से यह quick check चलाएं:

Terminal
defaults read com.raycast.macos CFBundleShortVersionString

यदि आप versions में पीछे हैं, तो built-in updater इसे handle करेगा:

Terminal
Raycast → Check for Updates

Enabling Extensions in Raycast

By default, Raycast का extension store accessible है, लेकिन आप यह सुनिश्चित करना चाहते हैं कि Extensions tab unlocked है और store reachable है। ⌘, के साथ Raycast preferences खोलें और confirm करें कि आप बिना किसी error के Extensions tab पर navigate कर सकते हैं।

आगे बढ़ने से पहले enable करने के लिए Critical setting:

Raycast Preferences → Extensions पर navigate करें और सुनिश्चित करें कि "Allow Extension Installation from Store" toggled on है। इसके बिना, अगले step में Ollama extension installation silently fail हो जाएगी।


Confirming Ollama Is Running

Raycast को communicate करने के लिए एक live Ollama instance की आवश्यकता है। Raycast में कुछ भी configure करने से पहले, यह verify करें कि Ollama active और responsive है:

Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags

# Expected response (example)
{
  "models": [
    {
      "name": "llama3:latest",
      "modified_at": "2024-01-15T10:30:00Z",
      "size": 4661211584
    }
  ]
}

यदि curl command timeout हो जाती है या connection error देती है, तो Ollama को manually start करें:

Terminal
ollama serve

Pro tip: Ollama को अपने macOS login items में add करें ताकि यह automatically start हो। System Settings → General → Login Items पर जाएं और Ollama application को add करें। इससे यह सुनिश्चित होता है कि जैसे ही आप अपनी machine wake करें, Raycast के पास हमेशा एक model backend उपलब्ध हो।


Network Permissions

पहली बार जब Raycast आपके local Ollama instance तक पहुंचने का प्रयास करता है, तो macOS network access permissions के लिए prompt करेगा। बिना किसी हिचकिचाहट के "Allow" पर click करें — यह localhost communication है, न कि external network access। यदि आपने गलती से prompt को deny कर दिया था, तो इसे इस तरह reset करें:

Terminal
tccutil reset All com.raycast.macos

इन prerequisites के साथ, आपका environment extension installation के लिए पूरी तरह तैयार है।

Step 3 Step 1: Raycast Ollama Extension Install करना

Ollama को locally चलाते हुए और Raycast install होने के साथ, आपके system-wide launcher और आपके local AI models के बीच का bridge एक single extension है। यह section आपको precise installation process के बारे में बताता है, जिससे हर step पर कोई भी ambiguity न रहे।

Raycast Store में Extension ढूंढना

Raycast एक curated extension marketplace रखता है जो सीधे app से ही accessible है। इस पर navigate करने का तरीका यहां दिया गया है:

  1. अपने configured hotkey से Raycast खोलें (default: ⌥ Space)
  2. "Store" type करें और Raycast Store चुनें
  3. Search bar में Ollama type करें
  4. "Ollama AI" नाम का extension ढूंढें — जो community द्वारा बनाया गया है और Raycast team द्वारा vetted है

वैकल्पिक रूप से, आप इसे सीधे web से install कर सकते हैं:

Terminal
https://www.raycast.com/massimiliano_pasquini/raycast-ollama

Web page पर "Install Extension" पर click करें, और Raycast आपकी machine पर installation prompt में directly deep-link कर देगा।


Raycast CLI के माध्यम से Install करना (Power User Method)

यदि आप terminal-based workflows पसंद करते हैं, तो Raycast अपने CLI toolchain के through extension management को support करता है। पहले, सुनिश्चित करें कि आपके पास Raycast CLI installed है:

Terminal
# Install Raycast CLI via npm
npm install -g @raycast/api

# Verify installation
raycast --version

Note: CLI method मुख्य रूप से extension development के लिए है, न कि end-user installation के लिए। Production use के लिए, Store UI method recommended है।


Extension Installation Walkthrough

एक बार जब आपने Store UI या web portal से Install पर click कर दिया, तो आपको Raycast में निम्नलिखित permission prompt दिखाई देगा:

अनुरोधित अनुमति कारण
नेटवर्क एक्सेस Ollama के लोकल HTTP API से संचार करता है
क्लिपबोर्ड रीड/राइट टेक्स्ट ट्रांसफॉर्मेशन कमांड्स को सक्षम करता है
सिस्टम सर्विसेज AI प्रतिक्रियाओं को सक्रिय ऐप्स में इंजेक्ट करने की अनुमति देता है

सभी अनुमतियाँ स्वीकार करें — इनमें से कोई भी इंटरनेट तक नहीं पहुँचती। हर अनुरोध केवल localhost पर रूट होता है, जिसका अर्थ है कि आपका डेटा कभी भी आपकी मशीन से बाहर नहीं जाता।


इंस्टॉलेशन की पुष्टि करना

इंस्टॉलेशन के बाद, पुष्टि करें कि एक्सटेंशन सक्रिय है:

  1. Raycast खोलें (⌥ Space)
  2. Ollama टाइप करें — आपको तुरंत कमांड्स का एक समूह दिखना चाहिए: - Ollama: Chat - Ollama: Ask - Ollama: Summarize - Ollama: Fix Grammar
  3. Ollama: Chat चुनें और दबाएँ

यदि Ollama चल रहा है (आपके टर्मिनल में ollama serve), तो आप सीधे एक इंटरैक्टिव चैट सेशन में पहुँच जाएंगे। यदि आपको कनेक्शन एरर दिखे, तो सत्यापित करें कि डेमन सक्रिय है:

Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags

# Expected output (truncated):
# {"models":[{"name":"llama3.2:latest",...}]}

# If not running, start it:
ollama serve

अपना पहला मॉडल पुल करना (यदि पहले नहीं किया)

एक्सटेंशन को कमांड्स चलाने से पहले कम से कम एक मॉडल को लोकली पुल करना आवश्यक है। सामान्य उपयोग के लिए एक तेज़ और सक्षम डिफ़ॉल्ट:

Terminal
# Lightweight and fast — ideal for system-wide commands
ollama pull llama3.2

# Higher capability for complex tasks (requires more RAM)
ollama pull mistral

# Verify models are available
ollama list

इस चरण में, एक्सटेंशन इंस्टॉल, कनेक्टेड और तैयार है। अगला चरण सटीक API कॉन्फ़िगरेशन की ओर बढ़ता है — एंडपॉइंट, पोर्ट और रिस्पॉन्स व्यवहार को आपके सटीक हार्डवेयर और वर्कफ़्लो आवश्यकताओं के अनुसार सेट करना।

Step 4 चरण 2: API एंडपॉइंट्स और पोर्ट्स कॉन्फ़िगर करना

Raycast Ollama एक्सटेंशन इंस्टॉल होने के बाद, अगला महत्वपूर्ण कदम यह सुनिश्चित करना है कि Raycast वास्तव में आपके लोकल Ollama इंस्टेंस के साथ संचार कर सके। इसके लिए यह समझना आवश्यक है कि Ollama अपना API कैसे एक्सपोज़ करता है और एक्सटेंशन को सही एंडपॉइंट पर कैसे कॉन्फ़िगर करें।

Ollama के डिफ़ॉल्ट नेटवर्क कॉन्फ़िगरेशन को समझना

डिफ़ॉल्ट रूप से, Ollama निम्नलिखित पते पर एक लोकल REST API सर्वर चलाता है:

Terminal
http://localhost:11434

यह सबसे महत्वपूर्ण वैल्यू है जिसे आप कॉन्फ़िगर करेंगे। Raycast द्वारा किया गया हर AI अनुरोध — चाहे वह टेक्स्ट सारांश हो, कोड एक्सप्लेनेशन हो, या ग्रामर फिक्स हो — इस एंडपॉइंट के माध्यम से आपकी मशीन पर चल रहे Ollama इनफरेंस इंजन को HTTP अनुरोध के रूप में रूट होता है।

आप किसी भी समय अपने टर्मिनल से हेल्थ एंडपॉइंट को सीधे हिट करके सत्यापित कर सकते हैं कि Ollama चल रहा है और प्रतिक्रियाशील है:

Terminal
curl http://localhost:11434
# Expected output: Ollama is running

यदि यह एरर लौटाता है, तो Ollama नहीं चल रहा। इसे इस प्रकार शुरू करें:

Terminal
ollama serve

प्रो टिप: macOS पर, यदि आपने Ollama को .dmg GUI एप्लिकेशन के माध्यम से इंस्टॉल किया है, तो यह स्वचालित रूप से मेनू बार प्रोसेस के रूप में चलता है। यदि आपने Homebrew के माध्यम से इंस्टॉल किया है, तो आपको इसे मैन्युअली शुरू करना पड़ सकता है या launchd सर्विस कॉन्फ़िगर करनी पड़ सकती है।


Raycast में एक्सटेंशन एंडपॉइंट कॉन्फ़िगर करना

Raycast खोलें (डिफ़ॉल्ट रूप से ⌘ Space), Extensions टाइप करें, और Ollama extension सेटिंग्स पर जाएँ। आपको निम्नलिखित कॉन्फ़िगर करने योग्य फ़ील्ड मिलेंगे:

Setting Default Value Description
Ollama API URL http://localhost:11434 स्थानीय Ollama सर्वर के लिए Base URL
Request Timeout 60000 ms अनुरोध विफल होने से पहले अधिकतम प्रतीक्षा समय
Default Model (user-defined) वह Model जो तब उपयोग होता है जब कोई override निर्दिष्ट न हो

Ollama API URL को http://localhost:11434 पर सेट करें, जब तक कि आपने जानबूझकर Ollama का डिफ़ॉल्ट पोर्ट न बदला हो। यदि आप Ollama को किसी भिन्न पोर्ट पर चला रहे हैं — उदाहरण के लिए, अन्य स्थानीय सेवाओं के साथ टकराव से बचने के लिए — तो आप इसे स्टार्टअप पर override कर सकते हैं:

Terminal
OLLAMA_HOST=0.0.0.0:11435 ollama serve

उस स्थिति में, Raycast extension URL को मिलान के लिए अपडेट करें:

Terminal
http://localhost:11435

Remote और Network Ollama Instances को संभालना

इस सेटअप की एक कम सराही गई क्षमता यह है कि Raycast को Ollama के स्थानीय रूप से चलने की आवश्यकता नहीं है। यदि आप Ollama को किसी remote मशीन, NAS, या अपने स्थानीय नेटवर्क पर एक dedicated GPU सर्वर पर चला रहे हैं, तो आप Raycast को उस मशीन के IP पते पर इंगित कर सकते हैं:

Terminal
http://192.168.1.50:11434

महत्वपूर्ण सुरक्षा संबंधी विचार: डिफ़ॉल्ट रूप से, Ollama केवल localhost से bind होता है। इसे किसी network interface पर expose करने के लिए, आपको स्पष्ट रूप से यह सेट करना होगा:

Terminal
OLLAMA_HOST=0.0.0.0:11434 ollama serve

इस पोर्ट को बिना authentication के कभी भी सार्वजनिक इंटरनेट पर expose न करें। Ollama में कोई built-in auth layer नहीं है — इसे एक open database port की तरह मानें और उसी अनुसार firewall करें।


Model की उपलब्धता की पुष्टि करना

आगे बढ़ने से पहले, सत्यापित करें कि आपके लक्षित models pulled हैं और API के माध्यम से उपलब्ध हैं:

Terminal
curl http://localhost:11434/api/tags | jq '.models[].name'

यह सभी स्थानीय रूप से उपलब्ध models की सूची लौटाता है। Raycast extension इस सूची से अपना model selector populate करेगा, इसलिए किसी भी model को जिसे आप custom command में उपयोग करना चाहते हैं, उसे पहले ollama pull <model-name> का उपयोग करके pulled किया जाना चाहिए।

आपके endpoint के कॉन्फ़िगर होने और models की पुष्टि होने के साथ, Raycast के पास अब आपके स्थानीय AI तक एक स्पष्ट, low-latency चैनल है — शून्य cloud dependencies, शून्य API लागत, और सक्षम hardware पर sub-second response times।

Step 5 कस्टम AI Commands बनाना (Summarize, Rewrite, Fix Grammar)

आपके Ollama extension के कॉन्फ़िगर होने और आपके स्थानीय models के साथ संचार करने के साथ, असली शक्ति purpose-built AI commands बनाने से आती है जो आपके Mac पर कहीं से भी तुरंत fire होते हैं। Raycast की scripting system आपको ऐसे commands तैयार करने देती है जो आपके सटीक workflow के अनुरूप हों — किसी chat interface में copy-paste नहीं, कोई context switching नहीं।

Raycast AI Extensions बनाम Custom Scripts को समझना

Raycast कस्टम AI commands के लिए दो रास्ते प्रदान करता है:

  1. Extension-based commands — Raycast Ollama extension के prompt configuration panel के माध्यम से बनाए गए
  2. Script commands — Shell या JavaScript scripts जो Ollama API को सीधे call करते हैं

अधिकांश उपयोगकर्ताओं के लिए, एक्सटेंशन-आधारित दृष्टिकोण 90% उपयोग के मामलों को कवर करता है। उन्नत पाइपलाइन के लिए, स्क्रिप्ट कमांड आपको पूर्ण नियंत्रण देते हैं।


Ollama एक्सटेंशन में प्रॉम्प्ट कॉन्फ़िगर करना

Raycast खोलें, "Ollama" खोजें, और Custom Commands पर जाएं। प्रत्येक कमांड के लिए आवश्यक है:

Field Description Example
Name Command identifier in Raycast Summarize Selection
Model Which Ollama model to use llama3.2
System Prompt Persistent instruction to the model You are a concise summarizer.
User Prompt Template Dynamic prompt with {selection} variable Summarize this in 3 bullet points: {selection}
Output Where result appears Clipboard / HUD / Detail View

तीन आवश्यक कमांड

1. Summarize

यह कमांड किसी भी चयनित टेक्स्ट — ईमेल, लेख, दस्तावेज़ीकरण — को सुपाच्य बुलेट पॉइंट्स में सारांशित करता है।

System Prompt:

Terminal
You are a precise summarization assistant. Extract only the essential information. Never add opinions or information not present in the source text. Respond only with the summary, no preamble.

User Prompt:

Terminal
Summarize the following text into 3-5 concise bullet points:

{selection}

Output को Detail View पर सेट करें ताकि लंबे सारांश आपके क्लिपबोर्ड को अव्यवस्थित किए बिना पठनीय रहें।


2. Rewrite

रिराइट कमांड अटपटी गद्य को परिष्कृत, पेशेवर कॉपी में बदल देता है। Slack संदेशों, दस्तावेज़ीकरण और ईमेल के लिए आदर्श।

System Prompt:

Terminal
You are an expert editor and technical writer. Rewrite the provided text to be clear, concise, and professional. Preserve the original meaning and tone intent. Return only the rewritten text with no explanation.

User Prompt:

Terminal
Rewrite the following to be clearer and more professional:

{selection}

Output को Clipboard पर सेट करें ताकि आप ⌘V के साथ तुरंत बेहतर संस्करण पेस्ट कर सकें।


3. Fix Grammar

आपकी आवाज़ को बदले बिना सटीक व्याकरण सुधार — उन डेवलपर्स के लिए महत्वपूर्ण जो दस्तावेज़ीकरण लिखते हैं या जो अंग्रेज़ी के मूल वक्ता नहीं हैं।

System Prompt:

Terminal
You are a grammar correction tool. Fix all grammatical errors, punctuation mistakes, and spelling issues in the provided text. Do not change the writing style, tone, or word choices unless grammatically necessary. Return only the corrected text.

User Prompt:

Terminal
Fix the grammar and punctuation in the following text:

{selection}

उन्नत: बैच प्रोसेसिंग के लिए स्क्रिप्ट कमांड

प्रोग्रामेटिक नियंत्रण की आवश्यकता वाले पावर उपयोगकर्ताओं के लिए, Raycast Script Command के माध्यम से सीधे Ollama के REST API को कॉल करें:

Terminal
#!/bin/bash
# Required parameters:
# @raycast.schemaVersion 1
# @raycast.title Fix Grammar (Script)
# @raycast.mode silent

SELECTION=$(pbpaste)

RESPONSE=$(curl -s http://localhost:11434/api/generate \
  -H "Content-Type: application/json" \
  -d "{
    \"model\": \"llama3.2\",
    \"prompt\": \"Fix grammar only, return corrected text: ${SELECTION}\",
    \"stream\": false
  }" | python3 -c "import sys, json; print(json.load(sys.stdin)['response'])")

echo "$RESPONSE" | pbcopy

इसे fix-grammar.sh के रूप में सेव करें, chmod +x fix-grammar.sh से इसे executable बनाएं, और इसे ~/.config/raycast/scripts/ में डाल दें।


मॉडल चयन की रणनीति

हर काम के लिए आपके सबसे शक्तिशाली मॉडल की ज़रूरत नहीं होती। मॉडल का आकार कमांड की जटिलता के अनुसार चुनें:

कमांड अनुशंसित मॉडल क्यों
व्याकरण सुधार phi3 या gemma2:2b तेज़, हल्का, सरल कार्य
पुनर्लेखन llama3.2 गुणवत्ता और गति का संतुलन
सारांश llama3.2 या mistral गहरी समझ की आवश्यकता

प्रो टिप: Apple Silicon पर छोटे मॉडल एक सेकंड से कम में जवाब देते हैं — व्याकरण सुधार के लिए, जब आप दिन में दर्जनों बार कमांड इस्तेमाल कर रहे हों, तो यह गति का अंतर बेहद प्रभावशाली होता है।

Step 6 बिजली की तेज़ी से पहुँच के लिए हॉटकी को अनुकूलित करना

एक अच्छे AI वर्कफ़्लो और एक शानदार वर्कफ़्लो के बीच का फ़र्क घर्षण पर निर्भर करता है। हर अतिरिक्त क्लिक, हर संदर्भ बदलाव, हर वह पल जब आप मेनू खोजने में लगे हों — यह सब मानसिक बोझ है जो आपकी प्रवाह अवस्था को तोड़ता है। हॉटकी इस घर्षण को पूरी तरह समाप्त कर देती हैं — AI सहायता को एक सोची-समझी प्रक्रिया से आपकी सोच के एक अदृश्य विस्तार में बदल देती हैं।

Raycast हॉटकी आर्किटेक्चर

Raycast कीबोर्ड शॉर्टकट असाइनमेंट की दो अलग परतों को सपोर्ट करता है:

परत दायरा सबसे अच्छा उपयोग
Global Hotkey सिस्टम-व्यापी, किसी भी ऐप में काम करता है आपका सबसे अधिक उपयोग किया जाने वाला AI कमांड
Extension Hotkey विशिष्ट एक्सटेंशन कमांड को ट्रिगर करता है अक्सर उपयोग किए जाने वाले लेकिन द्वितीयक कमांड
Alias Raycast खोलता है + कमांड पहले से भरता है पूरे नाम याद किए बिना त्वरित पहुँच
Quicklink किसी विशिष्ट प्रॉम्प्ट के लिए Raycast शॉर्टकट टेम्पलेटेड, दोहराए जाने योग्य AI कार्य

अपने AI कमांड में हॉटकी असाइन करना

Raycast Preferences → Extensions → Ollama AI पर जाएं और पिछले अनुभाग में बनाए गए प्रत्येक कस्टम कमांड को खोजें। किसी भी कमांड के बगल में हॉटकी फ़ील्ड पर क्लिक करें और अपना मनचाहा की कॉम्बिनेशन दबाएं।

AI कमांड के लिए अनुशंसित हॉटकी योजना:

Terminal
⌥ + Space        → Open Raycast (main launcher)
⌃ + ⌥ + S        → AI Summarize (selected text)
⌃ + ⌥ + R        → AI Rewrite (selected text)  
⌃ + ⌥ + G        → Fix Grammar (selected text)
⌃ + ⌥ + O        → Open Ollama Chat (freeform)

प्रो टिप: सभी AI कमांड के लिए Control (⌃) + Option (⌥) को अपने modifier prefix के रूप में उपयोग करें। यह संयोजन macOS सिस्टम शॉर्टकट या अन्य एप्लिकेशन द्वारा शायद ही कभी लिया जाता है, जिससे आपको एक साफ़, संघर्ष-मुक्त namespace मिलता है।

हॉटकी टकराव से बचना

किसी भी शॉर्टकट को अंतिम रूप देने से पहले, सत्यापित करें कि वह पहले से लिया तो नहीं गया है:

Terminal
# Check system-level shortcuts via defaults
defaults read com.apple.symbolichotkeys AppleSymbolicHotKeys

आप System Settings → Keyboard → Keyboard Shortcuts पर भी जा सकते हैं और प्रत्येक श्रेणी को स्कैन कर सकते हैं। सामान्य conflict zones में शामिल हैं:

  • Mission Control अधिकांश ⌃ + Arrow combinations का स्वामी है
  • Spotlight डिफ़ॉल्ट रूप से ⌘ + Space उपयोग करता है
  • Screenshot tools कई ⌘ + Shift + number slots पर कब्जा करते हैं
  • Alfred, 1Password, या Magnet जैसे third-party apps -based shortcuts का दावा कर सकते हैं

Text Selection Workflows को Supercharge करना

System-wide AI hotkeys की असली शक्ति तब उभरती है जब इन्हें text selection triggers के साथ जोड़ा जाता है। अपने Ollama commands को किसी भी application में वर्तमान में selected text पर काम करने के लिए configure करें:

  1. Safari, Notion, Xcode, Slack — कहीं भी text select करें
  2. ⌃ + ⌥ + S दबाएं
  3. Ollama selection को process करता है और apps बदले बिना inline summary वापस करता है

यह इसलिए काम करता है क्योंकि Raycast system clipboard और active selection context को पढ़ता है। विश्वसनीयता सुनिश्चित करने के लिए, अपने extension के configuration panel में "Read selected text from active app" सक्षम करें।

एक Muscle Memory Map बनाना

अपने hotkeys लिख लें और 30 दिनों तक उन पर टिके रहें। निरंतरता ही वह चीज़ है जो सचेत shortcuts को अवचेतन muscle memory में बदलती है। इस progression पर विचार करें:

Terminal
Week 1:  Use hotkeys consciously, referring to your cheat sheet
Week 2:  Fingers begin finding shortcuts without looking
Week 3:  Hotkeys feel as natural as ⌘+C / ⌘+V
Week 4:  You forget AI assistance is a "tool" — it's just thinking

लक्ष्य है zero-latency AI access — जहाँ इरादे और क्रियान्वयन के बीच का अंतर पूरी तरह समाप्त हो जाए। सही hotkey architecture के साथ, Ollama एक ऐसी चीज़ बनना बंद हो जाती है जिसे आप खोलते हैं और एक ऐसी चीज़ बन जाती है जिस तक आप स्वाभाविक रूप से पहुँचते हैं।