laptop_mac macOS Sonoma
Intermediate
schedule 8 min read
by Alex Rivera • May 14, 2024
Step 1 KI systemweit auf macOS entfesseln
Der moderne macOS-Poweruser bewegt sich in einer fragmentierten KI-Landschaft — Browser-Tabs mit ChatGPT, separate Apps für Schreibassistenz und ständiges Context-Switching, das den Flow-State zerstört. Was wäre, wenn Ihre KI nicht in einem Browser-Fenster isoliert wäre, sondern direkt in das Betriebssystem eingewoben — sofort verfügbar, wenn Sie sie brauchen, in Millisekunden reagierend, bei null Datentransfer außerhalb Ihrer Maschine?
Genau das geschieht, wenn Sie Ollama mit Raycast verbinden. Die Kombination verändert die Art und Weise, wie Sie mit Ihrem Mac interagieren, auf grundlegende Weise.
Warum diese Architektur anders ist
Die meisten KI-Integrationen folgen demselben Muster: Eine App öffnen, einen Prompt eingeben, auf eine Cloud-Antwort warten, die Ausgabe kopieren. Dieser Workflow erzeugt kognitiven Overhead bei jedem einzelnen Schritt. Raycast + Ollama durchbricht dieses Muster vollständig, indem KI als erstklassiges System-Primitiv positioniert wird.
| Ansatz |
Latenz |
Datenschutz |
Offline-Unterstützung |
Kontextbewusstsein |
| Browser-basiertes ChatGPT |
Hoch (Netzwerk-Roundtrip) |
❌ Daten werden an OpenAI gesendet |
❌ Erfordert Internet |
Begrenzt |
| Native KI-Apps |
Mittel |
Variiert |
Manchmal |
Minimal |
| Raycast + Ollama |
Ultra-niedrig (localhost) |
✅ 100% lokal |
✅ Vollständig offline |
Tief (systemweit) |
Was Ollama zur Gleichung beiträgt
Ollama ist ein schlanker Inferenz-Server, der große Sprachmodelle lokal auf Apple Silicon ausführt. Er stellt eine saubere REST-API auf http://localhost:11434 bereit und macht es anderen Tools trivial einfach, diese zu konsumieren. Modelle wie Llama 3, Mistral, Phi-3 und Gemma 2 laufen mit beeindruckender Geschwindigkeit auf M-Series-Chips und erreichen oder übertreffen dabei häufig die Antwortzeiten von Cloud-Modellen bei typischen Aufgaben.
Terminal
# Verify Ollama is running and listening
curl http://localhost:11434/api/tags
# Expected output: a JSON list of your locally installed models
Sobald Ollama als Hintergrunddienst läuft, wird es zu einem persistenten KI-Backbone, den jede entsprechend konfigurierte Anwendung abfragen kann — einschließlich Raycast.
Was Raycast zur Gleichung beiträgt
Raycast ist ein systemweiter Command Launcher, der Spotlight für Hunderttausende von Mac-Nutzern effektiv ersetzt hat. Sein Extension-Ökosystem ermöglicht die Integration mit nahezu allem, und sein KI-Befehls-Framework erlaubt es, markierten Text, Clipboard-Inhalte oder frei formulierte Prompts direkt an jeden LLM-Endpunkt zu übergeben.
Die entscheidende Erkenntnis hier: Raycast-Befehle sind von überall in macOS aus verfügbar. Ob Sie in Xcode eine Funktion prüfen, in Notion ein Dokument verfassen, in Slack eine Nachricht schreiben oder in Terminal ein Skript debuggen — ein einziger Hotkey bringt KI zu dem, woran Sie gerade arbeiten, ohne App-Wechsel.
Die Stärke der Komposierbarkeit
Was dieses Setup wirklich mächtig macht, ist kein einzelnes Feature — es ist die Komposierbarkeit. Sie können:
- Code in einem beliebigen Editor markieren → einen Raycast-KI-Befehl aufrufen → eine Erklärung direkt in die Zwischenablage bekommen
- Einen dichten Absatz in Safari hervorheben → ihn in einfacher Sprache zusammenfassen lassen, ohne die Seite zu verlassen
- Eine Fehlermeldung aus dem Terminal greifen → sie durch einen Debugging-Prompt laufen lassen → die Lösung sofort wieder einfügen
Dies ist der Unterschied zwischen KI als einem Werkzeug, das Sie aufsuchen, und KI als einer Fähigkeit, die Sie bei sich tragen. Die folgenden Abschnitte führen Sie Schritt für Schritt durch den Aufbau dieses Systems — von der Installation der notwendigen Raycast-Extension bis zur Konfiguration von Hotkeys, die den gesamten Workflow wie ein natives OS-Feature anfühlen lassen.
Hinweis: Alles in diesem Leitfaden läuft vollständig auf dem Gerät. Keine API-Schlüssel, keine Abonnements, keine Telemetrie. Ihre Prompts und Antworten verlassen niemals Ihren Mac.
Step 2 Voraussetzungen: Raycast-Einrichtung
Bevor Sie in die Ollama-Integration eintauchen, benötigen Sie eine korrekt konfigurierte Raycast-Umgebung. Dieses Fundament zu überspringen wird später Reibung erzeugen — lassen Sie uns das von Anfang an richtig machen.
Was Sie benötigen
| Anforderung |
Version |
Hinweise |
| Raycast |
1.50.0+ |
Pro-Plan für KI-Features erforderlich |
| macOS |
12 Monterey+ |
Ventura oder Sonoma dringend empfohlen |
| Ollama |
0.1.20+ |
Muss als lokaler Dienst laufen |
| RAM |
8 GB Minimum |
16 GB+ empfohlen für größere Modelle |
Raycast installieren
Falls Sie Raycast noch nicht installiert haben, ist der Vorgang unkompliziert. Laden Sie die neueste stabile Version direkt von raycast.com herunter oder installieren Sie sie über Homebrew:
Terminal
brew install --cask raycast
Nach der Installation starten Sie Raycast und schließen Sie das initiale Onboarding ab. Ersetzen Sie Spotlight sofort — das ist nicht verhandelbar für den Workflow, den wir aufbauen. Navigieren Sie zu:
Terminal
System Settings → Keyboard → Keyboard Shortcuts → Spotlight
Deaktivieren Sie Show Spotlight search von ⌘Space und weisen Sie ⌘Space in den Raycast-Einstellungen unter General → Raycast Hotkey zu.
Ihre Raycast-Version verifizieren
Die Ollama-Extension erfordert, dass Raycasts Extension-API benutzerdefinierte Modell-Endpunkte unterstützt. Öffnen Sie die Raycast-Einstellungen und bestätigen Sie Ihren Build:
Terminal
Raycast → About Raycast → Build Number
Alternativ führen Sie diese schnelle Prüfung im Terminal aus:
Terminal
defaults read com.raycast.macos CFBundleShortVersionString
Wenn Sie mit Ihrer Version hinterherhinken, übernimmt das eingebaute Update-System die Aktualisierung:
Terminal
Raycast → Check for Updates
Extensions in Raycast aktivieren
Standardmäßig ist der Raycast-Extension-Store zugänglich, aber Sie möchten sicherstellen, dass der Tab Extensions freigeschaltet und der Store erreichbar ist. Öffnen Sie die Raycast-Einstellungen mit ⌘, und bestätigen Sie, dass Sie ohne Fehler zum Tab Extensions navigieren können.
Kritische Einstellung, die vor dem Fortfahren aktiviert werden muss:
Navigieren Sie zu Raycast Preferences → Extensions und stellen Sie sicher, dass "Allow Extension Installation from Store" aktiviert ist. Ohne diese Einstellung schlägt die Installation der Ollama-Extension im nächsten Schritt lautlos fehl.
Bestätigen, dass Ollama läuft
Raycast benötigt eine aktive Ollama-Instanz, mit der es kommunizieren kann. Bevor Sie irgendetwas in Raycast konfigurieren, vergewissern Sie sich, dass Ollama aktiv und reaktionsfähig ist:
Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags
# Expected response (example)
{
"models": [
{
"name": "llama3:latest",
"modified_at": "2024-01-15T10:30:00Z",
"size": 4661211584
}
]
}
Wenn der curl-Befehl eine Zeitüberschreitung verursacht oder einen Verbindungsfehler zurückgibt, starten Sie Ollama manuell:
Pro-Tipp: Fügen Sie Ollama zu Ihren macOS-Anmeldeobjekten hinzu, damit es automatisch startet. Navigieren Sie zu System Settings → General → Login Items und fügen Sie die Ollama-Anwendung hinzu. So stellt Raycast sicher, dass immer ein Modell-Backend verfügbar ist, sobald Sie Ihren Mac aufwecken.
Netzwerkberechtigungen
macOS fordert beim ersten Versuch von Raycast, Ihre lokale Ollama-Instanz zu erreichen, nach Netzwerkzugriffsberechtigungen. Klicken Sie ohne Zögern auf "Allow" — dies ist localhost-Kommunikation, kein externer Netzwerkzugriff. Falls Sie die Aufforderung versehentlich abgelehnt haben, setzen Sie sie zurück via:
Terminal
tccutil reset All com.raycast.macos
Mit diesen gesicherten Voraussetzungen ist Ihre Umgebung vorbereitet und bereit für die Extension-Installation.
Step 3 Schritt 1: Die Raycast-Ollama-Extension installieren
Mit lokal laufendem Ollama und installiertem Raycast ist die Brücke zwischen Ihrem systemweiten Launcher und Ihren lokalen KI-Modellen eine einzige Extension. Dieser Abschnitt führt Sie durch den präzisen Installationsprozess und stellt sicher, dass bei jedem Schritt keinerlei Mehrdeutigkeit besteht.
Die Extension im Raycast-Store finden
Raycast pflegt einen kuratierten Extension-Marktplatz, der direkt aus der App zugänglich ist. So navigieren Sie dorthin:
- Öffnen Sie Raycast mit Ihrem konfigurierten Hotkey (Standard:
⌥ Space)
- Tippen Sie "Store" und wählen Sie Raycast Store
- Tippen Sie in der Suchleiste
Ollama
- Suchen Sie die Extension mit dem Titel "Ollama AI" — von der Community erstellt und vom Raycast-Team geprüft
Alternativ können Sie sie direkt über das Web installieren:
Terminal
https://www.raycast.com/massimiliano_pasquini/raycast-ollama
Klicken Sie auf "Install Extension" auf der Webseite, und Raycast wird per Deep-Link direkt in die Installationsaufforderung auf Ihrem Rechner geleitet.
Installation über die Raycast CLI (Power-User-Methode)
Wenn Sie terminalbasierte Workflows bevorzugen, unterstützt Raycast die Extension-Verwaltung über seine CLI-Toolchain. Stellen Sie zunächst sicher, dass die Raycast CLI installiert ist:
Terminal
# Install Raycast CLI via npm
npm install -g @raycast/api
# Verify installation
raycast --version
Hinweis: Die CLI-Methode ist primär für die Entwicklung von Extensions gedacht, nicht für die Endbenutzer-Installation. Für den Produktiveinsatz wird die Store-UI-Methode empfohlen.
Walkthrough der Extension-Installation
Sobald Sie in der Store-UI oder im Webportal auf Install geklickt haben, erscheint folgende Berechtigungsaufforderung in Raycast:
| Angeforderte Berechtigung |
Grund |
| Netzwerkzugriff |
Kommuniziert mit Olamas lokalem HTTP-API |
| Zwischenablage Lesen/Schreiben |
Ermöglicht Text-Transformationsbefehle |
| Systemdienste |
Erlaubt KI-Antworten, in aktive Apps injiziert zu werden |
Akzeptieren Sie alle Berechtigungen — keine davon erreicht das Internet. Jede Anfrage wird ausschließlich an localhost geleitet, was bedeutet, dass Ihre Daten niemals Ihren Rechner verlassen.
Die Installation verifizieren
Nach der Installation bestätigen Sie, dass die Extension aktiv ist:
- Öffnen Sie Raycast (
⌥ Space)
- Tippen Sie
Ollama — Sie sollten sofort eine Reihe von Befehlen sehen:
- Ollama: Chat
- Ollama: Ask
- Ollama: Summarize
- Ollama: Fix Grammar
- Wählen Sie
Ollama: Chat und drücken Sie ↵
Wenn Ollama läuft (ollama serve in Ihrem Terminal), gelangen Sie direkt in eine interaktive Chat-Sitzung. Falls ein Verbindungsfehler erscheint, verifizieren Sie, dass der Daemon aktiv ist:
Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags
# Expected output (truncated):
# {"models":[{"name":"llama3.2:latest",...}]}
# If not running, start it:
ollama serve
Ihr erstes Modell herunterladen (falls noch nicht geschehen)
Die Extension erfordert mindestens ein lokal heruntergeladenes Modell, bevor Befehle ausgeführt werden. Ein schnelles, leistungsfähiges Standard-Modell für den allgemeinen Einsatz:
Terminal
# Lightweight and fast — ideal for system-wide commands
ollama pull llama3.2
# Higher capability for complex tasks (requires more RAM)
ollama pull mistral
# Verify models are available
ollama list
Zu diesem Zeitpunkt ist die Extension installiert, verbunden und einsatzbereit. Der nächste Schritt befasst sich mit der präzisen API-Konfiguration — der Feinabstimmung von Endpunkt, Port und Antwortverhalten entsprechend Ihrer genauen Hardware- und Workflow-Anforderungen.
Step 4 Schritt 2: API-Endpunkte und Ports konfigurieren
Mit der installierten Raycast-Ollama-Extension ist der nächste kritische Schritt sicherzustellen, dass Raycast tatsächlich mit Ihrer lokalen Ollama-Instanz kommunizieren kann. Dies erfordert ein solides Verständnis davon, wie Ollama seine API exponiert und wie die Extension so konfiguriert wird, dass sie auf den korrekten Endpunkt zeigt.
Olamas Standard-Netzwerkkonfiguration verstehen
Standardmäßig betreibt Ollama einen lokalen REST-API-Server unter folgender Adresse:
Dies ist der mit Abstand wichtigste Wert, den Sie konfigurieren werden. Jede KI-Anfrage, die Raycast stellt — ob Textzusammenfassung, Code-Erklärung oder Grammatikkorrektur — wird als HTTP-Anfrage über diesen Endpunkt an die auf Ihrem Rechner laufende Ollama-Inferenz-Engine geleitet.
Sie können jederzeit überprüfen, ob Ollama aktiv und erreichbar ist, indem Sie den Health-Endpunkt direkt aus Ihrem Terminal aufrufen:
Terminal
curl http://localhost:11434
# Expected output: Ollama is running
Wenn dies einen Fehler zurückgibt, läuft Ollama nicht. Starten Sie es mit:
Pro-Tipp: Unter macOS, wenn Sie Ollama über die .dmg-GUI-Anwendung installiert haben, läuft es automatisch als Menüleisten-Prozess. Wenn Sie es über Homebrew installiert haben, müssen Sie es möglicherweise manuell starten oder einen launchd-Dienst konfigurieren.
Den Extension-Endpunkt in Raycast konfigurieren
Öffnen Sie Raycast (⌘ Space standardmäßig), tippen Sie Extensions und navigieren Sie zu den Ollama-Extension-Einstellungen. Sie finden folgende konfigurierbare Felder:
| Einstellung |
Standardwert |
Beschreibung |
| Ollama API URL |
http://localhost:11434 |
Basis-URL für den lokalen Ollama-Server |
| Request Timeout |
60000 ms |
Maximale Wartezeit, bevor eine Anfrage fehlschlägt |
| Default Model |
(benutzerdefiniert) |
Modell, das verwendet wird, wenn keine Überschreibung angegeben ist |
Setzen Sie die Ollama API URL auf http://localhost:11434, es sei denn, Sie haben Olamas Standard-Port bewusst geändert. Falls Sie Ollama auf einem anderen Port betreiben — beispielsweise um Konflikte mit anderen lokalen Diensten zu vermeiden — können Sie diesen beim Start überschreiben:
Terminal
OLLAMA_HOST=0.0.0.0:11435 ollama serve
In diesem Fall aktualisieren Sie die Raycast-Extension-URL entsprechend:
Remote- und Netzwerk-Ollama-Instanzen handhaben
Eine unterschätzte Fähigkeit dieses Setups ist, dass Raycast Ollama nicht zwingend lokal laufen lassen muss. Falls Sie Ollama auf einem Remote-Rechner, einem NAS oder einem dedizierten GPU-Server in Ihrem lokalen Netzwerk betreiben, können Sie Raycast stattdessen auf die IP-Adresse dieser Maschine zeigen lassen:
Terminal
http://192.168.1.50:11434
Wichtiger Sicherheitshinweis: Standardmäßig bindet sich Ollama nur an localhost. Um es auf einem Netzwerk-Interface zu exponieren, müssen Sie dies explizit setzen:
Terminal
OLLAMA_HOST=0.0.0.0:11434 ollama serve
Exponieren Sie diesen Port niemals ohne Authentifizierung im öffentlichen Internet. Ollama verfügt über keine eingebaute Authentifizierungsschicht — behandeln Sie ihn wie einen offenen Datenbank-Port und sichern Sie ihn entsprechend mit einer Firewall ab.
Modell-Verfügbarkeit bestätigen
Bevor Sie fortfahren, vergewissern Sie sich, dass Ihre Zielmodelle heruntergeladen und über die API verfügbar sind:
Terminal
curl http://localhost:11434/api/tags | jq '.models[].name'
Dies gibt eine Liste aller lokal verfügbaren Modelle zurück. Die Raycast-Extension befüllt ihre Modell-Auswahl aus dieser Liste, daher muss jedes Modell, das Sie in einem benutzerdefinierten Befehl verwenden möchten, zuvor mit ollama pull <model-name> heruntergeladen worden sein.
Mit konfiguriertem Endpunkt und bestätigten Modellen verfügt Raycast nun über einen klaren, latenzarmen Kanal zu Ihrer lokalen KI — null Cloud-Abhängigkeiten, null API-Kosten und Sub-Sekunden-Antwortzeiten auf leistungsfähiger Hardware.
Step 5 Benutzerdefinierte KI-Befehle erstellen (Zusammenfassen, Umschreiben, Grammatik korrigieren)
Mit Ihrer konfigurierten Ollama-Extension, die mit Ihren lokalen Modellen kommuniziert, entfaltet sich die wahre Stärke durch den Aufbau zweckgebundener KI-Befehle, die von überall auf Ihrem Mac sofort ausgelöst werden können. Raycasts Skripting-System ermöglicht es Ihnen, Befehle zu erstellen, die exakt auf Ihren Workflow zugeschnitten sind — kein Copy-Paste in ein Chat-Interface, kein Context-Switching.
Raycast-KI-Extensions vs. Custom Scripts verstehen
Raycast bietet zwei Wege für benutzerdefinierte KI-Befehle:
- Extensions-basierte Befehle — Erstellt über das Prompt-Konfigurationspanel der Raycast-Ollama-Extension
- Script-Befehle — Shell- oder JavaScript-Skripte, die die Ollama-API direkt aufrufen
Für die meisten Nutzer deckt der Extensions-basierte Ansatz 90% der Anwendungsfälle ab. Für fortgeschrittene Pipelines geben Script-Befehle volle Kontrolle.
Prompts in der Ollama-Extension konfigurieren
Öffnen Sie Raycast, suchen Sie nach "Ollama" und navigieren Sie zu Custom Commands. Jeder Befehl erfordert:
| Feld |
Beschreibung |
Beispiel |
| Name |
Befehlsbezeichner in Raycast |
Summarize Selection |
| Model |
Welches Ollama-Modell verwendet werden soll |
llama3.2 |
| System Prompt |
Persistente Anweisung an das Modell |
You are a concise summarizer. |
| User Prompt Template |
Dynamischer Prompt mit der Variable {selection} |
Summarize this in 3 bullet points: {selection} |
| Output |
Wo das Ergebnis erscheint |
Zwischenablage / HUD / Detailansicht |
Die drei unverzichtbaren Befehle
1. Zusammenfassen (Summarize)
Dieser Befehl destilliert beliebigen markierten Text — E-Mails, Artikel, Dokumentation — in übersichtliche Stichpunkte.
System Prompt:
Terminal
You are a precise summarization assistant. Extract only the essential information. Never add opinions or information not present in the source text. Respond only with the summary, no preamble.
User Prompt:
Terminal
Summarize the following text into 3-5 concise bullet points:
{selection}
Setzen Sie Output auf Detail View, damit längere Zusammenfassungen lesbar bleiben, ohne Ihre Zwischenablage zu belasten.
2. Umschreiben (Rewrite)
Der Umschreibe-Befehl verwandelt unbeholfene Prosa in poliertes, professionelles Schreiben. Ideal für Slack-Nachrichten, Dokumentation und E-Mails.
System Prompt:
Terminal
You are an expert editor and technical writer. Rewrite the provided text to be clear, concise, and professional. Preserve the original meaning and tone intent. Return only the rewritten text with no explanation.
User Prompt:
Terminal
Rewrite the following to be clearer and more professional:
{selection}
Setzen Sie Output auf Clipboard, damit Sie die verbesserte Version sofort mit ⌘V einfügen können.
3. Grammatik korrigieren (Fix Grammar)
Chirurgische Grammatikkorrektur ohne Veränderung Ihres Stils — unverzichtbar für Entwickler, die Dokumentation schreiben, oder Nicht-Muttersprachler des Englischen.
System Prompt:
Terminal
You are a grammar correction tool. Fix all grammatical errors, punctuation mistakes, and spelling issues in the provided text. Do not change the writing style, tone, or word choices unless grammatically necessary. Return only the corrected text.
User Prompt:
Terminal
Fix the grammar and punctuation in the following text:
{selection}
Fortgeschritten: Script-Befehl für Stapelverarbeitung
Für Power-User, die programmatische Kontrolle benötigen, rufen Sie Olamas REST-API direkt über einen Raycast-Script-Befehl auf:
Terminal
#!/bin/bash
# Required parameters:
# @raycast.schemaVersion 1
# @raycast.title Fix Grammar (Script)
# @raycast.mode silent
SELECTION=$(pbpaste)
RESPONSE=$(curl -s http://localhost:11434/api/generate \
-H "Content-Type: application/json" \
-d "{
\"model\": \"llama3.2\",
\"prompt\": \"Fix grammar only, return corrected text: ${SELECTION}\",
\"stream\": false
}" | python3 -c "import sys, json; print(json.load(sys.stdin)['response'])")
echo "$RESPONSE" | pbcopy
Speichern Sie dies als fix-grammar.sh, machen Sie es mit chmod +x fix-grammar.sh ausführbar und legen Sie es in ~/.config/raycast/scripts/ ab.
Modell-Auswahlstrategie
Nicht jede Aufgabe erfordert Ihr leistungsstärkstes Modell. Passen Sie die Modellgröße an die Befehlskomplexität an:
| Befehl |
Empfohlenes Modell |
Warum |
| Grammatik korrigieren |
phi3 oder gemma2:2b |
Schnell, leichtgewichtig, einfache Aufgabe |
| Umschreiben |
llama3.2 |
Ausgewogene Qualität und Geschwindigkeit |
| Zusammenfassen |
llama3.2 oder mistral |
Erfordert Verständnistiefe |
Pro-Tipp: Kleinere Modelle antworten auf Apple Silicon in unter einer Sekunde — für Grammatikkorrekturen ist dieser Geschwindigkeitsunterschied transformativ, wenn Sie den Befehl Dutzende Male täglich verwenden.
Step 6 Hotkeys für blitzschnellen Zugriff optimieren
Der Unterschied zwischen einem guten KI-Workflow und einem großartigen liegt in der Reibung. Jeder zusätzliche Klick, jeder Kontextwechsel, jeder Moment, in dem Sie nach einem Menü greifen, ist kognitiver Overhead, der Ihren Flow-State unterbricht. Hotkeys eliminieren diese Reibung vollständig — sie verwandeln KI-Assistenz von einem bewussten Werkzeug in eine unsichtbare Erweiterung Ihres Denkens.
Die Raycast-Hotkey-Architektur
Raycast unterstützt zwei verschiedene Ebenen der Tastenkürzel-Zuweisung:
| Ebene |
Geltungsbereich |
Am besten geeignet für |
| Globaler Hotkey |
Systemweit, funktioniert in jeder App |
Ihren meistgenutzten KI-Befehl |
| Extension-Hotkey |
Löst spezifische Extension-Befehle aus |
Häufig verwendete, aber sekundäre Befehle |
| Alias |
Öffnet Raycast + füllt Befehl vor |
Schneller Zugriff ohne vollständige Namen auswendig zu lernen |
| Quicklink |
Raycast-Shortcut zu einem spezifischen Prompt |
Vorlagenbasierte, wiederholbare KI-Aufgaben |
Hotkeys zu Ihren KI-Befehlen zuweisen
Navigieren Sie zu Raycast Preferences → Extensions → Ollama AI und suchen Sie jeden benutzerdefinierten Befehl, den Sie im vorherigen Abschnitt erstellt haben. Klicken Sie auf das Hotkey-Feld neben einem Befehl und drücken Sie Ihre gewünschte Tastenkombination.
Empfohlenes Hotkey-Schema für KI-Befehle:
Terminal
⌥ + Space → Open Raycast (main launcher)
⌃ + ⌥ + S → AI Summarize (selected text)
⌃ + ⌥ + R → AI Rewrite (selected text)
⌃ + ⌥ + G → Fix Grammar (selected text)
⌃ + ⌥ + O → Open Ollama Chat (freeform)
Pro-Tipp: Verwenden Sie Control (⌃) + Option (⌥) als Modifier-Präfix für alle KI-Befehle. Diese Kombination wird selten von macOS-Systemkürzeln oder anderen Anwendungen beansprucht und gibt Ihnen damit einen sauberen, konfliktfreien Namespace.
Hotkey-Konflikte vermeiden
Bevor Sie ein Kürzel finalisieren, prüfen Sie, ob es nicht bereits vergeben ist:
Terminal
# Check system-level shortcuts via defaults
defaults read com.apple.symbolichotkeys AppleSymbolicHotKeys
Sie können auch zu System Settings → Keyboard → Keyboard Shortcuts navigieren und jede Kategorie durchsehen. Häufige Konfliktzonen sind:
- Mission Control beansprucht die meisten
⌃ + Pfeil-Kombinationen
- Spotlight nutzt standardmäßig
⌘ + Space
- Screenshot-Tools belegen mehrere
⌘ + Shift + Zahl-Slots
- Drittanbieter-Apps wie Alfred, 1Password oder Magnet