Systemweite Mac-KI: Ollama mit Raycast verbinden

laptop_mac macOS Sonoma Intermediate schedule 8 min read
Author by Alex Rivera • May 14, 2024

Step 1 KI systemweit auf macOS entfesseln

Der moderne macOS-Poweruser bewegt sich in einer fragmentierten KI-Landschaft — Browser-Tabs mit ChatGPT, separate Apps für Schreibassistenz und ständiges Context-Switching, das den Flow-State zerstört. Was wäre, wenn Ihre KI nicht in einem Browser-Fenster isoliert wäre, sondern direkt in das Betriebssystem eingewoben — sofort verfügbar, wenn Sie sie brauchen, in Millisekunden reagierend, bei null Datentransfer außerhalb Ihrer Maschine?

Genau das geschieht, wenn Sie Ollama mit Raycast verbinden. Die Kombination verändert die Art und Weise, wie Sie mit Ihrem Mac interagieren, auf grundlegende Weise.

Warum diese Architektur anders ist

Die meisten KI-Integrationen folgen demselben Muster: Eine App öffnen, einen Prompt eingeben, auf eine Cloud-Antwort warten, die Ausgabe kopieren. Dieser Workflow erzeugt kognitiven Overhead bei jedem einzelnen Schritt. Raycast + Ollama durchbricht dieses Muster vollständig, indem KI als erstklassiges System-Primitiv positioniert wird.

Ansatz Latenz Datenschutz Offline-Unterstützung Kontextbewusstsein
Browser-basiertes ChatGPT Hoch (Netzwerk-Roundtrip) ❌ Daten werden an OpenAI gesendet ❌ Erfordert Internet Begrenzt
Native KI-Apps Mittel Variiert Manchmal Minimal
Raycast + Ollama Ultra-niedrig (localhost) ✅ 100% lokal ✅ Vollständig offline Tief (systemweit)

Was Ollama zur Gleichung beiträgt

Ollama ist ein schlanker Inferenz-Server, der große Sprachmodelle lokal auf Apple Silicon ausführt. Er stellt eine saubere REST-API auf http://localhost:11434 bereit und macht es anderen Tools trivial einfach, diese zu konsumieren. Modelle wie Llama 3, Mistral, Phi-3 und Gemma 2 laufen mit beeindruckender Geschwindigkeit auf M-Series-Chips und erreichen oder übertreffen dabei häufig die Antwortzeiten von Cloud-Modellen bei typischen Aufgaben.

Terminal
# Verify Ollama is running and listening
curl http://localhost:11434/api/tags

# Expected output: a JSON list of your locally installed models

Sobald Ollama als Hintergrunddienst läuft, wird es zu einem persistenten KI-Backbone, den jede entsprechend konfigurierte Anwendung abfragen kann — einschließlich Raycast.

Was Raycast zur Gleichung beiträgt

Raycast ist ein systemweiter Command Launcher, der Spotlight für Hunderttausende von Mac-Nutzern effektiv ersetzt hat. Sein Extension-Ökosystem ermöglicht die Integration mit nahezu allem, und sein KI-Befehls-Framework erlaubt es, markierten Text, Clipboard-Inhalte oder frei formulierte Prompts direkt an jeden LLM-Endpunkt zu übergeben.

Die entscheidende Erkenntnis hier: Raycast-Befehle sind von überall in macOS aus verfügbar. Ob Sie in Xcode eine Funktion prüfen, in Notion ein Dokument verfassen, in Slack eine Nachricht schreiben oder in Terminal ein Skript debuggen — ein einziger Hotkey bringt KI zu dem, woran Sie gerade arbeiten, ohne App-Wechsel.

Die Stärke der Komposierbarkeit

Was dieses Setup wirklich mächtig macht, ist kein einzelnes Feature — es ist die Komposierbarkeit. Sie können:

  • Code in einem beliebigen Editor markieren → einen Raycast-KI-Befehl aufrufen → eine Erklärung direkt in die Zwischenablage bekommen
  • Einen dichten Absatz in Safari hervorheben → ihn in einfacher Sprache zusammenfassen lassen, ohne die Seite zu verlassen
  • Eine Fehlermeldung aus dem Terminal greifen → sie durch einen Debugging-Prompt laufen lassen → die Lösung sofort wieder einfügen

Dies ist der Unterschied zwischen KI als einem Werkzeug, das Sie aufsuchen, und KI als einer Fähigkeit, die Sie bei sich tragen. Die folgenden Abschnitte führen Sie Schritt für Schritt durch den Aufbau dieses Systems — von der Installation der notwendigen Raycast-Extension bis zur Konfiguration von Hotkeys, die den gesamten Workflow wie ein natives OS-Feature anfühlen lassen.

Hinweis: Alles in diesem Leitfaden läuft vollständig auf dem Gerät. Keine API-Schlüssel, keine Abonnements, keine Telemetrie. Ihre Prompts und Antworten verlassen niemals Ihren Mac.

Step 2 Voraussetzungen: Raycast-Einrichtung

Bevor Sie in die Ollama-Integration eintauchen, benötigen Sie eine korrekt konfigurierte Raycast-Umgebung. Dieses Fundament zu überspringen wird später Reibung erzeugen — lassen Sie uns das von Anfang an richtig machen.

Was Sie benötigen

Anforderung Version Hinweise
Raycast 1.50.0+ Pro-Plan für KI-Features erforderlich
macOS 12 Monterey+ Ventura oder Sonoma dringend empfohlen
Ollama 0.1.20+ Muss als lokaler Dienst laufen
RAM 8 GB Minimum 16 GB+ empfohlen für größere Modelle

Raycast installieren

Falls Sie Raycast noch nicht installiert haben, ist der Vorgang unkompliziert. Laden Sie die neueste stabile Version direkt von raycast.com herunter oder installieren Sie sie über Homebrew:

Terminal
brew install --cask raycast

Nach der Installation starten Sie Raycast und schließen Sie das initiale Onboarding ab. Ersetzen Sie Spotlight sofort — das ist nicht verhandelbar für den Workflow, den wir aufbauen. Navigieren Sie zu:

Terminal
System Settings → Keyboard → Keyboard Shortcuts → Spotlight

Deaktivieren Sie Show Spotlight search von ⌘Space und weisen Sie ⌘Space in den Raycast-Einstellungen unter General → Raycast Hotkey zu.


Ihre Raycast-Version verifizieren

Die Ollama-Extension erfordert, dass Raycasts Extension-API benutzerdefinierte Modell-Endpunkte unterstützt. Öffnen Sie die Raycast-Einstellungen und bestätigen Sie Ihren Build:

Terminal
Raycast → About Raycast → Build Number

Alternativ führen Sie diese schnelle Prüfung im Terminal aus:

Terminal
defaults read com.raycast.macos CFBundleShortVersionString

Wenn Sie mit Ihrer Version hinterherhinken, übernimmt das eingebaute Update-System die Aktualisierung:

Terminal
Raycast → Check for Updates

Extensions in Raycast aktivieren

Standardmäßig ist der Raycast-Extension-Store zugänglich, aber Sie möchten sicherstellen, dass der Tab Extensions freigeschaltet und der Store erreichbar ist. Öffnen Sie die Raycast-Einstellungen mit ⌘, und bestätigen Sie, dass Sie ohne Fehler zum Tab Extensions navigieren können.

Kritische Einstellung, die vor dem Fortfahren aktiviert werden muss:

Navigieren Sie zu Raycast Preferences → Extensions und stellen Sie sicher, dass "Allow Extension Installation from Store" aktiviert ist. Ohne diese Einstellung schlägt die Installation der Ollama-Extension im nächsten Schritt lautlos fehl.


Bestätigen, dass Ollama läuft

Raycast benötigt eine aktive Ollama-Instanz, mit der es kommunizieren kann. Bevor Sie irgendetwas in Raycast konfigurieren, vergewissern Sie sich, dass Ollama aktiv und reaktionsfähig ist:

Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags

# Expected response (example)
{
  "models": [
    {
      "name": "llama3:latest",
      "modified_at": "2024-01-15T10:30:00Z",
      "size": 4661211584
    }
  ]
}

Wenn der curl-Befehl eine Zeitüberschreitung verursacht oder einen Verbindungsfehler zurückgibt, starten Sie Ollama manuell:

Terminal
ollama serve

Pro-Tipp: Fügen Sie Ollama zu Ihren macOS-Anmeldeobjekten hinzu, damit es automatisch startet. Navigieren Sie zu System Settings → General → Login Items und fügen Sie die Ollama-Anwendung hinzu. So stellt Raycast sicher, dass immer ein Modell-Backend verfügbar ist, sobald Sie Ihren Mac aufwecken.


Netzwerkberechtigungen

macOS fordert beim ersten Versuch von Raycast, Ihre lokale Ollama-Instanz zu erreichen, nach Netzwerkzugriffsberechtigungen. Klicken Sie ohne Zögern auf "Allow" — dies ist localhost-Kommunikation, kein externer Netzwerkzugriff. Falls Sie die Aufforderung versehentlich abgelehnt haben, setzen Sie sie zurück via:

Terminal
tccutil reset All com.raycast.macos

Mit diesen gesicherten Voraussetzungen ist Ihre Umgebung vorbereitet und bereit für die Extension-Installation.

Step 3 Schritt 1: Die Raycast-Ollama-Extension installieren

Mit lokal laufendem Ollama und installiertem Raycast ist die Brücke zwischen Ihrem systemweiten Launcher und Ihren lokalen KI-Modellen eine einzige Extension. Dieser Abschnitt führt Sie durch den präzisen Installationsprozess und stellt sicher, dass bei jedem Schritt keinerlei Mehrdeutigkeit besteht.

Die Extension im Raycast-Store finden

Raycast pflegt einen kuratierten Extension-Marktplatz, der direkt aus der App zugänglich ist. So navigieren Sie dorthin:

  1. Öffnen Sie Raycast mit Ihrem konfigurierten Hotkey (Standard: ⌥ Space)
  2. Tippen Sie "Store" und wählen Sie Raycast Store
  3. Tippen Sie in der Suchleiste Ollama
  4. Suchen Sie die Extension mit dem Titel "Ollama AI" — von der Community erstellt und vom Raycast-Team geprüft

Alternativ können Sie sie direkt über das Web installieren:

Terminal
https://www.raycast.com/massimiliano_pasquini/raycast-ollama

Klicken Sie auf "Install Extension" auf der Webseite, und Raycast wird per Deep-Link direkt in die Installationsaufforderung auf Ihrem Rechner geleitet.


Installation über die Raycast CLI (Power-User-Methode)

Wenn Sie terminalbasierte Workflows bevorzugen, unterstützt Raycast die Extension-Verwaltung über seine CLI-Toolchain. Stellen Sie zunächst sicher, dass die Raycast CLI installiert ist:

Terminal
# Install Raycast CLI via npm
npm install -g @raycast/api

# Verify installation
raycast --version

Hinweis: Die CLI-Methode ist primär für die Entwicklung von Extensions gedacht, nicht für die Endbenutzer-Installation. Für den Produktiveinsatz wird die Store-UI-Methode empfohlen.


Walkthrough der Extension-Installation

Sobald Sie in der Store-UI oder im Webportal auf Install geklickt haben, erscheint folgende Berechtigungsaufforderung in Raycast:

Angeforderte Berechtigung Grund
Netzwerkzugriff Kommuniziert mit Olamas lokalem HTTP-API
Zwischenablage Lesen/Schreiben Ermöglicht Text-Transformationsbefehle
Systemdienste Erlaubt KI-Antworten, in aktive Apps injiziert zu werden

Akzeptieren Sie alle Berechtigungen — keine davon erreicht das Internet. Jede Anfrage wird ausschließlich an localhost geleitet, was bedeutet, dass Ihre Daten niemals Ihren Rechner verlassen.


Die Installation verifizieren

Nach der Installation bestätigen Sie, dass die Extension aktiv ist:

  1. Öffnen Sie Raycast (⌥ Space)
  2. Tippen Sie Ollama — Sie sollten sofort eine Reihe von Befehlen sehen: - Ollama: Chat - Ollama: Ask - Ollama: Summarize - Ollama: Fix Grammar
  3. Wählen Sie Ollama: Chat und drücken Sie

Wenn Ollama läuft (ollama serve in Ihrem Terminal), gelangen Sie direkt in eine interaktive Chat-Sitzung. Falls ein Verbindungsfehler erscheint, verifizieren Sie, dass der Daemon aktiv ist:

Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags

# Expected output (truncated):
# {"models":[{"name":"llama3.2:latest",...}]}

# If not running, start it:
ollama serve

Ihr erstes Modell herunterladen (falls noch nicht geschehen)

Die Extension erfordert mindestens ein lokal heruntergeladenes Modell, bevor Befehle ausgeführt werden. Ein schnelles, leistungsfähiges Standard-Modell für den allgemeinen Einsatz:

Terminal
# Lightweight and fast — ideal for system-wide commands
ollama pull llama3.2

# Higher capability for complex tasks (requires more RAM)
ollama pull mistral

# Verify models are available
ollama list

Zu diesem Zeitpunkt ist die Extension installiert, verbunden und einsatzbereit. Der nächste Schritt befasst sich mit der präzisen API-Konfiguration — der Feinabstimmung von Endpunkt, Port und Antwortverhalten entsprechend Ihrer genauen Hardware- und Workflow-Anforderungen.

Step 4 Schritt 2: API-Endpunkte und Ports konfigurieren

Mit der installierten Raycast-Ollama-Extension ist der nächste kritische Schritt sicherzustellen, dass Raycast tatsächlich mit Ihrer lokalen Ollama-Instanz kommunizieren kann. Dies erfordert ein solides Verständnis davon, wie Ollama seine API exponiert und wie die Extension so konfiguriert wird, dass sie auf den korrekten Endpunkt zeigt.

Olamas Standard-Netzwerkkonfiguration verstehen

Standardmäßig betreibt Ollama einen lokalen REST-API-Server unter folgender Adresse:

Terminal
http://localhost:11434

Dies ist der mit Abstand wichtigste Wert, den Sie konfigurieren werden. Jede KI-Anfrage, die Raycast stellt — ob Textzusammenfassung, Code-Erklärung oder Grammatikkorrektur — wird als HTTP-Anfrage über diesen Endpunkt an die auf Ihrem Rechner laufende Ollama-Inferenz-Engine geleitet.

Sie können jederzeit überprüfen, ob Ollama aktiv und erreichbar ist, indem Sie den Health-Endpunkt direkt aus Ihrem Terminal aufrufen:

Terminal
curl http://localhost:11434
# Expected output: Ollama is running

Wenn dies einen Fehler zurückgibt, läuft Ollama nicht. Starten Sie es mit:

Terminal
ollama serve

Pro-Tipp: Unter macOS, wenn Sie Ollama über die .dmg-GUI-Anwendung installiert haben, läuft es automatisch als Menüleisten-Prozess. Wenn Sie es über Homebrew installiert haben, müssen Sie es möglicherweise manuell starten oder einen launchd-Dienst konfigurieren.


Den Extension-Endpunkt in Raycast konfigurieren

Öffnen Sie Raycast (⌘ Space standardmäßig), tippen Sie Extensions und navigieren Sie zu den Ollama-Extension-Einstellungen. Sie finden folgende konfigurierbare Felder:

Einstellung Standardwert Beschreibung
Ollama API URL http://localhost:11434 Basis-URL für den lokalen Ollama-Server
Request Timeout 60000 ms Maximale Wartezeit, bevor eine Anfrage fehlschlägt
Default Model (benutzerdefiniert) Modell, das verwendet wird, wenn keine Überschreibung angegeben ist

Setzen Sie die Ollama API URL auf http://localhost:11434, es sei denn, Sie haben Olamas Standard-Port bewusst geändert. Falls Sie Ollama auf einem anderen Port betreiben — beispielsweise um Konflikte mit anderen lokalen Diensten zu vermeiden — können Sie diesen beim Start überschreiben:

Terminal
OLLAMA_HOST=0.0.0.0:11435 ollama serve

In diesem Fall aktualisieren Sie die Raycast-Extension-URL entsprechend:

Terminal
http://localhost:11435

Remote- und Netzwerk-Ollama-Instanzen handhaben

Eine unterschätzte Fähigkeit dieses Setups ist, dass Raycast Ollama nicht zwingend lokal laufen lassen muss. Falls Sie Ollama auf einem Remote-Rechner, einem NAS oder einem dedizierten GPU-Server in Ihrem lokalen Netzwerk betreiben, können Sie Raycast stattdessen auf die IP-Adresse dieser Maschine zeigen lassen:

Terminal
http://192.168.1.50:11434

Wichtiger Sicherheitshinweis: Standardmäßig bindet sich Ollama nur an localhost. Um es auf einem Netzwerk-Interface zu exponieren, müssen Sie dies explizit setzen:

Terminal
OLLAMA_HOST=0.0.0.0:11434 ollama serve

Exponieren Sie diesen Port niemals ohne Authentifizierung im öffentlichen Internet. Ollama verfügt über keine eingebaute Authentifizierungsschicht — behandeln Sie ihn wie einen offenen Datenbank-Port und sichern Sie ihn entsprechend mit einer Firewall ab.


Modell-Verfügbarkeit bestätigen

Bevor Sie fortfahren, vergewissern Sie sich, dass Ihre Zielmodelle heruntergeladen und über die API verfügbar sind:

Terminal
curl http://localhost:11434/api/tags | jq '.models[].name'

Dies gibt eine Liste aller lokal verfügbaren Modelle zurück. Die Raycast-Extension befüllt ihre Modell-Auswahl aus dieser Liste, daher muss jedes Modell, das Sie in einem benutzerdefinierten Befehl verwenden möchten, zuvor mit ollama pull <model-name> heruntergeladen worden sein.

Mit konfiguriertem Endpunkt und bestätigten Modellen verfügt Raycast nun über einen klaren, latenzarmen Kanal zu Ihrer lokalen KI — null Cloud-Abhängigkeiten, null API-Kosten und Sub-Sekunden-Antwortzeiten auf leistungsfähiger Hardware.

Step 5 Benutzerdefinierte KI-Befehle erstellen (Zusammenfassen, Umschreiben, Grammatik korrigieren)

Mit Ihrer konfigurierten Ollama-Extension, die mit Ihren lokalen Modellen kommuniziert, entfaltet sich die wahre Stärke durch den Aufbau zweckgebundener KI-Befehle, die von überall auf Ihrem Mac sofort ausgelöst werden können. Raycasts Skripting-System ermöglicht es Ihnen, Befehle zu erstellen, die exakt auf Ihren Workflow zugeschnitten sind — kein Copy-Paste in ein Chat-Interface, kein Context-Switching.

Raycast-KI-Extensions vs. Custom Scripts verstehen

Raycast bietet zwei Wege für benutzerdefinierte KI-Befehle:

  1. Extensions-basierte Befehle — Erstellt über das Prompt-Konfigurationspanel der Raycast-Ollama-Extension
  2. Script-Befehle — Shell- oder JavaScript-Skripte, die die Ollama-API direkt aufrufen

Für die meisten Nutzer deckt der Extensions-basierte Ansatz 90% der Anwendungsfälle ab. Für fortgeschrittene Pipelines geben Script-Befehle volle Kontrolle.


Prompts in der Ollama-Extension konfigurieren

Öffnen Sie Raycast, suchen Sie nach "Ollama" und navigieren Sie zu Custom Commands. Jeder Befehl erfordert:

Feld Beschreibung Beispiel
Name Befehlsbezeichner in Raycast Summarize Selection
Model Welches Ollama-Modell verwendet werden soll llama3.2
System Prompt Persistente Anweisung an das Modell You are a concise summarizer.
User Prompt Template Dynamischer Prompt mit der Variable {selection} Summarize this in 3 bullet points: {selection}
Output Wo das Ergebnis erscheint Zwischenablage / HUD / Detailansicht

Die drei unverzichtbaren Befehle

1. Zusammenfassen (Summarize)

Dieser Befehl destilliert beliebigen markierten Text — E-Mails, Artikel, Dokumentation — in übersichtliche Stichpunkte.

System Prompt:

Terminal
You are a precise summarization assistant. Extract only the essential information. Never add opinions or information not present in the source text. Respond only with the summary, no preamble.

User Prompt:

Terminal
Summarize the following text into 3-5 concise bullet points:

{selection}

Setzen Sie Output auf Detail View, damit längere Zusammenfassungen lesbar bleiben, ohne Ihre Zwischenablage zu belasten.


2. Umschreiben (Rewrite)

Der Umschreibe-Befehl verwandelt unbeholfene Prosa in poliertes, professionelles Schreiben. Ideal für Slack-Nachrichten, Dokumentation und E-Mails.

System Prompt:

Terminal
You are an expert editor and technical writer. Rewrite the provided text to be clear, concise, and professional. Preserve the original meaning and tone intent. Return only the rewritten text with no explanation.

User Prompt:

Terminal
Rewrite the following to be clearer and more professional:

{selection}

Setzen Sie Output auf Clipboard, damit Sie die verbesserte Version sofort mit ⌘V einfügen können.


3. Grammatik korrigieren (Fix Grammar)

Chirurgische Grammatikkorrektur ohne Veränderung Ihres Stils — unverzichtbar für Entwickler, die Dokumentation schreiben, oder Nicht-Muttersprachler des Englischen.

System Prompt:

Terminal
You are a grammar correction tool. Fix all grammatical errors, punctuation mistakes, and spelling issues in the provided text. Do not change the writing style, tone, or word choices unless grammatically necessary. Return only the corrected text.

User Prompt:

Terminal
Fix the grammar and punctuation in the following text:

{selection}

Fortgeschritten: Script-Befehl für Stapelverarbeitung

Für Power-User, die programmatische Kontrolle benötigen, rufen Sie Olamas REST-API direkt über einen Raycast-Script-Befehl auf:

Terminal
#!/bin/bash
# Required parameters:
# @raycast.schemaVersion 1
# @raycast.title Fix Grammar (Script)
# @raycast.mode silent

SELECTION=$(pbpaste)

RESPONSE=$(curl -s http://localhost:11434/api/generate \
  -H "Content-Type: application/json" \
  -d "{
    \"model\": \"llama3.2\",
    \"prompt\": \"Fix grammar only, return corrected text: ${SELECTION}\",
    \"stream\": false
  }" | python3 -c "import sys, json; print(json.load(sys.stdin)['response'])")

echo "$RESPONSE" | pbcopy

Speichern Sie dies als fix-grammar.sh, machen Sie es mit chmod +x fix-grammar.sh ausführbar und legen Sie es in ~/.config/raycast/scripts/ ab.


Modell-Auswahlstrategie

Nicht jede Aufgabe erfordert Ihr leistungsstärkstes Modell. Passen Sie die Modellgröße an die Befehlskomplexität an:

Befehl Empfohlenes Modell Warum
Grammatik korrigieren phi3 oder gemma2:2b Schnell, leichtgewichtig, einfache Aufgabe
Umschreiben llama3.2 Ausgewogene Qualität und Geschwindigkeit
Zusammenfassen llama3.2 oder mistral Erfordert Verständnistiefe

Pro-Tipp: Kleinere Modelle antworten auf Apple Silicon in unter einer Sekunde — für Grammatikkorrekturen ist dieser Geschwindigkeitsunterschied transformativ, wenn Sie den Befehl Dutzende Male täglich verwenden.

Step 6 Hotkeys für blitzschnellen Zugriff optimieren

Der Unterschied zwischen einem guten KI-Workflow und einem großartigen liegt in der Reibung. Jeder zusätzliche Klick, jeder Kontextwechsel, jeder Moment, in dem Sie nach einem Menü greifen, ist kognitiver Overhead, der Ihren Flow-State unterbricht. Hotkeys eliminieren diese Reibung vollständig — sie verwandeln KI-Assistenz von einem bewussten Werkzeug in eine unsichtbare Erweiterung Ihres Denkens.

Die Raycast-Hotkey-Architektur

Raycast unterstützt zwei verschiedene Ebenen der Tastenkürzel-Zuweisung:

Ebene Geltungsbereich Am besten geeignet für
Globaler Hotkey Systemweit, funktioniert in jeder App Ihren meistgenutzten KI-Befehl
Extension-Hotkey Löst spezifische Extension-Befehle aus Häufig verwendete, aber sekundäre Befehle
Alias Öffnet Raycast + füllt Befehl vor Schneller Zugriff ohne vollständige Namen auswendig zu lernen
Quicklink Raycast-Shortcut zu einem spezifischen Prompt Vorlagenbasierte, wiederholbare KI-Aufgaben

Hotkeys zu Ihren KI-Befehlen zuweisen

Navigieren Sie zu Raycast Preferences → Extensions → Ollama AI und suchen Sie jeden benutzerdefinierten Befehl, den Sie im vorherigen Abschnitt erstellt haben. Klicken Sie auf das Hotkey-Feld neben einem Befehl und drücken Sie Ihre gewünschte Tastenkombination.

Empfohlenes Hotkey-Schema für KI-Befehle:

Terminal
⌥ + Space        → Open Raycast (main launcher)
⌃ + ⌥ + S        → AI Summarize (selected text)
⌃ + ⌥ + R        → AI Rewrite (selected text)  
⌃ + ⌥ + G        → Fix Grammar (selected text)
⌃ + ⌥ + O        → Open Ollama Chat (freeform)

Pro-Tipp: Verwenden Sie Control (⌃) + Option (⌥) als Modifier-Präfix für alle KI-Befehle. Diese Kombination wird selten von macOS-Systemkürzeln oder anderen Anwendungen beansprucht und gibt Ihnen damit einen sauberen, konfliktfreien Namespace.

Hotkey-Konflikte vermeiden

Bevor Sie ein Kürzel finalisieren, prüfen Sie, ob es nicht bereits vergeben ist:

Terminal
# Check system-level shortcuts via defaults
defaults read com.apple.symbolichotkeys AppleSymbolicHotKeys

Sie können auch zu System Settings → Keyboard → Keyboard Shortcuts navigieren und jede Kategorie durchsehen. Häufige Konfliktzonen sind:

  • Mission Control beansprucht die meisten ⌃ + Pfeil-Kombinationen
  • Spotlight nutzt standardmäßig ⌘ + Space
  • Screenshot-Tools belegen mehrere ⌘ + Shift + Zahl-Slots
  • Drittanbieter-Apps wie Alfred, 1Password oder Magnet