IA Mac à l'échelle du système : Connecter Ollama à Raycast

laptop_mac macOS Sonoma Intermediate schedule 8 min read
Author by Alex Rivera • May 14, 2024

Step 1 Libérer l'IA à l'échelle du système sous macOS

L'utilisateur macOS avancé moderne évolue dans un écosystème IA fragmenté — onglets épinglés sur ChatGPT, applications séparées pour l'assistance à la rédaction, et des changements de contexte incessants qui brisent l'état de flux. Et si votre IA n'était plus cloisonnée dans une fenêtre de navigateur, mais tissée directement dans le tissu de votre système d'exploitation, disponible à l'instant précis où vous en avez besoin, répondant en quelques millisecondes, avec zéro donnée quittant votre machine ?

C'est exactement ce qui se produit lorsque vous connectez Ollama à Raycast. La combinaison est véritablement transformatrice dans la façon dont vous interagissez avec votre Mac.

Pourquoi cette architecture est différente

La plupart des intégrations IA suivent le même schéma : ouvrir une application, saisir un prompt, attendre une réponse cloud, copier le résultat. Ce flux de travail introduit une surcharge cognitive à chaque étape. Raycast + Ollama brise entièrement ce schéma en positionnant l'IA comme une primitive système de premier ordre.

Approche Latence Confidentialité Support hors ligne Conscience du contexte
ChatGPT via navigateur Élevée (aller-retour réseau) ❌ Données envoyées à OpenAI ❌ Requiert internet Limitée
Applications IA natives Moyenne Variable Parfois Minimale
Raycast + Ollama Ultra-faible (localhost) ✅ 100% local ✅ Entièrement hors ligne Profonde (à l'échelle du système)

Ce qu'Ollama apporte à l'équation

Ollama est un serveur d'inférence léger qui exécute de grands modèles de langage localement sur Apple Silicon. Il expose une API REST propre sur http://localhost:11434, ce qui rend sa consommation par d'autres outils triviale. Des modèles comme Llama 3, Mistral, Phi-3 et Gemma 2 s'exécutent avec une vitesse impressionnante sur les puces de la série M, égalant ou dépassant souvent les temps de réponse des modèles cloud pour les tâches courantes.

Terminal
# Verify Ollama is running and listening
curl http://localhost:11434/api/tags

# Expected output: a JSON list of your locally installed models

Une fois qu'Ollama fonctionne comme un service en arrière-plan, il devient un backbone IA persistant que toute application correctement configurée peut interroger — y compris Raycast.

Ce que Raycast apporte à l'équation

Raycast est un lanceur de commandes à l'échelle du système qui a effectivement remplacé Spotlight pour des centaines de milliers d'utilisateurs Mac. Son écosystème d'extensions lui permet de s'intégrer à pratiquement n'importe quoi, et son framework de commandes IA vous permet de diriger du texte sélectionné, le contenu du presse-papiers, ou des prompts libres directement vers n'importe quel endpoint LLM.

L'insight critique ici : les commandes Raycast sont disponibles depuis n'importe où dans macOS. Que vous soyez dans Xcode en train de réviser une fonction, dans Notion en rédigeant un document, dans Slack en composant un message, ou dans Terminal en déboguant un script — une simple invocation par raccourci clavier amène l'IA à ce sur quoi vous travaillez, sans changer d'application.

La puissance de la composabilité

Ce qui rend cette configuration véritablement puissante n'est pas une fonctionnalité particulière — c'est la composabilité. Vous pouvez :

  • Sélectionner du code dans n'importe quel éditeur → invoquer une commande Raycast IA → obtenir une explication injectée dans votre presse-papiers
  • Surligner un paragraphe dense dans Safari → le résumer en langage simple sans quitter la page
  • Récupérer un message d'erreur depuis Terminal → le traiter via un prompt de débogage → coller immédiatement le correctif

C'est la différence entre une IA comme outil que l'on visite et une IA comme capacité que l'on porte avec soi. Les sections qui suivent vous guideront dans l'assemblage de ce système de zéro, de l'installation de l'extension Raycast nécessaire à la configuration des raccourcis clavier qui donnent à l'ensemble du flux de travail l'aspect d'une fonctionnalité native du système d'exploitation.

Note : Tout ce qui est décrit dans ce guide s'exécute entièrement sur l'appareil. Aucune clé API, aucun abonnement, aucune télémétrie. Vos prompts et réponses ne quittent jamais votre Mac.

Step 2 Prérequis : Configuration de Raycast

Avant de plonger dans l'intégration Ollama, vous avez besoin d'un environnement Raycast correctement configuré. Négliger ces fondations créera des frictions plus tard — établissons donc des bases solides dès le départ.

Ce dont vous aurez besoin

Prérequis Version Notes
Raycast 1.50.0+ Le plan Pro est requis pour les fonctionnalités IA
macOS 12 Monterey+ Ventura ou Sonoma fortement recommandés
Ollama 0.1.20+ Doit fonctionner comme service local
RAM 8 Go minimum 16 Go+ recommandés pour les modèles plus grands

Installation de Raycast

Si vous n'avez pas encore installé Raycast, le processus est direct. Téléchargez la dernière version stable directement depuis raycast.com ou installez-le via Homebrew :

Terminal
brew install --cask raycast

Une fois installé, lancez Raycast et complétez l'intégration initiale. Remplacez Spotlight immédiatement — c'est non négociable pour le flux de travail que nous construisons. Naviguez vers :

Terminal
System Settings → Keyboard → Keyboard Shortcuts → Spotlight

Décochez Show Spotlight search de ⌘Space, puis assignez ⌘Space dans les préférences Raycast sous General → Raycast Hotkey.


Vérification de votre version Raycast

L'extension Ollama requiert que l'API d'extension de Raycast supporte les endpoints de modèles personnalisés. Ouvrez les préférences Raycast et confirmez votre build :

Terminal
Raycast → About Raycast → Build Number

Alternativement, effectuez cette vérification rapide depuis votre terminal :

Terminal
defaults read com.raycast.macos CFBundleShortVersionString

Si votre version est en retard, le mécanisme de mise à jour intégré s'en chargera :

Terminal
Raycast → Check for Updates

Activation des extensions dans Raycast

Par défaut, le store d'extensions de Raycast est accessible, mais vous voulez vous assurer que l'onglet Extensions est déverrouillé et que le store est joignable. Ouvrez les préférences Raycast avec ⌘, et confirmez que vous pouvez naviguer vers l'onglet Extensions sans erreur.

Paramètre critique à activer avant de continuer :

Naviguez vers Raycast Preferences → Extensions et assurez-vous que "Allow Extension Installation from Store" est activé. Sans cela, l'installation de l'extension Ollama à l'étape suivante échouera silencieusement.


Confirmation qu'Ollama est en cours d'exécution

Raycast a besoin d'une instance Ollama active pour communiquer. Avant de configurer quoi que ce soit dans Raycast, vérifiez qu'Ollama est actif et réactif :

Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags

# Expected response (example)
{
  "models": [
    {
      "name": "llama3:latest",
      "modified_at": "2024-01-15T10:30:00Z",
      "size": 4661211584
    }
  ]
}

Si la commande curl expire ou retourne une erreur de connexion, démarrez Ollama manuellement :

Terminal
ollama serve

Conseil pro : Ajoutez Ollama à vos éléments de connexion macOS pour qu'il démarre automatiquement. Naviguez vers System Settings → General → Login Items et ajoutez l'application Ollama. Cela garantit que Raycast dispose toujours d'un backend de modèle disponible dès le réveil de votre machine.


Permissions réseau

macOS demandera les permissions d'accès réseau la première fois que Raycast tentera d'atteindre votre instance Ollama locale. Cliquez sur "Allow" sans hésitation — il s'agit d'une communication localhost, non d'un accès réseau externe. Si vous avez accidentellement refusé la demande, réinitialisez-la via :

Terminal
tccutil reset All com.raycast.macos

Avec ces prérequis verrouillés, votre environnement est prêt et préparé pour l'installation de l'extension.

Step 3 Étape 1 : Installation de l'extension Raycast Ollama

Avec Ollama en cours d'exécution localement et Raycast installé, le pont entre votre lanceur système et vos modèles IA locaux se résume à une seule extension. Cette section vous guide à travers le processus d'installation précis, éliminant toute ambiguïté à chaque étape.

Trouver l'extension dans le store Raycast

Raycast maintient un marketplace d'extensions curé accessible directement depuis l'application. Voici comment y naviguer :

  1. Ouvrez Raycast avec votre raccourci configuré (par défaut : ⌥ Space)
  2. Tapez "Store" et sélectionnez Raycast Store
  3. Dans la barre de recherche, tapez Ollama
  4. Localisez l'extension intitulée "Ollama AI" — créée par la communauté et validée par l'équipe Raycast

Alternativement, vous pouvez l'installer directement depuis le web :

Terminal
https://www.raycast.com/massimiliano_pasquini/raycast-ollama

Cliquez sur "Install Extension" sur la page web, et Raycast établira un lien profond directement vers l'invite d'installation sur votre machine.


Installation via Raycast CLI (méthode pour utilisateurs avancés)

Si vous préférez les flux de travail en terminal, Raycast supporte la gestion des extensions via sa chaîne d'outils CLI. Assurez-vous d'abord d'avoir le CLI Raycast installé :

Terminal
# Install Raycast CLI via npm
npm install -g @raycast/api

# Verify installation
raycast --version

Note : La méthode CLI est principalement destinée au développement d'extensions, non à l'installation par les utilisateurs finaux. Pour une utilisation en production, la méthode via l'interface du Store est recommandée.


Procédure d'installation de l'extension

Une fois que vous avez cliqué sur Install depuis l'interface du Store ou le portail web, vous verrez l'invite de permission suivante dans Raycast :

Permission demandée Raison
Accès réseau Communique avec l'API HTTP locale d'Ollama
Lecture/écriture du presse-papiers Active les commandes de transformation de texte
Services système Permet aux réponses IA de s'injecter dans les applications actives

Acceptez toutes les permissions — aucune n'atteint internet. Chaque requête est acheminée uniquement vers localhost, ce qui signifie que vos données ne quittent jamais votre machine.


Vérification de l'installation

Après l'installation, confirmez que l'extension est active :

  1. Ouvrez Raycast (⌥ Space)
  2. Tapez Ollama — vous devriez immédiatement voir un ensemble de commandes apparaître : - Ollama: Chat - Ollama: Ask - Ollama: Summarize - Ollama: Fix Grammar
  3. Sélectionnez Ollama: Chat et appuyez sur

Si Ollama est en cours d'exécution (ollama serve dans votre terminal), vous entrerez directement dans une session de chat interactive. Si vous voyez une erreur de connexion, vérifiez que le daemon est actif :

Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags

# Expected output (truncated):
# {"models":[{"name":"llama3.2:latest",...}]}

# If not running, start it:
ollama serve

Télécharger votre premier modèle (si ce n'est pas déjà fait)

L'extension requiert qu'au moins un modèle soit téléchargé localement avant l'exécution des commandes. Un choix par défaut rapide et performant pour un usage général :

Terminal
# Lightweight and fast — ideal for system-wide commands
ollama pull llama3.2

# Higher capability for complex tasks (requires more RAM)
ollama pull mistral

# Verify models are available
ollama list

À ce stade, l'extension est installée, connectée et prête. L'étape suivante aborde la configuration précise de l'API — le réglage de l'endpoint, du port et du comportement des réponses pour correspondre exactement à votre matériel et vos exigences de flux de travail.

Step 4 Étape 2 : Configuration des endpoints API et des ports

L'extension Raycast Ollama étant installée, l'étape critique suivante consiste à s'assurer que Raycast peut effectivement communiquer avec votre instance Ollama locale. Cela nécessite une compréhension solide de la façon dont Ollama expose son API et comment configurer l'extension pour pointer vers le bon endpoint.

Comprendre la configuration réseau par défaut d'Ollama

Par défaut, Ollama exécute un serveur API REST local à l'adresse suivante :

Terminal
http://localhost:11434

C'est la valeur la plus importante que vous configurerez. Chaque requête IA effectuée par Raycast — qu'il s'agisse d'une synthèse de texte, d'une explication de code, ou d'une correction grammaticale — est acheminée via cet endpoint sous forme de requête HTTP vers le moteur d'inférence Ollama s'exécutant sur votre machine.

Vous pouvez vérifier à tout moment qu'Ollama est en cours d'exécution et réactif en atteignant l'endpoint de santé directement depuis votre terminal :

Terminal
curl http://localhost:11434
# Expected output: Ollama is running

Si cela retourne une erreur, Ollama n'est pas en cours d'exécution. Démarrez-le avec :

Terminal
ollama serve

Conseil pro : Sur macOS, si vous avez installé Ollama via l'application GUI .dmg, il s'exécute automatiquement comme processus dans la barre de menus. Si vous avez installé via Homebrew, vous devrez peut-être le démarrer manuellement ou configurer un service launchd.


Configuration de l'endpoint de l'extension dans Raycast

Ouvrez Raycast (⌘ Space par défaut), tapez Extensions, et naviguez vers les paramètres de l'extension Ollama. Vous trouverez les champs configurables suivants :

Paramètre Valeur par défaut Description
Ollama API URL http://localhost:11434 URL de base du serveur Ollama local
Request Timeout 60000 ms Temps d'attente maximum avant l'échec d'une requête
Default Model (défini par l'utilisateur) Modèle utilisé lorsqu'aucune substitution n'est spécifiée

Définissez l'Ollama API URL à http://localhost:11434 à moins que vous n'ayez délibérément modifié le port par défaut d'Ollama. Si vous exécutez Ollama sur un port différent — par exemple pour éviter des conflits avec d'autres services locaux — vous pouvez le remplacer au démarrage :

Terminal
OLLAMA_HOST=0.0.0.0:11435 ollama serve

Dans ce cas, mettez à jour l'URL de l'extension Raycast en conséquence :

Terminal
http://localhost:11435

Gestion des instances Ollama distantes et réseau

L'une des capacités sous-estimées de cette configuration est que Raycast n'exige pas qu'Ollama s'exécute localement. Si vous exécutez Ollama sur une machine distante, un NAS, ou un serveur GPU dédié sur votre réseau local, vous pouvez pointer Raycast vers l'adresse IP de cette machine :

Terminal
http://192.168.1.50:11434

Considération de sécurité importante : Par défaut, Ollama se lie uniquement à localhost. Pour l'exposer sur une interface réseau, vous devez explicitement définir :

Terminal
OLLAMA_HOST=0.0.0.0:11434 ollama serve

N'exposez jamais ce port sur internet public sans authentification. Ollama ne dispose d'aucune couche d'authentification intégrée — traitez-le comme un port de base de données ouvert et protégez-le par un pare-feu en conséquence.


Confirmation de la disponibilité des modèles

Avant de continuer, vérifiez que vos modèles cibles sont téléchargés et disponibles via l'API :

Terminal
curl http://localhost:11434/api/tags | jq '.models[].name'

Cela retourne la liste de tous les modèles disponibles localement. L'extension Raycast peuplera son sélecteur de modèles depuis cette liste, donc tout modèle que vous souhaitez utiliser dans une commande personnalisée doit être téléchargé au préalable en utilisant ollama pull <model-name>.

Avec votre endpoint configuré et vos modèles confirmés, Raycast dispose désormais d'un canal clair et à faible latence vers votre IA locale — zéro dépendance cloud, zéro coût d'API, et des temps de réponse inférieurs à la seconde sur du matériel performant.

Step 5 Création de commandes IA personnalisées (Résumer, Réécrire, Corriger la grammaire)

Votre extension Ollama étant configurée et en communication avec vos modèles locaux, la véritable puissance vient de la construction de commandes IA dédiées qui se déclenchent instantanément depuis n'importe où sur votre Mac. Le système de scripting de Raycast vous permet de concevoir des commandes adaptées à votre flux de travail exact — sans copier-coller dans une interface de chat, sans changement de contexte.

Comprendre les extensions IA Raycast vs. les scripts personnalisés

Raycast offre deux voies pour les commandes IA personnalisées :

  1. Commandes basées sur les extensions — Construites via le panneau de configuration des prompts de l'extension Raycast Ollama
  2. Commandes script — Scripts shell ou JavaScript qui appellent directement l'API Ollama

Pour la plupart des utilisateurs, l'approche basée sur les extensions couvre 90% des cas d'utilisation. Pour les pipelines avancés, les commandes script vous donnent un contrôle total.


Configuration des prompts dans l'extension Ollama

Ouvrez Raycast, recherchez "Ollama", et naviguez vers Custom Commands. Chaque commande requiert :

Champ Description Exemple
Name Identifiant de la commande dans Raycast Summarize Selection
Model Quel modèle Ollama utiliser llama3.2
System Prompt Instruction persistante au modèle You are a concise summarizer.
User Prompt Template Prompt dynamique avec la variable {selection} Summarize this in 3 bullet points: {selection}
Output Où apparaît le résultat Clipboard / HUD / Detail View

Les trois commandes essentielles

1. Résumer

Cette commande distille n'importe quel texte sélectionné — e-mails, articles, documentation — en points clés digestes.

System Prompt :

Terminal
You are a precise summarization assistant. Extract only the essential information. Never add opinions or information not present in the source text. Respond only with the summary, no preamble.

User Prompt :

Terminal
Summarize the following text into 3-5 concise bullet points:

{selection}

Définissez Output sur Detail View afin que les résumés plus longs restent lisibles sans encombrer votre presse-papiers.


2. Réécrire

La commande de réécriture transforme une prose maladroite en texte poli et professionnel. Idéale pour les messages Slack, la documentation et les e-mails.

System Prompt :

Terminal
You are an expert editor and technical writer. Rewrite the provided text to be clear, concise, and professional. Preserve the original meaning and tone intent. Return only the rewritten text with no explanation.

User Prompt :

Terminal
Rewrite the following to be clearer and more professional:

{selection}

Définissez Output sur Clipboard afin de pouvoir coller immédiatement la version améliorée avec ⌘V.


3. Corriger la grammaire

Correction grammaticale chirurgicale sans altérer votre style — essentielle pour les développeurs qui rédigent de la documentation ou pour les locuteurs non natifs de l'anglais.

System Prompt :

Terminal
You are a grammar correction tool. Fix all grammatical errors, punctuation mistakes, and spelling issues in the provided text. Do not change the writing style, tone, or word choices unless grammatically necessary. Return only the corrected text.

User Prompt :

Terminal
Fix the grammar and punctuation in the following text:

{selection}

Avancé : Commande script pour le traitement par lots

Pour les utilisateurs avancés nécessitant un contrôle programmatique, appelez directement l'API REST d'Ollama via une Raycast Script Command :

Terminal
#!/bin/bash
# Required parameters:
# @raycast.schemaVersion 1
# @raycast.title Fix Grammar (Script)
# @raycast.mode silent

SELECTION=$(pbpaste)

RESPONSE=$(curl -s http://localhost:11434/api/generate \
  -H "Content-Type: application/json" \
  -d "{
    \"model\": \"llama3.2\",
    \"prompt\": \"Fix grammar only, return corrected text: ${SELECTION}\",
    \"stream\": false
  }" | python3 -c "import sys, json; print(json.load(sys.stdin)['response'])")

echo "$RESPONSE" | pbcopy

Sauvegardez ce fichier sous fix-grammar.sh, rendez-le exécutable avec chmod +x fix-grammar.sh, et déposez-le dans ~/.config/raycast/scripts/.


Stratégie de sélection des modèles

Toutes les tâches ne nécessitent pas votre modèle le plus puissant. Adaptez la taille du modèle à la complexité de la commande :

Commande Modèle recommandé Pourquoi
Corriger la grammaire phi3 ou gemma2:2b Rapide, léger, tâche simple
Réécrire llama3.2 Qualité et vitesse équilibrées
Résumer llama3.2 ou mistral Requiert une profondeur de compréhension

Conseil pro : Les modèles plus petits répondent en moins d'une seconde sur Apple Silicon — pour les corrections grammaticales, cette différence de vitesse est transformatrice lorsque vous utilisez la commande des dizaines de fois par jour.

Step 6 Optimisation des raccourcis clavier pour un accès fulgurant

La différence entre un bon flux de travail IA et un excellent réside dans la friction. Chaque clic supplémentaire, chaque changement de contexte, chaque instant passé à chercher un menu est une surcharge cognitive qui brise votre état de flux. Les raccourcis clavier éliminent entièrement cette friction — transformant l'assistance IA d'un outil délibéré en une extension invisible de votre pensée.

L'architecture des raccourcis Raycast

Raycast supporte deux couches distinctes d'attribution de raccourcis clavier :

Couche Portée Idéal pour
Raccourci global À l'échelle du système, fonctionne dans n'importe quelle application Votre commande IA la plus utilisée
Raccourci d'extension Déclenche des commandes d'extension spécifiques Commandes fréquentes mais secondaires
Alias Ouvre Raycast + pré-remplit la commande Accès rapide sans mémoriser les noms complets
Quicklink Raccourci Raycast vers un prompt spécifique Tâches IA répétables et basées sur des modèles

Attribution des raccourcis à vos commandes IA

Naviguez vers Raycast Preferences → Extensions → Ollama AI et localisez chaque commande personnalisée que vous avez créée dans la section précédente. Cliquez sur le champ de raccourci en regard de n'importe quelle commande et appuyez sur la combinaison de touches souhaitée.

Schéma de raccourcis recommandé pour les commandes IA :

Terminal
⌥ + Space        → Open Raycast (main launcher)
⌃ + ⌥ + S        → AI Summarize (selected text)
⌃ + ⌥ + R        → AI Rewrite (selected text)  
⌃ + ⌥ + G        → Fix Grammar (selected text)
⌃ + ⌥ + O        → Open Ollama Chat (freeform)

Conseil pro : Utilisez Control (⌃) + Option (⌥) comme préfixe de modificateur pour toutes vos commandes IA. Cette combinaison est rarement revendiquée par les raccourcis système macOS ou d'autres applications, vous offrant un espace de nommage propre, sans conflit.

Éviter les conflits de raccourcis

Avant de finaliser un raccourci, vérifiez qu'il n'est pas déjà revendiqué :

Terminal
# Check system-level shortcuts via defaults
defaults read com.apple.symbolichotkeys AppleSymbolicHotKeys

Vous pouvez également naviguer vers System Settings → Keyboard → Keyboard Shortcuts et parcourir chaque catégorie. Les zones de conflit courantes incluent :

  • Mission Control possède la plupart des combinaisons ⌃ + Flèche
  • Spotlight utilise par défaut ⌘ + Space
  • Les outils de capture d'écran occupent plusieurs emplacements ⌘ + Shift + chiffre
  • Les applications tierces comme Alfred, 1Password ou Magnet peuvent revendiquer des raccourcis basés sur

Amplifier les flux de travail de sélection de texte

La véritable puissance des raccourcis IA à l'échelle du système se révèle lorsqu'ils sont combinés avec des déclencheurs de sélection de texte. Configurez vos commandes Ollama pour opérer sur le texte actuellement sélectionné dans n'importe quelle application :

  1. Sélectionnez du texte dans Safari, Notion, Xcode, Slack — n'importe où
  2. Appuyez sur ⌃ + ⌥ + S
  3. Ollama traite la sélection et retourne un résumé en ligne, sans changer d'application

Cela fonctionne parce que Raycast lit le presse-papiers système et le contexte de sélection actif. Pour garantir la fiabilité, activez "Read selected text from active app" dans le panneau de configuration de votre extension.

Créer une carte de mémoire musculaire

Notez vos raccourcis et respectez-les pendant 30 jours. La cohérence est ce qui convertit les raccourcis conscients en mémoire musculaire inconsciente. Envisagez cette progression :

Terminal
Week 1:  Use hotkeys consciously, referring to your cheat sheet
Week 2:  Fingers begin finding shortcuts without looking
Week 3:  Hotkeys feel as natural as ⌘+C / ⌘+V
Week 4:  You forget AI assistance is a "tool" — it's just thinking

L'objectif est un accès IA à latence zéro — où l'écart entre l'intention et l'exécution disparaît entièrement. Avec la bonne architecture de raccourcis en place, Ollama cesse d'être quelque chose que l'