laptop_mac macOS Sonoma
Intermediate
schedule 8 min read
by Alex Rivera • May 14, 2024
Step 1 Libérer l'IA à l'échelle du système sous macOS
L'utilisateur macOS avancé moderne évolue dans un écosystème IA fragmenté — onglets épinglés sur ChatGPT, applications séparées pour l'assistance à la rédaction, et des changements de contexte incessants qui brisent l'état de flux. Et si votre IA n'était plus cloisonnée dans une fenêtre de navigateur, mais tissée directement dans le tissu de votre système d'exploitation, disponible à l'instant précis où vous en avez besoin, répondant en quelques millisecondes, avec zéro donnée quittant votre machine ?
C'est exactement ce qui se produit lorsque vous connectez Ollama à Raycast. La combinaison est véritablement transformatrice dans la façon dont vous interagissez avec votre Mac.
Pourquoi cette architecture est différente
La plupart des intégrations IA suivent le même schéma : ouvrir une application, saisir un prompt, attendre une réponse cloud, copier le résultat. Ce flux de travail introduit une surcharge cognitive à chaque étape. Raycast + Ollama brise entièrement ce schéma en positionnant l'IA comme une primitive système de premier ordre.
| Approche |
Latence |
Confidentialité |
Support hors ligne |
Conscience du contexte |
| ChatGPT via navigateur |
Élevée (aller-retour réseau) |
❌ Données envoyées à OpenAI |
❌ Requiert internet |
Limitée |
| Applications IA natives |
Moyenne |
Variable |
Parfois |
Minimale |
| Raycast + Ollama |
Ultra-faible (localhost) |
✅ 100% local |
✅ Entièrement hors ligne |
Profonde (à l'échelle du système) |
Ce qu'Ollama apporte à l'équation
Ollama est un serveur d'inférence léger qui exécute de grands modèles de langage localement sur Apple Silicon. Il expose une API REST propre sur http://localhost:11434, ce qui rend sa consommation par d'autres outils triviale. Des modèles comme Llama 3, Mistral, Phi-3 et Gemma 2 s'exécutent avec une vitesse impressionnante sur les puces de la série M, égalant ou dépassant souvent les temps de réponse des modèles cloud pour les tâches courantes.
Terminal
# Verify Ollama is running and listening
curl http://localhost:11434/api/tags
# Expected output: a JSON list of your locally installed models
Une fois qu'Ollama fonctionne comme un service en arrière-plan, il devient un backbone IA persistant que toute application correctement configurée peut interroger — y compris Raycast.
Ce que Raycast apporte à l'équation
Raycast est un lanceur de commandes à l'échelle du système qui a effectivement remplacé Spotlight pour des centaines de milliers d'utilisateurs Mac. Son écosystème d'extensions lui permet de s'intégrer à pratiquement n'importe quoi, et son framework de commandes IA vous permet de diriger du texte sélectionné, le contenu du presse-papiers, ou des prompts libres directement vers n'importe quel endpoint LLM.
L'insight critique ici : les commandes Raycast sont disponibles depuis n'importe où dans macOS. Que vous soyez dans Xcode en train de réviser une fonction, dans Notion en rédigeant un document, dans Slack en composant un message, ou dans Terminal en déboguant un script — une simple invocation par raccourci clavier amène l'IA à ce sur quoi vous travaillez, sans changer d'application.
La puissance de la composabilité
Ce qui rend cette configuration véritablement puissante n'est pas une fonctionnalité particulière — c'est la composabilité. Vous pouvez :
- Sélectionner du code dans n'importe quel éditeur → invoquer une commande Raycast IA → obtenir une explication injectée dans votre presse-papiers
- Surligner un paragraphe dense dans Safari → le résumer en langage simple sans quitter la page
- Récupérer un message d'erreur depuis Terminal → le traiter via un prompt de débogage → coller immédiatement le correctif
C'est la différence entre une IA comme outil que l'on visite et une IA comme capacité que l'on porte avec soi. Les sections qui suivent vous guideront dans l'assemblage de ce système de zéro, de l'installation de l'extension Raycast nécessaire à la configuration des raccourcis clavier qui donnent à l'ensemble du flux de travail l'aspect d'une fonctionnalité native du système d'exploitation.
Note : Tout ce qui est décrit dans ce guide s'exécute entièrement sur l'appareil. Aucune clé API, aucun abonnement, aucune télémétrie. Vos prompts et réponses ne quittent jamais votre Mac.
Step 2 Prérequis : Configuration de Raycast
Avant de plonger dans l'intégration Ollama, vous avez besoin d'un environnement Raycast correctement configuré. Négliger ces fondations créera des frictions plus tard — établissons donc des bases solides dès le départ.
Ce dont vous aurez besoin
| Prérequis |
Version |
Notes |
| Raycast |
1.50.0+ |
Le plan Pro est requis pour les fonctionnalités IA |
| macOS |
12 Monterey+ |
Ventura ou Sonoma fortement recommandés |
| Ollama |
0.1.20+ |
Doit fonctionner comme service local |
| RAM |
8 Go minimum |
16 Go+ recommandés pour les modèles plus grands |
Installation de Raycast
Si vous n'avez pas encore installé Raycast, le processus est direct. Téléchargez la dernière version stable directement depuis raycast.com ou installez-le via Homebrew :
Terminal
brew install --cask raycast
Une fois installé, lancez Raycast et complétez l'intégration initiale. Remplacez Spotlight immédiatement — c'est non négociable pour le flux de travail que nous construisons. Naviguez vers :
Terminal
System Settings → Keyboard → Keyboard Shortcuts → Spotlight
Décochez Show Spotlight search de ⌘Space, puis assignez ⌘Space dans les préférences Raycast sous General → Raycast Hotkey.
Vérification de votre version Raycast
L'extension Ollama requiert que l'API d'extension de Raycast supporte les endpoints de modèles personnalisés. Ouvrez les préférences Raycast et confirmez votre build :
Terminal
Raycast → About Raycast → Build Number
Alternativement, effectuez cette vérification rapide depuis votre terminal :
Terminal
defaults read com.raycast.macos CFBundleShortVersionString
Si votre version est en retard, le mécanisme de mise à jour intégré s'en chargera :
Terminal
Raycast → Check for Updates
Activation des extensions dans Raycast
Par défaut, le store d'extensions de Raycast est accessible, mais vous voulez vous assurer que l'onglet Extensions est déverrouillé et que le store est joignable. Ouvrez les préférences Raycast avec ⌘, et confirmez que vous pouvez naviguer vers l'onglet Extensions sans erreur.
Paramètre critique à activer avant de continuer :
Naviguez vers Raycast Preferences → Extensions et assurez-vous que "Allow Extension Installation from Store" est activé. Sans cela, l'installation de l'extension Ollama à l'étape suivante échouera silencieusement.
Confirmation qu'Ollama est en cours d'exécution
Raycast a besoin d'une instance Ollama active pour communiquer. Avant de configurer quoi que ce soit dans Raycast, vérifiez qu'Ollama est actif et réactif :
Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags
# Expected response (example)
{
"models": [
{
"name": "llama3:latest",
"modified_at": "2024-01-15T10:30:00Z",
"size": 4661211584
}
]
}
Si la commande curl expire ou retourne une erreur de connexion, démarrez Ollama manuellement :
Conseil pro : Ajoutez Ollama à vos éléments de connexion macOS pour qu'il démarre automatiquement. Naviguez vers System Settings → General → Login Items et ajoutez l'application Ollama. Cela garantit que Raycast dispose toujours d'un backend de modèle disponible dès le réveil de votre machine.
Permissions réseau
macOS demandera les permissions d'accès réseau la première fois que Raycast tentera d'atteindre votre instance Ollama locale. Cliquez sur "Allow" sans hésitation — il s'agit d'une communication localhost, non d'un accès réseau externe. Si vous avez accidentellement refusé la demande, réinitialisez-la via :
Terminal
tccutil reset All com.raycast.macos
Avec ces prérequis verrouillés, votre environnement est prêt et préparé pour l'installation de l'extension.
Step 3 Étape 1 : Installation de l'extension Raycast Ollama
Avec Ollama en cours d'exécution localement et Raycast installé, le pont entre votre lanceur système et vos modèles IA locaux se résume à une seule extension. Cette section vous guide à travers le processus d'installation précis, éliminant toute ambiguïté à chaque étape.
Trouver l'extension dans le store Raycast
Raycast maintient un marketplace d'extensions curé accessible directement depuis l'application. Voici comment y naviguer :
- Ouvrez Raycast avec votre raccourci configuré (par défaut :
⌥ Space)
- Tapez "Store" et sélectionnez Raycast Store
- Dans la barre de recherche, tapez
Ollama
- Localisez l'extension intitulée "Ollama AI" — créée par la communauté et validée par l'équipe Raycast
Alternativement, vous pouvez l'installer directement depuis le web :
Terminal
https://www.raycast.com/massimiliano_pasquini/raycast-ollama
Cliquez sur "Install Extension" sur la page web, et Raycast établira un lien profond directement vers l'invite d'installation sur votre machine.
Installation via Raycast CLI (méthode pour utilisateurs avancés)
Si vous préférez les flux de travail en terminal, Raycast supporte la gestion des extensions via sa chaîne d'outils CLI. Assurez-vous d'abord d'avoir le CLI Raycast installé :
Terminal
# Install Raycast CLI via npm
npm install -g @raycast/api
# Verify installation
raycast --version
Note : La méthode CLI est principalement destinée au développement d'extensions, non à l'installation par les utilisateurs finaux. Pour une utilisation en production, la méthode via l'interface du Store est recommandée.
Procédure d'installation de l'extension
Une fois que vous avez cliqué sur Install depuis l'interface du Store ou le portail web, vous verrez l'invite de permission suivante dans Raycast :
| Permission demandée |
Raison |
| Accès réseau |
Communique avec l'API HTTP locale d'Ollama |
| Lecture/écriture du presse-papiers |
Active les commandes de transformation de texte |
| Services système |
Permet aux réponses IA de s'injecter dans les applications actives |
Acceptez toutes les permissions — aucune n'atteint internet. Chaque requête est acheminée uniquement vers localhost, ce qui signifie que vos données ne quittent jamais votre machine.
Vérification de l'installation
Après l'installation, confirmez que l'extension est active :
- Ouvrez Raycast (
⌥ Space)
- Tapez
Ollama — vous devriez immédiatement voir un ensemble de commandes apparaître :
- Ollama: Chat
- Ollama: Ask
- Ollama: Summarize
- Ollama: Fix Grammar
- Sélectionnez
Ollama: Chat et appuyez sur ↵
Si Ollama est en cours d'exécution (ollama serve dans votre terminal), vous entrerez directement dans une session de chat interactive. Si vous voyez une erreur de connexion, vérifiez que le daemon est actif :
Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags
# Expected output (truncated):
# {"models":[{"name":"llama3.2:latest",...}]}
# If not running, start it:
ollama serve
Télécharger votre premier modèle (si ce n'est pas déjà fait)
L'extension requiert qu'au moins un modèle soit téléchargé localement avant l'exécution des commandes. Un choix par défaut rapide et performant pour un usage général :
Terminal
# Lightweight and fast — ideal for system-wide commands
ollama pull llama3.2
# Higher capability for complex tasks (requires more RAM)
ollama pull mistral
# Verify models are available
ollama list
À ce stade, l'extension est installée, connectée et prête. L'étape suivante aborde la configuration précise de l'API — le réglage de l'endpoint, du port et du comportement des réponses pour correspondre exactement à votre matériel et vos exigences de flux de travail.
Step 4 Étape 2 : Configuration des endpoints API et des ports
L'extension Raycast Ollama étant installée, l'étape critique suivante consiste à s'assurer que Raycast peut effectivement communiquer avec votre instance Ollama locale. Cela nécessite une compréhension solide de la façon dont Ollama expose son API et comment configurer l'extension pour pointer vers le bon endpoint.
Comprendre la configuration réseau par défaut d'Ollama
Par défaut, Ollama exécute un serveur API REST local à l'adresse suivante :
C'est la valeur la plus importante que vous configurerez. Chaque requête IA effectuée par Raycast — qu'il s'agisse d'une synthèse de texte, d'une explication de code, ou d'une correction grammaticale — est acheminée via cet endpoint sous forme de requête HTTP vers le moteur d'inférence Ollama s'exécutant sur votre machine.
Vous pouvez vérifier à tout moment qu'Ollama est en cours d'exécution et réactif en atteignant l'endpoint de santé directement depuis votre terminal :
Terminal
curl http://localhost:11434
# Expected output: Ollama is running
Si cela retourne une erreur, Ollama n'est pas en cours d'exécution. Démarrez-le avec :
Conseil pro : Sur macOS, si vous avez installé Ollama via l'application GUI .dmg, il s'exécute automatiquement comme processus dans la barre de menus. Si vous avez installé via Homebrew, vous devrez peut-être le démarrer manuellement ou configurer un service launchd.
Configuration de l'endpoint de l'extension dans Raycast
Ouvrez Raycast (⌘ Space par défaut), tapez Extensions, et naviguez vers les paramètres de l'extension Ollama. Vous trouverez les champs configurables suivants :
| Paramètre |
Valeur par défaut |
Description |
| Ollama API URL |
http://localhost:11434 |
URL de base du serveur Ollama local |
| Request Timeout |
60000 ms |
Temps d'attente maximum avant l'échec d'une requête |
| Default Model |
(défini par l'utilisateur) |
Modèle utilisé lorsqu'aucune substitution n'est spécifiée |
Définissez l'Ollama API URL à http://localhost:11434 à moins que vous n'ayez délibérément modifié le port par défaut d'Ollama. Si vous exécutez Ollama sur un port différent — par exemple pour éviter des conflits avec d'autres services locaux — vous pouvez le remplacer au démarrage :
Terminal
OLLAMA_HOST=0.0.0.0:11435 ollama serve
Dans ce cas, mettez à jour l'URL de l'extension Raycast en conséquence :
Gestion des instances Ollama distantes et réseau
L'une des capacités sous-estimées de cette configuration est que Raycast n'exige pas qu'Ollama s'exécute localement. Si vous exécutez Ollama sur une machine distante, un NAS, ou un serveur GPU dédié sur votre réseau local, vous pouvez pointer Raycast vers l'adresse IP de cette machine :
Terminal
http://192.168.1.50:11434
Considération de sécurité importante : Par défaut, Ollama se lie uniquement à localhost. Pour l'exposer sur une interface réseau, vous devez explicitement définir :
Terminal
OLLAMA_HOST=0.0.0.0:11434 ollama serve
N'exposez jamais ce port sur internet public sans authentification. Ollama ne dispose d'aucune couche d'authentification intégrée — traitez-le comme un port de base de données ouvert et protégez-le par un pare-feu en conséquence.
Confirmation de la disponibilité des modèles
Avant de continuer, vérifiez que vos modèles cibles sont téléchargés et disponibles via l'API :
Terminal
curl http://localhost:11434/api/tags | jq '.models[].name'
Cela retourne la liste de tous les modèles disponibles localement. L'extension Raycast peuplera son sélecteur de modèles depuis cette liste, donc tout modèle que vous souhaitez utiliser dans une commande personnalisée doit être téléchargé au préalable en utilisant ollama pull <model-name>.
Avec votre endpoint configuré et vos modèles confirmés, Raycast dispose désormais d'un canal clair et à faible latence vers votre IA locale — zéro dépendance cloud, zéro coût d'API, et des temps de réponse inférieurs à la seconde sur du matériel performant.
Step 5 Création de commandes IA personnalisées (Résumer, Réécrire, Corriger la grammaire)
Votre extension Ollama étant configurée et en communication avec vos modèles locaux, la véritable puissance vient de la construction de commandes IA dédiées qui se déclenchent instantanément depuis n'importe où sur votre Mac. Le système de scripting de Raycast vous permet de concevoir des commandes adaptées à votre flux de travail exact — sans copier-coller dans une interface de chat, sans changement de contexte.
Comprendre les extensions IA Raycast vs. les scripts personnalisés
Raycast offre deux voies pour les commandes IA personnalisées :
- Commandes basées sur les extensions — Construites via le panneau de configuration des prompts de l'extension Raycast Ollama
- Commandes script — Scripts shell ou JavaScript qui appellent directement l'API Ollama
Pour la plupart des utilisateurs, l'approche basée sur les extensions couvre 90% des cas d'utilisation. Pour les pipelines avancés, les commandes script vous donnent un contrôle total.
Configuration des prompts dans l'extension Ollama
Ouvrez Raycast, recherchez "Ollama", et naviguez vers Custom Commands. Chaque commande requiert :
| Champ |
Description |
Exemple |
| Name |
Identifiant de la commande dans Raycast |
Summarize Selection |
| Model |
Quel modèle Ollama utiliser |
llama3.2 |
| System Prompt |
Instruction persistante au modèle |
You are a concise summarizer. |
| User Prompt Template |
Prompt dynamique avec la variable {selection} |
Summarize this in 3 bullet points: {selection} |
| Output |
Où apparaît le résultat |
Clipboard / HUD / Detail View |
Les trois commandes essentielles
1. Résumer
Cette commande distille n'importe quel texte sélectionné — e-mails, articles, documentation — en points clés digestes.
System Prompt :
Terminal
You are a precise summarization assistant. Extract only the essential information. Never add opinions or information not present in the source text. Respond only with the summary, no preamble.
User Prompt :
Terminal
Summarize the following text into 3-5 concise bullet points:
{selection}
Définissez Output sur Detail View afin que les résumés plus longs restent lisibles sans encombrer votre presse-papiers.
2. Réécrire
La commande de réécriture transforme une prose maladroite en texte poli et professionnel. Idéale pour les messages Slack, la documentation et les e-mails.
System Prompt :
Terminal
You are an expert editor and technical writer. Rewrite the provided text to be clear, concise, and professional. Preserve the original meaning and tone intent. Return only the rewritten text with no explanation.
User Prompt :
Terminal
Rewrite the following to be clearer and more professional:
{selection}
Définissez Output sur Clipboard afin de pouvoir coller immédiatement la version améliorée avec ⌘V.
3. Corriger la grammaire
Correction grammaticale chirurgicale sans altérer votre style — essentielle pour les développeurs qui rédigent de la documentation ou pour les locuteurs non natifs de l'anglais.
System Prompt :
Terminal
You are a grammar correction tool. Fix all grammatical errors, punctuation mistakes, and spelling issues in the provided text. Do not change the writing style, tone, or word choices unless grammatically necessary. Return only the corrected text.
User Prompt :
Terminal
Fix the grammar and punctuation in the following text:
{selection}
Avancé : Commande script pour le traitement par lots
Pour les utilisateurs avancés nécessitant un contrôle programmatique, appelez directement l'API REST d'Ollama via une Raycast Script Command :
Terminal
#!/bin/bash
# Required parameters:
# @raycast.schemaVersion 1
# @raycast.title Fix Grammar (Script)
# @raycast.mode silent
SELECTION=$(pbpaste)
RESPONSE=$(curl -s http://localhost:11434/api/generate \
-H "Content-Type: application/json" \
-d "{
\"model\": \"llama3.2\",
\"prompt\": \"Fix grammar only, return corrected text: ${SELECTION}\",
\"stream\": false
}" | python3 -c "import sys, json; print(json.load(sys.stdin)['response'])")
echo "$RESPONSE" | pbcopy
Sauvegardez ce fichier sous fix-grammar.sh, rendez-le exécutable avec chmod +x fix-grammar.sh, et déposez-le dans ~/.config/raycast/scripts/.
Stratégie de sélection des modèles
Toutes les tâches ne nécessitent pas votre modèle le plus puissant. Adaptez la taille du modèle à la complexité de la commande :
| Commande |
Modèle recommandé |
Pourquoi |
| Corriger la grammaire |
phi3 ou gemma2:2b |
Rapide, léger, tâche simple |
| Réécrire |
llama3.2 |
Qualité et vitesse équilibrées |
| Résumer |
llama3.2 ou mistral |
Requiert une profondeur de compréhension |
Conseil pro : Les modèles plus petits répondent en moins d'une seconde sur Apple Silicon — pour les corrections grammaticales, cette différence de vitesse est transformatrice lorsque vous utilisez la commande des dizaines de fois par jour.
Step 6 Optimisation des raccourcis clavier pour un accès fulgurant
La différence entre un bon flux de travail IA et un excellent réside dans la friction. Chaque clic supplémentaire, chaque changement de contexte, chaque instant passé à chercher un menu est une surcharge cognitive qui brise votre état de flux. Les raccourcis clavier éliminent entièrement cette friction — transformant l'assistance IA d'un outil délibéré en une extension invisible de votre pensée.
L'architecture des raccourcis Raycast
Raycast supporte deux couches distinctes d'attribution de raccourcis clavier :
| Couche |
Portée |
Idéal pour |
| Raccourci global |
À l'échelle du système, fonctionne dans n'importe quelle application |
Votre commande IA la plus utilisée |
| Raccourci d'extension |
Déclenche des commandes d'extension spécifiques |
Commandes fréquentes mais secondaires |
| Alias |
Ouvre Raycast + pré-remplit la commande |
Accès rapide sans mémoriser les noms complets |
| Quicklink |
Raccourci Raycast vers un prompt spécifique |
Tâches IA répétables et basées sur des modèles |
Attribution des raccourcis à vos commandes IA
Naviguez vers Raycast Preferences → Extensions → Ollama AI et localisez chaque commande personnalisée que vous avez créée dans la section précédente. Cliquez sur le champ de raccourci en regard de n'importe quelle commande et appuyez sur la combinaison de touches souhaitée.
Schéma de raccourcis recommandé pour les commandes IA :
Terminal
⌥ + Space → Open Raycast (main launcher)
⌃ + ⌥ + S → AI Summarize (selected text)
⌃ + ⌥ + R → AI Rewrite (selected text)
⌃ + ⌥ + G → Fix Grammar (selected text)
⌃ + ⌥ + O → Open Ollama Chat (freeform)
Conseil pro : Utilisez Control (⌃) + Option (⌥) comme préfixe de modificateur pour toutes vos commandes IA. Cette combinaison est rarement revendiquée par les raccourcis système macOS ou d'autres applications, vous offrant un espace de nommage propre, sans conflit.
Éviter les conflits de raccourcis
Avant de finaliser un raccourci, vérifiez qu'il n'est pas déjà revendiqué :
Terminal
# Check system-level shortcuts via defaults
defaults read com.apple.symbolichotkeys AppleSymbolicHotKeys
Vous pouvez également naviguer vers System Settings → Keyboard → Keyboard Shortcuts et parcourir chaque catégorie. Les zones de conflit courantes incluent :
- Mission Control possède la plupart des combinaisons
⌃ + Flèche
- Spotlight utilise par défaut
⌘ + Space
- Les outils de capture d'écran occupent plusieurs emplacements
⌘ + Shift + chiffre
- Les applications tierces comme Alfred, 1Password ou Magnet peuvent revendiquer des raccourcis basés sur
⌥
Amplifier les flux de travail de sélection de texte
La véritable puissance des raccourcis IA à l'échelle du système se révèle lorsqu'ils sont combinés avec des déclencheurs de sélection de texte. Configurez vos commandes Ollama pour opérer sur le texte actuellement sélectionné dans n'importe quelle application :
- Sélectionnez du texte dans Safari, Notion, Xcode, Slack — n'importe où
- Appuyez sur
⌃ + ⌥ + S
- Ollama traite la sélection et retourne un résumé en ligne, sans changer d'application
Cela fonctionne parce que Raycast lit le presse-papiers système et le contexte de sélection actif. Pour garantir la fiabilité, activez "Read selected text from active app" dans le panneau de configuration de votre extension.
Créer une carte de mémoire musculaire
Notez vos raccourcis et respectez-les pendant 30 jours. La cohérence est ce qui convertit les raccourcis conscients en mémoire musculaire inconsciente. Envisagez cette progression :
Terminal
Week 1: Use hotkeys consciously, referring to your cheat sheet
Week 2: Fingers begin finding shortcuts without looking
Week 3: Hotkeys feel as natural as ⌘+C / ⌘+V
Week 4: You forget AI assistance is a "tool" — it's just thinking
L'objectif est un accès IA à latence zéro — où l'écart entre l'intention et l'exécution disparaît entièrement. Avec la bonne architecture de raccourcis en place, Ollama cesse d'être quelque chose que l'