laptop_mac macOS Sonoma
Intermediate
schedule 8 min read
by Alex Rivera • May 14, 2024
Step 1 Liberare l'AI a Livello di Sistema su macOS
Il power user moderno su macOS opera in un ecosistema AI frammentato — schede del browser bloccate su ChatGPT, app separate per l'assistenza alla scrittura, e un continuo cambio di contesto che distrugge il flusso cognitivo. E se la tua AI non fosse confinata in una finestra del browser, ma intessuta direttamente nel tessuto del sistema operativo, disponibile nell'istante in cui ne hai bisogno, reattiva in millisecondi, con zero dati che lasciano la tua macchina?
È esattamente ciò che accade quando colleghi Ollama a Raycast. La combinazione è genuinamente trasformativa per il modo in cui interagisci con il tuo Mac.
Perché Questa Architettura È Diversa
La maggior parte delle integrazioni AI segue lo stesso schema: apri un'app, digita un prompt, attendi una risposta dal cloud, copia l'output. Questo flusso di lavoro introduce overhead cognitivo ad ogni passaggio. Raycast + Ollama rompe questo schema in modo radicale, posizionando l'AI come una primitiva di sistema di prima classe.
| Approccio |
Latenza |
Privacy |
Supporto Offline |
Consapevolezza del Contesto |
| ChatGPT via browser |
Alta (round-trip di rete) |
❌ Dati inviati a OpenAI |
❌ Richiede internet |
Limitata |
| App AI native |
Media |
Variabile |
A volte |
Minima |
| Raycast + Ollama |
Ultra-bassa (localhost) |
✅ 100% locale |
✅ Completamente offline |
Profonda (a livello di sistema) |
Cosa Porta Ollama all'Equazione
Ollama è un server di inferenza leggero che esegue modelli linguistici di grandi dimensioni localmente su Apple Silicon. Espone una REST API pulita su http://localhost:11434, rendendo estremamente semplice per altri strumenti il suo consumo. Modelli come Llama 3, Mistral, Phi-3 e Gemma 2 girano con velocità impressionante sui chip della serie M, spesso eguagliando o superando i tempi di risposta dei modelli cloud per le attività tipiche.
Terminal
# Verify Ollama is running and listening
curl http://localhost:11434/api/tags
# Expected output: a JSON list of your locally installed models
Una volta che Ollama è in esecuzione come servizio in background, diventa una spina dorsale AI persistente che qualsiasi applicazione correttamente configurata può interrogare — incluso Raycast.
Cosa Porta Raycast all'Equazione
Raycast è un launcher di comandi a livello di sistema che ha effettivamente sostituito Spotlight per centinaia di migliaia di utenti Mac. Il suo ecosistema di estensioni gli consente di integrarsi con praticamente qualsiasi cosa, e il suo framework di comandi AI ti permette di convogliare testo selezionato, contenuti degli appunti o prompt in forma libera direttamente verso qualsiasi endpoint LLM.
L'intuizione cruciale qui è questa: i comandi Raycast sono disponibili da qualsiasi punto di macOS. Che tu sia in Xcode a revisionare una funzione, in Notion a redigere un documento, in Slack a comporre un messaggio, o in Terminal a fare debug di uno script — una singola invocazione tramite hotkey porta l'AI su ciò su cui stai lavorando, senza cambiare applicazione.
Il Potere della Componibilità
Ciò che rende questa configurazione genuinamente potente non è una singola funzionalità — è la componibilità. Puoi:
- Selezionare del codice in qualsiasi editor → invocare un comando AI di Raycast → ottenere una spiegazione iniettata negli appunti
- Evidenziare un paragrafo denso in Safari → riassumerlo in linguaggio semplice senza lasciare la pagina
- Catturare un messaggio di errore da Terminal → elaborarlo tramite un prompt di debug → incollare immediatamente la correzione
Questa è la differenza tra l'AI come strumento che si va a visitare e l'AI come capacità che si porta con sé. Le sezioni seguenti ti guideranno nell'assemblaggio di questo sistema da zero, dall'installazione della necessaria estensione Raycast alla configurazione degli hotkey che fanno sentire l'intero flusso di lavoro come una funzionalità nativa del sistema operativo.
Nota: Tutto in questa guida viene eseguito interamente sul dispositivo. Nessuna chiave API, nessun abbonamento, nessuna telemetria. I tuoi prompt e le tue risposte non lasciano mai il tuo Mac.
Step 2 Prerequisiti: Configurazione di Raycast
Prima di immergerti nell'integrazione con Ollama, hai bisogno di un ambiente Raycast correttamente configurato. Saltare questa base causerà attriti in seguito — quindi facciamo le cose per bene fin dall'inizio.
Di Cosa Avrai Bisogno
| Requisito |
Versione |
Note |
| Raycast |
1.50.0+ |
Piano Pro richiesto per le funzionalità AI |
| macOS |
12 Monterey+ |
Ventura o Sonoma fortemente consigliati |
| Ollama |
0.1.20+ |
Deve essere in esecuzione come servizio locale |
| RAM |
8GB minimo |
16GB+ consigliati per modelli più grandi |
Installare Raycast
Se non hai ancora installato Raycast, il processo è semplice. Scarica l'ultima versione stabile direttamente da raycast.com oppure installalo tramite Homebrew:
Terminal
brew install --cask raycast
Una volta installato, avvia Raycast e completa l'onboarding iniziale. Sostituisci immediatamente Spotlight — questo è non negoziabile per il flusso di lavoro che stiamo costruendo. Naviga in:
Terminal
System Settings → Keyboard → Keyboard Shortcuts → Spotlight
Deseleziona Show Spotlight search da ⌘Space, poi assegna ⌘Space nelle preferenze di Raycast in General → Raycast Hotkey.
Verificare la Versione di Raycast
L'estensione Ollama richiede che l'API delle estensioni di Raycast supporti endpoint di modelli personalizzati. Apri le preferenze di Raycast e verifica la tua build:
Terminal
Raycast → About Raycast → Build Number
In alternativa, esegui questo rapido controllo dal tuo terminale:
Terminal
defaults read com.raycast.macos CFBundleShortVersionString
Se sei indietro con le versioni, l'aggiornatore integrato gestirà la situazione:
Terminal
Raycast → Check for Updates
Abilitare le Estensioni in Raycast
Per impostazione predefinita, lo store delle estensioni di Raycast è accessibile, ma vuoi assicurarti che la scheda Extensions sia sbloccata e che lo store sia raggiungibile. Apri le preferenze di Raycast con ⌘, e verifica di poter navigare nella scheda Extensions senza errori.
Impostazione critica da abilitare prima di procedere:
Naviga in Raycast Preferences → Extensions e assicurati che "Allow Extension Installation from Store" sia attivato. Senza questo, l'installazione dell'estensione Ollama nel passo successivo fallirà silenziosamente.
Verificare che Ollama Sia in Esecuzione
Raycast ha bisogno di un'istanza Ollama attiva con cui comunicare. Prima di configurare qualsiasi cosa all'interno di Raycast, verifica che Ollama sia attivo e reattivo:
Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags
# Expected response (example)
{
"models": [
{
"name": "llama3:latest",
"modified_at": "2024-01-15T10:30:00Z",
"size": 4661211584
}
]
}
Se il comando curl va in timeout o restituisce un errore di connessione, avvia Ollama manualmente:
Suggerimento pro: Aggiungi Ollama agli elementi di login di macOS in modo che si avvii automaticamente. Naviga in System Settings → General → Login Items e aggiungi l'applicazione Ollama. Questo garantisce che Raycast abbia sempre un backend di modelli disponibile nel momento in cui accendi la macchina.
Autorizzazioni di Rete
macOS chiederà le autorizzazioni di accesso alla rete la prima volta che Raycast tenterà di raggiungere la tua istanza locale di Ollama. Clicca "Allow" senza esitazione — questa è comunicazione su localhost, non accesso alla rete esterna. Se hai accidentalmente negato il prompt, reimpostalo tramite:
Terminal
tccutil reset All com.raycast.macos
Con questi prerequisiti consolidati, il tuo ambiente è pronto per l'installazione dell'estensione.
Step 3 Passo 1: Installare l'Estensione Raycast Ollama
Con Ollama in esecuzione localmente e Raycast installato, il ponte tra il tuo launcher di sistema e i tuoi modelli AI locali è una singola estensione. Questa sezione ti guida attraverso il processo di installazione preciso, garantendo zero ambiguità ad ogni passaggio.
Trovare l'Estensione nel Raycast Store
Raycast mantiene un marketplace di estensioni curato, accessibile direttamente dall'app stessa. Ecco come navigarci:
- Apri Raycast con il tuo hotkey configurato (predefinito:
⌥ Space)
- Digita "Store" e seleziona Raycast Store
- Nella barra di ricerca, digita
Ollama
- Individua l'estensione intitolata "Ollama AI" — realizzata dalla community e verificata dal team di Raycast
In alternativa, puoi installarla direttamente dal web:
Terminal
https://www.raycast.com/massimiliano_pasquini/raycast-ollama
Clicca "Install Extension" sulla pagina web, e Raycast si collegherà direttamente al prompt di installazione sulla tua macchina tramite deep link.
Installazione tramite Raycast CLI (Metodo per Power User)
Se preferisci flussi di lavoro basati sul terminale, Raycast supporta la gestione delle estensioni attraverso il suo toolchain CLI. Prima, assicurati di avere installato la CLI di Raycast:
Terminal
# Install Raycast CLI via npm
npm install -g @raycast/api
# Verify installation
raycast --version
Nota: Il metodo CLI è principalmente pensato per lo sviluppo di estensioni, non per l'installazione da parte dell'utente finale. Per uso in produzione, il metodo tramite interfaccia Store è raccomandato.
Procedura Dettagliata di Installazione dell'Estensione
Una volta cliccato Install dall'interfaccia dello Store o dal portale web, vedrai il seguente prompt di autorizzazione in Raycast:
| Autorizzazione Richiesta |
Motivo |
| Accesso alla Rete |
Comunica con l'API HTTP locale di Ollama |
| Lettura/Scrittura degli Appunti |
Abilita i comandi di trasformazione del testo |
| Servizi di Sistema |
Consente alle risposte AI di iniettarsi nelle app attive |
Accetta tutte le autorizzazioni — nessuna di queste raggiunge internet. Ogni richiesta viene instradata solo verso localhost, il che significa che i tuoi dati non lasciano mai la tua macchina.
Verificare l'Installazione
Dopo l'installazione, conferma che l'estensione sia attiva:
- Apri Raycast (
⌥ Space)
- Digita
Ollama — dovresti vedere immediatamente apparire un gruppo di comandi:
- Ollama: Chat
- Ollama: Ask
- Ollama: Summarize
- Ollama: Fix Grammar
- Seleziona
Ollama: Chat e premi ↵
Se Ollama è in esecuzione (ollama serve nel tuo terminale), entrerai direttamente in una sessione di chat interattiva. Se vedi un errore di connessione, verifica che il daemon sia attivo:
Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags
# Expected output (truncated):
# {"models":[{"name":"llama3.2:latest",...}]}
# If not running, start it:
ollama serve
Scaricare il Tuo Primo Modello (Se Non Lo Hai Già Fatto)
L'estensione richiede che almeno un modello sia scaricato localmente prima che i comandi possano essere eseguiti. Un'impostazione predefinita rapida e capace per uso generale:
Terminal
# Lightweight and fast — ideal for system-wide commands
ollama pull llama3.2
# Higher capability for complex tasks (requires more RAM)
ollama pull mistral
# Verify models are available
ollama list
A questo punto, l'estensione è installata, connessa e pronta. Il passo successivo entra nella configurazione precisa dell'API — calibrando endpoint, porta e comportamento delle risposte per adattarsi esattamente al tuo hardware e alle tue esigenze di flusso di lavoro.
Step 4 Passo 2: Configurare gli Endpoint API e le Porte
Con l'estensione Raycast Ollama installata, il passo critico successivo è garantire che Raycast possa effettivamente comunicare con la tua istanza locale di Ollama. Questo richiede una solida comprensione di come Ollama espone la sua API e di come configurare l'estensione per puntare all'endpoint corretto.
Comprendere la Configurazione di Rete Predefinita di Ollama
Per impostazione predefinita, Ollama esegue un server API REST locale al seguente indirizzo:
Questo è il valore più importante che configurerai. Ogni richiesta AI che Raycast effettua — che si tratti di una sintesi di testo, una spiegazione di codice o una correzione grammaticale — viene instradata attraverso questo endpoint come richiesta HTTP verso il motore di inferenza Ollama in esecuzione sulla tua macchina.
Puoi verificare in qualsiasi momento che Ollama sia in esecuzione e reattivo raggiungendo direttamente l'endpoint di salute dal tuo terminale:
Terminal
curl http://localhost:11434
# Expected output: Ollama is running
Se questo restituisce un errore, Ollama non è in esecuzione. Avvialo con:
Suggerimento pro: Su macOS, se hai installato Ollama tramite l'applicazione GUI .dmg, viene eseguito automaticamente come processo nella barra dei menu. Se hai installato tramite Homebrew, potresti dover avviarlo manualmente o configurare un servizio launchd.
Configurare l'Endpoint dell'Estensione in Raycast
Apri Raycast (⌘ Space per impostazione predefinita), digita Extensions e naviga nelle impostazioni dell'estensione Ollama. Troverai i seguenti campi configurabili:
| Impostazione |
Valore Predefinito |
Descrizione |
| Ollama API URL |
http://localhost:11434 |
URL base per il server Ollama locale |
| Request Timeout |
60000 ms |
Tempo massimo di attesa prima che una richiesta fallisca |
| Default Model |
(definito dall'utente) |
Modello utilizzato quando non è specificato alcun override |
Imposta l'Ollama API URL su http://localhost:11434 a meno che tu non abbia deliberatamente modificato la porta predefinita di Ollama. Se stai eseguendo Ollama su una porta diversa — ad esempio per evitare conflitti con altri servizi locali — puoi sovrascriverla all'avvio:
Terminal
OLLAMA_HOST=0.0.0.0:11435 ollama serve
In tal caso, aggiorna l'URL dell'estensione Raycast di conseguenza:
Gestire Istanze Ollama Remote e su Rete
Una delle capacità sottovalutate di questa configurazione è che Raycast non richiede che Ollama sia in esecuzione localmente. Se stai eseguendo Ollama su una macchina remota, un NAS o un server GPU dedicato sulla tua rete locale, puoi puntare Raycast all'indirizzo IP di quella macchina:
Terminal
http://192.168.1.50:11434
Considerazione di sicurezza importante: Per impostazione predefinita, Ollama si lega solo a localhost. Per esporlo su un'interfaccia di rete, devi impostare esplicitamente:
Terminal
OLLAMA_HOST=0.0.0.0:11434 ollama serve
Non esporre mai questa porta a internet pubblico senza autenticazione. Ollama non ha un layer di autenticazione integrato — trattalo come una porta di database aperta e proteggila con il firewall di conseguenza.
Confermare la Disponibilità dei Modelli
Prima di procedere, verifica che i tuoi modelli target siano scaricati e disponibili tramite API:
Terminal
curl http://localhost:11434/api/tags | jq '.models[].name'
Questo restituisce un elenco di tutti i modelli disponibili localmente. L'estensione Raycast popolerà il suo selettore di modelli da questo elenco, quindi qualsiasi modello che intendi utilizzare in un comando personalizzato deve essere scaricato preventivamente usando ollama pull <model-name>.
Con il tuo endpoint configurato e i modelli confermati, Raycast dispone ora di un canale chiaro e a bassa latenza verso la tua AI locale — zero dipendenze cloud, zero costi API e tempi di risposta inferiori al secondo su hardware adeguato.
Step 5 Creare Comandi AI Personalizzati (Riassumi, Riscrivi, Correggi la Grammatica)
Con la tua estensione Ollama configurata e in comunicazione con i tuoi modelli locali, il vero potere deriva dalla costruzione di comandi AI dedicati che si attivano istantaneamente da qualsiasi punto del tuo Mac. Il sistema di scripting di Raycast ti consente di creare comandi su misura per il tuo esatto flusso di lavoro — senza copiare e incollare in un'interfaccia di chat, senza cambio di contesto.
Comprendere le Estensioni AI di Raycast vs. gli Script Personalizzati
Raycast offre due percorsi per i comandi AI personalizzati:
- Comandi basati su estensioni — Costruiti attraverso il pannello di configurazione dei prompt dell'estensione Raycast Ollama
- Script command — Script shell o JavaScript che chiamano direttamente l'API Ollama
Per la maggior parte degli utenti, l'approccio basato su estensioni copre il 90% dei casi d'uso. Per pipeline avanzate, gli script command ti danno il controllo totale.
Configurare i Prompt nell'Estensione Ollama
Apri Raycast, cerca "Ollama" e naviga in Custom Commands. Ogni comando richiede:
| Campo |
Descrizione |
Esempio |
| Name |
Identificatore del comando in Raycast |
Summarize Selection |
| Model |
Quale modello Ollama utilizzare |
llama3.2 |
| System Prompt |
Istruzione persistente al modello |
You are a concise summarizer. |
| User Prompt Template |
Prompt dinamico con variabile {selection} |
Summarize this in 3 bullet points: {selection} |
| Output |
Dove appare il risultato |
Clipboard / HUD / Detail View |
I Tre Comandi Essenziali
1. Riassumi
Questo comando distilla qualsiasi testo selezionato — email, articoli, documentazione — in punti elenco digeribili.
System Prompt:
Terminal
You are a precise summarization assistant. Extract only the essential information. Never add opinions or information not present in the source text. Respond only with the summary, no preamble.
User Prompt:
Terminal
Summarize the following text into 3-5 concise bullet points:
{selection}
Imposta Output su Detail View in modo che i riassunti più lunghi rimangano leggibili senza ingombrare gli appunti.
2. Riscrivi
Il comando di riscrittura trasforma una prosa goffa in testo raffinato e professionale. Ideale per messaggi Slack, documentazione ed email.
System Prompt:
Terminal
You are an expert editor and technical writer. Rewrite the provided text to be clear, concise, and professional. Preserve the original meaning and tone intent. Return only the rewritten text with no explanation.
User Prompt:
Terminal
Rewrite the following to be clearer and more professional:
{selection}
Imposta Output su Clipboard in modo da poter incollare la versione migliorata istantaneamente con ⌘V.
3. Correggi la Grammatica
Correzione grammaticale chirurgica senza alterare la tua voce — fondamentale per gli sviluppatori che scrivono documentazione o per i parlanti non madrelingua inglese.
System Prompt:
Terminal
You are a grammar correction tool. Fix all grammatical errors, punctuation mistakes, and spelling issues in the provided text. Do not change the writing style, tone, or word choices unless grammatically necessary. Return only the corrected text.
User Prompt:
Terminal
Fix the grammar and punctuation in the following text:
{selection}
Avanzato: Script Command per l'Elaborazione Batch
Per i power user che necessitano di controllo programmatico, chiama direttamente la REST API di Ollama tramite un Raycast Script Command:
Terminal
#!/bin/bash
# Required parameters:
# @raycast.schemaVersion 1
# @raycast.title Fix Grammar (Script)
# @raycast.mode silent
SELECTION=$(pbpaste)
RESPONSE=$(curl -s http://localhost:11434/api/generate \
-H "Content-Type: application/json" \
-d "{
\"model\": \"llama3.2\",
\"prompt\": \"Fix grammar only, return corrected text: ${SELECTION}\",
\"stream\": false
}" | python3 -c "import sys, json; print(json.load(sys.stdin)['response'])")
echo "$RESPONSE" | pbcopy
Salva questo come fix-grammar.sh, rendilo eseguibile con chmod +x fix-grammar.sh, e inseriscilo in ~/.config/raycast/scripts/.
Strategia di Selezione del Modello
Non ogni attività necessita del tuo modello più potente. Abbina la dimensione del modello alla complessità del comando:
| Comando |
Modello Consigliato |
Perché |
| Correggi Grammatica |
phi3 o gemma2:2b |
Veloce, leggero, compito semplice |
| Riscrivi |
llama3.2 |
Qualità e velocità bilanciate |
| Riassumi |
llama3.2 o mistral |
Richiede profondità di comprensione |
Suggerimento pro: I modelli più piccoli rispondono in meno di un secondo su Apple Silicon — per le correzioni grammaticali, quella differenza di velocità è trasformativa quando usi il comando decine di volte al giorno.
Step 6 Ottimizzare gli Hotkey per un Accesso Fulmineo
La differenza tra un buon flusso di lavoro AI e uno eccellente si riduce all'attrito. Ogni click in più, ogni cambio di contesto, ogni momento speso a cercare un menu è overhead cognitivo che rompe il tuo flusso. Gli hotkey eliminano completamente quell'attrito — trasformando l'assistenza AI da uno strumento deliberato a un'estensione invisibile del tuo pensiero.
L'Architettura degli Hotkey di Raycast
Raycast supporta due livelli distinti di assegnazione delle scorciatoie da tastiera:
| Livello |
Portata |
Ideale Per |
| Global Hotkey |
A livello di sistema, funziona in qualsiasi app |
Il tuo singolo comando AI più usato |
| Extension Hotkey |
Attiva comandi specifici dell'estensione |
Comandi frequenti ma secondari |
| Alias |
Apre Raycast + precompila il comando |
Accesso rapido senza memorizzare i nomi completi |
| Quicklink |
Collegamento Raycast a un prompt specifico |
Attività AI templated e ripetibili |
Assegnare Hotkey ai Tuoi Comandi AI
Naviga in Raycast Preferences → Extensions → Ollama AI e individua ogni comando personalizzato che hai costruito nella sezione precedente. Clicca il campo hotkey accanto a qualsiasi comando e premi la combinazione di tasti desiderata.
Schema di hotkey consigliato per i comandi AI:
Terminal
⌥ + Space → Open Raycast (main launcher)
⌃ + ⌥ + S → AI Summarize (selected text)
⌃ + ⌥ + R → AI Rewrite (selected text)
⌃ + ⌥ + G → Fix Grammar (selected text)
⌃ + ⌥ + O → Open Ollama Chat (freeform)
Suggerimento pro: Usa Control (⌃) + Option (⌥) come prefisso modificatore per tutti i comandi AI. Questa combinazione è raramente rivendicata dalle scorciatoie di sistema di macOS o da altre applicazioni, offrendoti uno spazio dei nomi pulito e privo di conflitti.
Evitare i Conflitti di Hotkey
Prima di finalizzare qualsiasi scorciatoia, verifica che non sia già assegnata:
Terminal
# Check system-level shortcuts via defaults
defaults read com.apple.symbolichotkeys AppleSymbolicHotKeys
Puoi anche navigare in System Settings → Keyboard → Keyboard Shortcuts e scansionare ogni categoria. Le zone di conflitto comuni includono:
- Mission Control occupa la maggior parte delle combinazioni
⌃ + Freccia
- Spotlight usa per impostazione predefinita
⌘ + Space
- Gli strumenti di screenshot occupano diversi slot
⌘ + Shift + numero
- App di terze parti come Alfred, 1Password o Magnet possono rivendicare scorciatoie basate su
⌥
Potenziare i Flussi di Lavoro di Selezione del Testo
Il vero potere degli hotkey AI a livello di sistema emerge quando vengono combinati con i trigger di selezione del testo. Configura i tuoi comandi Ollama per operare sul testo attualmente selezionato in qualsiasi applicazione:
- Seleziona del testo in Safari, Notion, Xcode, Slack — ovunque
- Premi
⌃ + ⌥ + S
- Ollama elabora la selezione e restituisce un riassunto in linea, senza cambiare app
Questo funziona perché Raycast legge gli appunti di sistema e il contesto di selezione attivo. Per garantire l'affidabilità, abilita "Read selected text from active app" nel pannello di configurazione della tua estensione.
Creare una Mappa di Memoria Muscolare
Scrivi i tuoi hotkey e rispettali per 30 giorni. La coerenza è ciò che converte le scorciatoie consapevoli in memoria muscolare inconscia. Considera questa progressione:
Terminal
Week 1: Use hotkeys consciously, referring to your cheat sheet
Week 2: Fingers begin finding shortcuts without looking
Week 3: Hotkeys feel as natural as ⌘+C / ⌘+V
Week 4: You forget AI assistance is a "tool" — it's just thinking
L'obiettivo è l'accesso AI a latenza zero — dove il divario tra intenzione ed esecuzione scompare completamente. Con la giusta architettura di hotkey in atto, Ollama smette di essere qualcosa che apri e diventa qualcosa a cui ti rivolgi.