AI per Mac a livello di sistema: Collega Ollama a Raycast

laptop_mac macOS Sonoma Intermediate schedule 8 min read
Author by Alex Rivera • May 14, 2024

Step 1 Liberare l'AI a Livello di Sistema su macOS

Il power user moderno su macOS opera in un ecosistema AI frammentato — schede del browser bloccate su ChatGPT, app separate per l'assistenza alla scrittura, e un continuo cambio di contesto che distrugge il flusso cognitivo. E se la tua AI non fosse confinata in una finestra del browser, ma intessuta direttamente nel tessuto del sistema operativo, disponibile nell'istante in cui ne hai bisogno, reattiva in millisecondi, con zero dati che lasciano la tua macchina?

È esattamente ciò che accade quando colleghi Ollama a Raycast. La combinazione è genuinamente trasformativa per il modo in cui interagisci con il tuo Mac.

Perché Questa Architettura È Diversa

La maggior parte delle integrazioni AI segue lo stesso schema: apri un'app, digita un prompt, attendi una risposta dal cloud, copia l'output. Questo flusso di lavoro introduce overhead cognitivo ad ogni passaggio. Raycast + Ollama rompe questo schema in modo radicale, posizionando l'AI come una primitiva di sistema di prima classe.

Approccio Latenza Privacy Supporto Offline Consapevolezza del Contesto
ChatGPT via browser Alta (round-trip di rete) ❌ Dati inviati a OpenAI ❌ Richiede internet Limitata
App AI native Media Variabile A volte Minima
Raycast + Ollama Ultra-bassa (localhost) ✅ 100% locale ✅ Completamente offline Profonda (a livello di sistema)

Cosa Porta Ollama all'Equazione

Ollama è un server di inferenza leggero che esegue modelli linguistici di grandi dimensioni localmente su Apple Silicon. Espone una REST API pulita su http://localhost:11434, rendendo estremamente semplice per altri strumenti il suo consumo. Modelli come Llama 3, Mistral, Phi-3 e Gemma 2 girano con velocità impressionante sui chip della serie M, spesso eguagliando o superando i tempi di risposta dei modelli cloud per le attività tipiche.

Terminal
# Verify Ollama is running and listening
curl http://localhost:11434/api/tags

# Expected output: a JSON list of your locally installed models

Una volta che Ollama è in esecuzione come servizio in background, diventa una spina dorsale AI persistente che qualsiasi applicazione correttamente configurata può interrogare — incluso Raycast.

Cosa Porta Raycast all'Equazione

Raycast è un launcher di comandi a livello di sistema che ha effettivamente sostituito Spotlight per centinaia di migliaia di utenti Mac. Il suo ecosistema di estensioni gli consente di integrarsi con praticamente qualsiasi cosa, e il suo framework di comandi AI ti permette di convogliare testo selezionato, contenuti degli appunti o prompt in forma libera direttamente verso qualsiasi endpoint LLM.

L'intuizione cruciale qui è questa: i comandi Raycast sono disponibili da qualsiasi punto di macOS. Che tu sia in Xcode a revisionare una funzione, in Notion a redigere un documento, in Slack a comporre un messaggio, o in Terminal a fare debug di uno script — una singola invocazione tramite hotkey porta l'AI su ciò su cui stai lavorando, senza cambiare applicazione.

Il Potere della Componibilità

Ciò che rende questa configurazione genuinamente potente non è una singola funzionalità — è la componibilità. Puoi:

  • Selezionare del codice in qualsiasi editor → invocare un comando AI di Raycast → ottenere una spiegazione iniettata negli appunti
  • Evidenziare un paragrafo denso in Safari → riassumerlo in linguaggio semplice senza lasciare la pagina
  • Catturare un messaggio di errore da Terminal → elaborarlo tramite un prompt di debug → incollare immediatamente la correzione

Questa è la differenza tra l'AI come strumento che si va a visitare e l'AI come capacità che si porta con sé. Le sezioni seguenti ti guideranno nell'assemblaggio di questo sistema da zero, dall'installazione della necessaria estensione Raycast alla configurazione degli hotkey che fanno sentire l'intero flusso di lavoro come una funzionalità nativa del sistema operativo.

Nota: Tutto in questa guida viene eseguito interamente sul dispositivo. Nessuna chiave API, nessun abbonamento, nessuna telemetria. I tuoi prompt e le tue risposte non lasciano mai il tuo Mac.

Step 2 Prerequisiti: Configurazione di Raycast

Prima di immergerti nell'integrazione con Ollama, hai bisogno di un ambiente Raycast correttamente configurato. Saltare questa base causerà attriti in seguito — quindi facciamo le cose per bene fin dall'inizio.

Di Cosa Avrai Bisogno

Requisito Versione Note
Raycast 1.50.0+ Piano Pro richiesto per le funzionalità AI
macOS 12 Monterey+ Ventura o Sonoma fortemente consigliati
Ollama 0.1.20+ Deve essere in esecuzione come servizio locale
RAM 8GB minimo 16GB+ consigliati per modelli più grandi

Installare Raycast

Se non hai ancora installato Raycast, il processo è semplice. Scarica l'ultima versione stabile direttamente da raycast.com oppure installalo tramite Homebrew:

Terminal
brew install --cask raycast

Una volta installato, avvia Raycast e completa l'onboarding iniziale. Sostituisci immediatamente Spotlight — questo è non negoziabile per il flusso di lavoro che stiamo costruendo. Naviga in:

Terminal
System Settings → Keyboard → Keyboard Shortcuts → Spotlight

Deseleziona Show Spotlight search da ⌘Space, poi assegna ⌘Space nelle preferenze di Raycast in General → Raycast Hotkey.


Verificare la Versione di Raycast

L'estensione Ollama richiede che l'API delle estensioni di Raycast supporti endpoint di modelli personalizzati. Apri le preferenze di Raycast e verifica la tua build:

Terminal
Raycast → About Raycast → Build Number

In alternativa, esegui questo rapido controllo dal tuo terminale:

Terminal
defaults read com.raycast.macos CFBundleShortVersionString

Se sei indietro con le versioni, l'aggiornatore integrato gestirà la situazione:

Terminal
Raycast → Check for Updates

Abilitare le Estensioni in Raycast

Per impostazione predefinita, lo store delle estensioni di Raycast è accessibile, ma vuoi assicurarti che la scheda Extensions sia sbloccata e che lo store sia raggiungibile. Apri le preferenze di Raycast con ⌘, e verifica di poter navigare nella scheda Extensions senza errori.

Impostazione critica da abilitare prima di procedere:

Naviga in Raycast Preferences → Extensions e assicurati che "Allow Extension Installation from Store" sia attivato. Senza questo, l'installazione dell'estensione Ollama nel passo successivo fallirà silenziosamente.


Verificare che Ollama Sia in Esecuzione

Raycast ha bisogno di un'istanza Ollama attiva con cui comunicare. Prima di configurare qualsiasi cosa all'interno di Raycast, verifica che Ollama sia attivo e reattivo:

Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags

# Expected response (example)
{
  "models": [
    {
      "name": "llama3:latest",
      "modified_at": "2024-01-15T10:30:00Z",
      "size": 4661211584
    }
  ]
}

Se il comando curl va in timeout o restituisce un errore di connessione, avvia Ollama manualmente:

Terminal
ollama serve

Suggerimento pro: Aggiungi Ollama agli elementi di login di macOS in modo che si avvii automaticamente. Naviga in System Settings → General → Login Items e aggiungi l'applicazione Ollama. Questo garantisce che Raycast abbia sempre un backend di modelli disponibile nel momento in cui accendi la macchina.


Autorizzazioni di Rete

macOS chiederà le autorizzazioni di accesso alla rete la prima volta che Raycast tenterà di raggiungere la tua istanza locale di Ollama. Clicca "Allow" senza esitazione — questa è comunicazione su localhost, non accesso alla rete esterna. Se hai accidentalmente negato il prompt, reimpostalo tramite:

Terminal
tccutil reset All com.raycast.macos

Con questi prerequisiti consolidati, il tuo ambiente è pronto per l'installazione dell'estensione.

Step 3 Passo 1: Installare l'Estensione Raycast Ollama

Con Ollama in esecuzione localmente e Raycast installato, il ponte tra il tuo launcher di sistema e i tuoi modelli AI locali è una singola estensione. Questa sezione ti guida attraverso il processo di installazione preciso, garantendo zero ambiguità ad ogni passaggio.

Trovare l'Estensione nel Raycast Store

Raycast mantiene un marketplace di estensioni curato, accessibile direttamente dall'app stessa. Ecco come navigarci:

  1. Apri Raycast con il tuo hotkey configurato (predefinito: ⌥ Space)
  2. Digita "Store" e seleziona Raycast Store
  3. Nella barra di ricerca, digita Ollama
  4. Individua l'estensione intitolata "Ollama AI" — realizzata dalla community e verificata dal team di Raycast

In alternativa, puoi installarla direttamente dal web:

Terminal
https://www.raycast.com/massimiliano_pasquini/raycast-ollama

Clicca "Install Extension" sulla pagina web, e Raycast si collegherà direttamente al prompt di installazione sulla tua macchina tramite deep link.


Installazione tramite Raycast CLI (Metodo per Power User)

Se preferisci flussi di lavoro basati sul terminale, Raycast supporta la gestione delle estensioni attraverso il suo toolchain CLI. Prima, assicurati di avere installato la CLI di Raycast:

Terminal
# Install Raycast CLI via npm
npm install -g @raycast/api

# Verify installation
raycast --version

Nota: Il metodo CLI è principalmente pensato per lo sviluppo di estensioni, non per l'installazione da parte dell'utente finale. Per uso in produzione, il metodo tramite interfaccia Store è raccomandato.


Procedura Dettagliata di Installazione dell'Estensione

Una volta cliccato Install dall'interfaccia dello Store o dal portale web, vedrai il seguente prompt di autorizzazione in Raycast:

Autorizzazione Richiesta Motivo
Accesso alla Rete Comunica con l'API HTTP locale di Ollama
Lettura/Scrittura degli Appunti Abilita i comandi di trasformazione del testo
Servizi di Sistema Consente alle risposte AI di iniettarsi nelle app attive

Accetta tutte le autorizzazioni — nessuna di queste raggiunge internet. Ogni richiesta viene instradata solo verso localhost, il che significa che i tuoi dati non lasciano mai la tua macchina.


Verificare l'Installazione

Dopo l'installazione, conferma che l'estensione sia attiva:

  1. Apri Raycast (⌥ Space)
  2. Digita Ollama — dovresti vedere immediatamente apparire un gruppo di comandi: - Ollama: Chat - Ollama: Ask - Ollama: Summarize - Ollama: Fix Grammar
  3. Seleziona Ollama: Chat e premi

Se Ollama è in esecuzione (ollama serve nel tuo terminale), entrerai direttamente in una sessione di chat interattiva. Se vedi un errore di connessione, verifica che il daemon sia attivo:

Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags

# Expected output (truncated):
# {"models":[{"name":"llama3.2:latest",...}]}

# If not running, start it:
ollama serve

Scaricare il Tuo Primo Modello (Se Non Lo Hai Già Fatto)

L'estensione richiede che almeno un modello sia scaricato localmente prima che i comandi possano essere eseguiti. Un'impostazione predefinita rapida e capace per uso generale:

Terminal
# Lightweight and fast — ideal for system-wide commands
ollama pull llama3.2

# Higher capability for complex tasks (requires more RAM)
ollama pull mistral

# Verify models are available
ollama list

A questo punto, l'estensione è installata, connessa e pronta. Il passo successivo entra nella configurazione precisa dell'API — calibrando endpoint, porta e comportamento delle risposte per adattarsi esattamente al tuo hardware e alle tue esigenze di flusso di lavoro.

Step 4 Passo 2: Configurare gli Endpoint API e le Porte

Con l'estensione Raycast Ollama installata, il passo critico successivo è garantire che Raycast possa effettivamente comunicare con la tua istanza locale di Ollama. Questo richiede una solida comprensione di come Ollama espone la sua API e di come configurare l'estensione per puntare all'endpoint corretto.

Comprendere la Configurazione di Rete Predefinita di Ollama

Per impostazione predefinita, Ollama esegue un server API REST locale al seguente indirizzo:

Terminal
http://localhost:11434

Questo è il valore più importante che configurerai. Ogni richiesta AI che Raycast effettua — che si tratti di una sintesi di testo, una spiegazione di codice o una correzione grammaticale — viene instradata attraverso questo endpoint come richiesta HTTP verso il motore di inferenza Ollama in esecuzione sulla tua macchina.

Puoi verificare in qualsiasi momento che Ollama sia in esecuzione e reattivo raggiungendo direttamente l'endpoint di salute dal tuo terminale:

Terminal
curl http://localhost:11434
# Expected output: Ollama is running

Se questo restituisce un errore, Ollama non è in esecuzione. Avvialo con:

Terminal
ollama serve

Suggerimento pro: Su macOS, se hai installato Ollama tramite l'applicazione GUI .dmg, viene eseguito automaticamente come processo nella barra dei menu. Se hai installato tramite Homebrew, potresti dover avviarlo manualmente o configurare un servizio launchd.


Configurare l'Endpoint dell'Estensione in Raycast

Apri Raycast (⌘ Space per impostazione predefinita), digita Extensions e naviga nelle impostazioni dell'estensione Ollama. Troverai i seguenti campi configurabili:

Impostazione Valore Predefinito Descrizione
Ollama API URL http://localhost:11434 URL base per il server Ollama locale
Request Timeout 60000 ms Tempo massimo di attesa prima che una richiesta fallisca
Default Model (definito dall'utente) Modello utilizzato quando non è specificato alcun override

Imposta l'Ollama API URL su http://localhost:11434 a meno che tu non abbia deliberatamente modificato la porta predefinita di Ollama. Se stai eseguendo Ollama su una porta diversa — ad esempio per evitare conflitti con altri servizi locali — puoi sovrascriverla all'avvio:

Terminal
OLLAMA_HOST=0.0.0.0:11435 ollama serve

In tal caso, aggiorna l'URL dell'estensione Raycast di conseguenza:

Terminal
http://localhost:11435

Gestire Istanze Ollama Remote e su Rete

Una delle capacità sottovalutate di questa configurazione è che Raycast non richiede che Ollama sia in esecuzione localmente. Se stai eseguendo Ollama su una macchina remota, un NAS o un server GPU dedicato sulla tua rete locale, puoi puntare Raycast all'indirizzo IP di quella macchina:

Terminal
http://192.168.1.50:11434

Considerazione di sicurezza importante: Per impostazione predefinita, Ollama si lega solo a localhost. Per esporlo su un'interfaccia di rete, devi impostare esplicitamente:

Terminal
OLLAMA_HOST=0.0.0.0:11434 ollama serve

Non esporre mai questa porta a internet pubblico senza autenticazione. Ollama non ha un layer di autenticazione integrato — trattalo come una porta di database aperta e proteggila con il firewall di conseguenza.


Confermare la Disponibilità dei Modelli

Prima di procedere, verifica che i tuoi modelli target siano scaricati e disponibili tramite API:

Terminal
curl http://localhost:11434/api/tags | jq '.models[].name'

Questo restituisce un elenco di tutti i modelli disponibili localmente. L'estensione Raycast popolerà il suo selettore di modelli da questo elenco, quindi qualsiasi modello che intendi utilizzare in un comando personalizzato deve essere scaricato preventivamente usando ollama pull <model-name>.

Con il tuo endpoint configurato e i modelli confermati, Raycast dispone ora di un canale chiaro e a bassa latenza verso la tua AI locale — zero dipendenze cloud, zero costi API e tempi di risposta inferiori al secondo su hardware adeguato.

Step 5 Creare Comandi AI Personalizzati (Riassumi, Riscrivi, Correggi la Grammatica)

Con la tua estensione Ollama configurata e in comunicazione con i tuoi modelli locali, il vero potere deriva dalla costruzione di comandi AI dedicati che si attivano istantaneamente da qualsiasi punto del tuo Mac. Il sistema di scripting di Raycast ti consente di creare comandi su misura per il tuo esatto flusso di lavoro — senza copiare e incollare in un'interfaccia di chat, senza cambio di contesto.

Comprendere le Estensioni AI di Raycast vs. gli Script Personalizzati

Raycast offre due percorsi per i comandi AI personalizzati:

  1. Comandi basati su estensioni — Costruiti attraverso il pannello di configurazione dei prompt dell'estensione Raycast Ollama
  2. Script command — Script shell o JavaScript che chiamano direttamente l'API Ollama

Per la maggior parte degli utenti, l'approccio basato su estensioni copre il 90% dei casi d'uso. Per pipeline avanzate, gli script command ti danno il controllo totale.


Configurare i Prompt nell'Estensione Ollama

Apri Raycast, cerca "Ollama" e naviga in Custom Commands. Ogni comando richiede:

Campo Descrizione Esempio
Name Identificatore del comando in Raycast Summarize Selection
Model Quale modello Ollama utilizzare llama3.2
System Prompt Istruzione persistente al modello You are a concise summarizer.
User Prompt Template Prompt dinamico con variabile {selection} Summarize this in 3 bullet points: {selection}
Output Dove appare il risultato Clipboard / HUD / Detail View

I Tre Comandi Essenziali

1. Riassumi

Questo comando distilla qualsiasi testo selezionato — email, articoli, documentazione — in punti elenco digeribili.

System Prompt:

Terminal
You are a precise summarization assistant. Extract only the essential information. Never add opinions or information not present in the source text. Respond only with the summary, no preamble.

User Prompt:

Terminal
Summarize the following text into 3-5 concise bullet points:

{selection}

Imposta Output su Detail View in modo che i riassunti più lunghi rimangano leggibili senza ingombrare gli appunti.


2. Riscrivi

Il comando di riscrittura trasforma una prosa goffa in testo raffinato e professionale. Ideale per messaggi Slack, documentazione ed email.

System Prompt:

Terminal
You are an expert editor and technical writer. Rewrite the provided text to be clear, concise, and professional. Preserve the original meaning and tone intent. Return only the rewritten text with no explanation.

User Prompt:

Terminal
Rewrite the following to be clearer and more professional:

{selection}

Imposta Output su Clipboard in modo da poter incollare la versione migliorata istantaneamente con ⌘V.


3. Correggi la Grammatica

Correzione grammaticale chirurgica senza alterare la tua voce — fondamentale per gli sviluppatori che scrivono documentazione o per i parlanti non madrelingua inglese.

System Prompt:

Terminal
You are a grammar correction tool. Fix all grammatical errors, punctuation mistakes, and spelling issues in the provided text. Do not change the writing style, tone, or word choices unless grammatically necessary. Return only the corrected text.

User Prompt:

Terminal
Fix the grammar and punctuation in the following text:

{selection}

Avanzato: Script Command per l'Elaborazione Batch

Per i power user che necessitano di controllo programmatico, chiama direttamente la REST API di Ollama tramite un Raycast Script Command:

Terminal
#!/bin/bash
# Required parameters:
# @raycast.schemaVersion 1
# @raycast.title Fix Grammar (Script)
# @raycast.mode silent

SELECTION=$(pbpaste)

RESPONSE=$(curl -s http://localhost:11434/api/generate \
  -H "Content-Type: application/json" \
  -d "{
    \"model\": \"llama3.2\",
    \"prompt\": \"Fix grammar only, return corrected text: ${SELECTION}\",
    \"stream\": false
  }" | python3 -c "import sys, json; print(json.load(sys.stdin)['response'])")

echo "$RESPONSE" | pbcopy

Salva questo come fix-grammar.sh, rendilo eseguibile con chmod +x fix-grammar.sh, e inseriscilo in ~/.config/raycast/scripts/.


Strategia di Selezione del Modello

Non ogni attività necessita del tuo modello più potente. Abbina la dimensione del modello alla complessità del comando:

Comando Modello Consigliato Perché
Correggi Grammatica phi3 o gemma2:2b Veloce, leggero, compito semplice
Riscrivi llama3.2 Qualità e velocità bilanciate
Riassumi llama3.2 o mistral Richiede profondità di comprensione

Suggerimento pro: I modelli più piccoli rispondono in meno di un secondo su Apple Silicon — per le correzioni grammaticali, quella differenza di velocità è trasformativa quando usi il comando decine di volte al giorno.

Step 6 Ottimizzare gli Hotkey per un Accesso Fulmineo

La differenza tra un buon flusso di lavoro AI e uno eccellente si riduce all'attrito. Ogni click in più, ogni cambio di contesto, ogni momento speso a cercare un menu è overhead cognitivo che rompe il tuo flusso. Gli hotkey eliminano completamente quell'attrito — trasformando l'assistenza AI da uno strumento deliberato a un'estensione invisibile del tuo pensiero.

L'Architettura degli Hotkey di Raycast

Raycast supporta due livelli distinti di assegnazione delle scorciatoie da tastiera:

Livello Portata Ideale Per
Global Hotkey A livello di sistema, funziona in qualsiasi app Il tuo singolo comando AI più usato
Extension Hotkey Attiva comandi specifici dell'estensione Comandi frequenti ma secondari
Alias Apre Raycast + precompila il comando Accesso rapido senza memorizzare i nomi completi
Quicklink Collegamento Raycast a un prompt specifico Attività AI templated e ripetibili

Assegnare Hotkey ai Tuoi Comandi AI

Naviga in Raycast Preferences → Extensions → Ollama AI e individua ogni comando personalizzato che hai costruito nella sezione precedente. Clicca il campo hotkey accanto a qualsiasi comando e premi la combinazione di tasti desiderata.

Schema di hotkey consigliato per i comandi AI:

Terminal
⌥ + Space        → Open Raycast (main launcher)
⌃ + ⌥ + S        → AI Summarize (selected text)
⌃ + ⌥ + R        → AI Rewrite (selected text)  
⌃ + ⌥ + G        → Fix Grammar (selected text)
⌃ + ⌥ + O        → Open Ollama Chat (freeform)

Suggerimento pro: Usa Control (⌃) + Option (⌥) come prefisso modificatore per tutti i comandi AI. Questa combinazione è raramente rivendicata dalle scorciatoie di sistema di macOS o da altre applicazioni, offrendoti uno spazio dei nomi pulito e privo di conflitti.

Evitare i Conflitti di Hotkey

Prima di finalizzare qualsiasi scorciatoia, verifica che non sia già assegnata:

Terminal
# Check system-level shortcuts via defaults
defaults read com.apple.symbolichotkeys AppleSymbolicHotKeys

Puoi anche navigare in System Settings → Keyboard → Keyboard Shortcuts e scansionare ogni categoria. Le zone di conflitto comuni includono:

  • Mission Control occupa la maggior parte delle combinazioni ⌃ + Freccia
  • Spotlight usa per impostazione predefinita ⌘ + Space
  • Gli strumenti di screenshot occupano diversi slot ⌘ + Shift + numero
  • App di terze parti come Alfred, 1Password o Magnet possono rivendicare scorciatoie basate su

Potenziare i Flussi di Lavoro di Selezione del Testo

Il vero potere degli hotkey AI a livello di sistema emerge quando vengono combinati con i trigger di selezione del testo. Configura i tuoi comandi Ollama per operare sul testo attualmente selezionato in qualsiasi applicazione:

  1. Seleziona del testo in Safari, Notion, Xcode, Slack — ovunque
  2. Premi ⌃ + ⌥ + S
  3. Ollama elabora la selezione e restituisce un riassunto in linea, senza cambiare app

Questo funziona perché Raycast legge gli appunti di sistema e il contesto di selezione attivo. Per garantire l'affidabilità, abilita "Read selected text from active app" nel pannello di configurazione della tua estensione.

Creare una Mappa di Memoria Muscolare

Scrivi i tuoi hotkey e rispettali per 30 giorni. La coerenza è ciò che converte le scorciatoie consapevoli in memoria muscolare inconscia. Considera questa progressione:

Terminal
Week 1:  Use hotkeys consciously, referring to your cheat sheet
Week 2:  Fingers begin finding shortcuts without looking
Week 3:  Hotkeys feel as natural as ⌘+C / ⌘+V
Week 4:  You forget AI assistance is a "tool" — it's just thinking

L'obiettivo è l'accesso AI a latenza zero — dove il divario tra intenzione ed esecuzione scompare completamente. Con la giusta architettura di hotkey in atto, Ollama smette di essere qualcosa che apri e diventa qualcosa a cui ti rivolgi.