IA para Mac em todo o sistema: Conecte o Ollama ao Raycast

laptop_mac macOS Sonoma Intermediate schedule 8 min read
Author by Alex Rivera • May 14, 2024

Step 1 Liberando IA em Todo o Sistema no macOS

O power user moderno de macOS opera em um cenário de IA fragmentado — abas do navegador fixadas no ChatGPT, aplicativos separados para assistência de escrita e constante troca de contexto que destrói o estado de fluxo. E se a sua IA não ficasse isolada em uma janela de navegador, mas estivesse tecida diretamente no tecido do sistema operacional, disponível no instante em que você precisa, respondendo em milissegundos, com zero dados saindo da sua máquina?

É exatamente isso que acontece quando você conecta o Ollama ao Raycast. A combinação é genuinamente transformadora para a forma como você interage com o seu Mac.

Por Que Esta Arquitetura É Diferente

A maioria das integrações de IA segue o mesmo padrão: abrir um aplicativo, digitar um prompt, aguardar uma resposta da nuvem, copiar o resultado. Esse fluxo de trabalho introduz sobrecarga cognitiva em cada etapa. O Raycast + Ollama rompe completamente com esse padrão ao posicionar a IA como um primitivo de sistema de primeira classe.

Abordagem Latência Privacidade Suporte Offline Consciência de Contexto
ChatGPT via navegador Alta (round-trip de rede) ❌ Dados enviados à OpenAI ❌ Requer internet Limitada
Aplicativos de IA nativos Média Variável Às vezes Mínima
Raycast + Ollama Ultra-baixa (localhost) ✅ 100% local ✅ Totalmente offline Profunda (sistema inteiro)

O Que o Ollama Traz para a Equação

O Ollama é um servidor de inferência leve que executa grandes modelos de linguagem localmente no Apple Silicon. Ele expõe uma API REST limpa em http://localhost:11434, tornando trivialmente simples para outras ferramentas consumi-lo. Modelos como Llama 3, Mistral, Phi-3 e Gemma 2 rodam com velocidade impressionante nos chips da série M, muitas vezes igualando ou superando os tempos de resposta de modelos em nuvem para tarefas típicas.

Terminal
# Verify Ollama is running and listening
curl http://localhost:11434/api/tags

# Expected output: a JSON list of your locally installed models

Uma vez que o Ollama esteja rodando como um serviço em segundo plano, ele se torna um backbone de IA persistente que qualquer aplicativo devidamente configurado pode consultar — incluindo o Raycast.

O Que o Raycast Traz para a Equação

O Raycast é um lançador de comandos em todo o sistema que efetivamente substituiu o Spotlight para centenas de milhares de usuários de Mac. Seu ecossistema de extensões permite que ele se integre a praticamente qualquer coisa, e seu framework de comandos de IA possibilita que você direcione texto selecionado, conteúdo da área de transferência ou prompts de forma livre diretamente para qualquer endpoint de LLM.

O insight crítico aqui: os comandos do Raycast estão disponíveis em qualquer lugar no macOS. Esteja você no Xcode revisando uma função, no Notion redigindo um documento, no Slack compondo uma mensagem ou no Terminal depurando um script — uma única invocação por tecla de atalho traz a IA para o que você está trabalhando, sem trocar de aplicativo.

O Poder da Composabilidade

O que torna essa configuração genuinamente poderosa não é nenhuma funcionalidade isolada — é a composabilidade. Você pode:

  • Selecionar código em qualquer editor → invocar um comando de IA do Raycast → obter uma explicação injetada na sua área de transferência
  • Destacar um parágrafo denso no Safari → resumir em linguagem simples sem sair da página
  • Capturar uma mensagem de erro do Terminal → processá-la com um prompt de depuração → colar a correção de volta imediatamente

Essa é a diferença entre a IA como uma ferramenta que você visita e a IA como uma capacidade que você carrega. As seções a seguir irão guiá-lo na montagem desse sistema do zero, desde a instalação da extensão necessária do Raycast até a configuração de teclas de atalho que fazem todo o fluxo parecer um recurso nativo do SO.

Nota: Tudo neste guia é executado inteiramente no dispositivo. Sem chaves de API, sem assinaturas, sem telemetria. Seus prompts e respostas jamais saem do seu Mac.

Step 2 Pré-requisitos: Configuração do Raycast

Antes de mergulhar na integração com o Ollama, você precisa de um ambiente Raycast devidamente configurado. Pular essa base causará fricção mais tarde — então vamos acertar isso desde o início.

O Que Você Vai Precisar

Requisito Versão Observações
Raycast 1.50.0+ Plano Pro necessário para recursos de IA
macOS 12 Monterey+ Ventura ou Sonoma fortemente recomendados
Ollama 0.1.20+ Deve estar rodando como serviço local
RAM 8GB mínimo 16GB+ recomendado para modelos maiores

Instalando o Raycast

Se você ainda não instalou o Raycast, o processo é direto. Baixe a versão estável mais recente diretamente em raycast.com ou instale via Homebrew:

Terminal
brew install --cask raycast

Uma vez instalado, inicie o Raycast e conclua o onboarding inicial. Substitua o Spotlight imediatamente — isso é inegociável para o fluxo de trabalho que estamos construindo. Navegue até:

Terminal
System Settings → Keyboard → Keyboard Shortcuts → Spotlight

Desmarque Show Spotlight search de ⌘Space, depois atribua ⌘Space dentro das preferências do Raycast em General → Raycast Hotkey.


Verificando a Sua Versão do Raycast

A extensão do Ollama exige que a API de extensões do Raycast suporte endpoints de modelos personalizados. Abra as preferências do Raycast e confirme o seu build:

Terminal
Raycast → About Raycast → Build Number

Alternativamente, execute esta verificação rápida no seu terminal:

Terminal
defaults read com.raycast.macos CFBundleShortVersionString

Se você estiver com versões desatualizadas, o atualizador integrado cuidará disso:

Terminal
Raycast → Check for Updates

Habilitando Extensões no Raycast

Por padrão, a loja de extensões do Raycast é acessível, mas você quer garantir que a aba Extensions esteja desbloqueada e que a loja esteja acessível. Abra as preferências do Raycast com ⌘, e confirme que você consegue navegar até a aba Extensions sem erros.

Configuração crítica a habilitar antes de prosseguir:

Navegue até Raycast Preferences → Extensions e certifique-se de que "Allow Extension Installation from Store" esteja ativado. Sem isso, a instalação da extensão do Ollama na próxima etapa falhará silenciosamente.


Confirmando que o Ollama Está Rodando

O Raycast precisa de uma instância ativa do Ollama para se comunicar. Antes de configurar qualquer coisa dentro do Raycast, verifique se o Ollama está ativo e responsivo:

Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags

# Expected response (example)
{
  "models": [
    {
      "name": "llama3:latest",
      "modified_at": "2024-01-15T10:30:00Z",
      "size": 4661211584
    }
  ]
}

Se o comando curl expirar ou retornar um erro de conexão, inicie o Ollama manualmente:

Terminal
ollama serve

Dica profissional: Adicione o Ollama aos itens de login do seu macOS para que ele inicie automaticamente. Navegue até System Settings → General → Login Items e adicione o aplicativo Ollama. Isso garante que o Raycast sempre tenha um backend de modelo disponível no momento em que você liga a máquina.


Permissões de Rede

O macOS solicitará permissões de acesso à rede na primeira vez que o Raycast tentar alcançar sua instância local do Ollama. Clique em "Allow" sem hesitação — esta é uma comunicação por localhost, não acesso à rede externa. Se você acidentalmente negou o prompt, redefina-o via:

Terminal
tccutil reset All com.raycast.macos

Com esses pré-requisitos assegurados, seu ambiente está preparado e pronto para a instalação da extensão.

Step 3 Etapa 1: Instalando a Extensão Raycast Ollama

Com o Ollama rodando localmente e o Raycast instalado, a ponte entre o seu lançador de sistema e seus modelos de IA locais é uma única extensão. Esta seção guia você pelo processo de instalação preciso, garantindo zero ambiguidade em cada etapa.

Encontrando a Extensão na Loja do Raycast

O Raycast mantém um marketplace de extensões curado, acessível diretamente do próprio aplicativo. Veja como navegar até ele:

  1. Abra o Raycast com seu atalho configurado (padrão: ⌥ Space)
  2. Digite "Store" e selecione Raycast Store
  3. Na barra de pesquisa, digite Ollama
  4. Localize a extensão intitulada "Ollama AI" — criada pela comunidade e validada pela equipe do Raycast

Alternativamente, você pode instalá-la diretamente pela web:

Terminal
https://www.raycast.com/massimiliano_pasquini/raycast-ollama

Clique em "Install Extension" na página web, e o Raycast fará um deep-link diretamente para o prompt de instalação na sua máquina.


Instalando via Raycast CLI (Método para Power Users)

Se você prefere fluxos de trabalho baseados em terminal, o Raycast suporta gerenciamento de extensões através de seu conjunto de ferramentas CLI. Primeiro, certifique-se de que a CLI do Raycast está instalada:

Terminal
# Install Raycast CLI via npm
npm install -g @raycast/api

# Verify installation
raycast --version

Nota: O método CLI é primariamente destinado ao desenvolvimento de extensões, não à instalação por usuários finais. Para uso em produção, o método da interface da Store é recomendado.


Passo a Passo da Instalação da Extensão

Após clicar em Install pela interface da Store ou pelo portal web, você verá o seguinte prompt de permissão no Raycast:

Permissão Solicitada Motivo
Acesso à Rede Comunicação com a API HTTP local do Ollama
Leitura/Escrita na Área de Transferência Habilita comandos de transformação de texto
Serviços do Sistema Permite que respostas de IA sejam injetadas nos aplicativos ativos

Aceite todas as permissões — nenhuma delas acessa a internet. Toda requisição é roteada somente para localhost, o que significa que seus dados jamais saem da sua máquina.


Verificando a Instalação

Após a instalação, confirme que a extensão está ativa:

  1. Abra o Raycast (⌥ Space)
  2. Digite Ollama — você deve ver imediatamente um conjunto de comandos aparecer: - Ollama: Chat - Ollama: Ask - Ollama: Summarize - Ollama: Fix Grammar
  3. Selecione Ollama: Chat e pressione

Se o Ollama estiver rodando (ollama serve no seu terminal), você entrará diretamente em uma sessão de chat interativa. Se você ver um erro de conexão, verifique se o daemon está ativo:

Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags

# Expected output (truncated):
# {"models":[{"name":"llama3.2:latest",...}]}

# If not running, start it:
ollama serve

Baixando Seu Primeiro Modelo (Se Ainda Não Foi Feito)

A extensão requer que pelo menos um modelo esteja baixado localmente antes que os comandos sejam executados. Um padrão rápido e capaz para uso geral:

Terminal
# Lightweight and fast — ideal for system-wide commands
ollama pull llama3.2

# Higher capability for complex tasks (requires more RAM)
ollama pull mistral

# Verify models are available
ollama list

Neste ponto, a extensão está instalada, conectada e pronta. A próxima etapa avança para a configuração precisa da API — ajustando o endpoint, a porta e o comportamento de resposta para corresponder exatamente ao seu hardware e às suas demandas de fluxo de trabalho.

Step 4 Etapa 2: Configurando Endpoints e Portas da API

Com a extensão Raycast Ollama instalada, a próxima etapa crítica é garantir que o Raycast consiga efetivamente se comunicar com sua instância local do Ollama. Isso requer uma compreensão sólida de como o Ollama expõe sua API e como configurar a extensão para apontar para o endpoint correto.

Compreendendo a Configuração de Rede Padrão do Ollama

Por padrão, o Ollama executa um servidor de API REST local no seguinte endereço:

Terminal
http://localhost:11434

Este é o valor mais importante que você irá configurar. Toda requisição de IA que o Raycast faz — seja uma sumarização de texto, explicação de código ou correção gramatical — é roteada através deste endpoint como uma requisição HTTP para o motor de inferência do Ollama rodando na sua máquina.

Você pode verificar se o Ollama está rodando e responsivo a qualquer momento acessando o endpoint de saúde diretamente do seu terminal:

Terminal
curl http://localhost:11434
# Expected output: Ollama is running

Se isso retornar um erro, o Ollama não está rodando. Inicie-o com:

Terminal
ollama serve

Dica profissional: No macOS, se você instalou o Ollama via aplicativo GUI .dmg, ele roda automaticamente como um processo na barra de menus. Se instalou via Homebrew, pode ser necessário iniciá-lo manualmente ou configurar um serviço launchd.


Configurando o Endpoint da Extensão no Raycast

Abra o Raycast (⌘ Space por padrão), digite Extensions e navegue até as configurações da extensão Ollama. Você encontrará os seguintes campos configuráveis:

Configuração Valor Padrão Descrição
Ollama API URL http://localhost:11434 URL base para o servidor Ollama local
Request Timeout 60000 ms Tempo máximo de espera antes de uma requisição falhar
Default Model (definido pelo usuário) Modelo usado quando nenhuma substituição é especificada

Defina a Ollama API URL como http://localhost:11434, a menos que você tenha deliberadamente alterado a porta padrão do Ollama. Se você estiver rodando o Ollama em uma porta diferente — por exemplo, para evitar conflitos com outros serviços locais — você pode substituí-la na inicialização:

Terminal
OLLAMA_HOST=0.0.0.0:11435 ollama serve

Nesse caso, atualize a URL da extensão do Raycast para corresponder:

Terminal
http://localhost:11435

Lidando com Instâncias Remotas e de Rede do Ollama

Uma das capacidades subestimadas desta configuração é que o Raycast não exige que o Ollama rode localmente. Se você estiver rodando o Ollama em uma máquina remota, um NAS ou um servidor GPU dedicado na sua rede local, você pode apontar o Raycast para o endereço IP dessa máquina:

Terminal
http://192.168.1.50:11434

Consideração importante de segurança: Por padrão, o Ollama se vincula apenas ao localhost. Para expô-lo em uma interface de rede, você deve definir explicitamente:

Terminal
OLLAMA_HOST=0.0.0.0:11434 ollama serve

Jamais exponha esta porta à internet pública sem autenticação. O Ollama não possui camada de autenticação nativa — trate-o como uma porta de banco de dados aberta e proteja-o com firewall de acordo.


Confirmando a Disponibilidade dos Modelos

Antes de prosseguir, verifique se seus modelos-alvo estão baixados e disponíveis via API:

Terminal
curl http://localhost:11434/api/tags | jq '.models[].name'

Isso retorna uma lista de todos os modelos disponíveis localmente. A extensão do Raycast populará seu seletor de modelos a partir dessa lista, portanto qualquer modelo que você pretenda usar em um comando personalizado deve ser baixado primeiro usando ollama pull <model-name>.

Com o seu endpoint configurado e os modelos confirmados, o Raycast agora tem um canal claro e de baixa latência para sua IA local — zero dependências de nuvem, zero custos de API e tempos de resposta abaixo de um segundo em hardware capaz.

Step 5 Criando Comandos de IA Personalizados (Resumir, Reescrever, Corrigir Gramática)

Com a sua extensão Ollama configurada e comunicando-se com seus modelos locais, o verdadeiro poder vem da criação de comandos de IA de propósito específico que disparam instantaneamente de qualquer lugar no seu Mac. O sistema de scripting do Raycast permite que você crie comandos adaptados exatamente ao seu fluxo de trabalho — sem copiar e colar em uma interface de chat, sem troca de contexto.

Compreendendo Extensões de IA do Raycast vs. Scripts Personalizados

O Raycast oferece dois caminhos para comandos de IA personalizados:

  1. Comandos baseados em extensão — Construídos através do painel de configuração de prompts da extensão Raycast Ollama
  2. Script commands — Scripts Shell ou JavaScript que chamam a API do Ollama diretamente

Para a maioria dos usuários, a abordagem baseada em extensão cobre 90% dos casos de uso. Para pipelines avançados, os script commands oferecem controle total.


Configurando Prompts na Extensão Ollama

Abra o Raycast, pesquise por "Ollama" e navegue até Custom Commands. Cada comando requer:

Campo Descrição Exemplo
Name Identificador do comando no Raycast Summarize Selection
Model Qual modelo Ollama utilizar llama3.2
System Prompt Instrução persistente para o modelo You are a concise summarizer.
User Prompt Template Prompt dinâmico com variável {selection} Summarize this in 3 bullet points: {selection}
Output Onde o resultado aparece Clipboard / HUD / Detail View

Os Três Comandos Essenciais

1. Resumir

Este comando destila qualquer texto selecionado — e-mails, artigos, documentação — em pontos resumidos e digeríveis.

System Prompt:

Terminal
You are a precise summarization assistant. Extract only the essential information. Never add opinions or information not present in the source text. Respond only with the summary, no preamble.

User Prompt:

Terminal
Summarize the following text into 3-5 concise bullet points:

{selection}

Defina Output como Detail View para que resumos mais longos permaneçam legíveis sem sobrecarregar sua área de transferência.


2. Reescrever

O comando de reescrita transforma prosa estranha em texto polido e profissional. Ideal para mensagens no Slack, documentação e e-mails.

System Prompt:

Terminal
You are an expert editor and technical writer. Rewrite the provided text to be clear, concise, and professional. Preserve the original meaning and tone intent. Return only the rewritten text with no explanation.

User Prompt:

Terminal
Rewrite the following to be clearer and more professional:

{selection}

Defina Output como Clipboard para que você possa colar a versão aprimorada instantaneamente com ⌘V.


3. Corrigir Gramática

Correção cirúrgica de gramática sem alterar sua voz — essencial para desenvolvedores que escrevem documentação ou falantes não nativos de inglês.

System Prompt:

Terminal
You are a grammar correction tool. Fix all grammatical errors, punctuation mistakes, and spelling issues in the provided text. Do not change the writing style, tone, or word choices unless grammatically necessary. Return only the corrected text.

User Prompt:

Terminal
Fix the grammar and punctuation in the following text:

{selection}

Avançado: Script Command para Processamento em Lote

Para power users que precisam de controle programático, chame a API REST do Ollama diretamente via um Raycast Script Command:

Terminal
#!/bin/bash
# Required parameters:
# @raycast.schemaVersion 1
# @raycast.title Fix Grammar (Script)
# @raycast.mode silent

SELECTION=$(pbpaste)

RESPONSE=$(curl -s http://localhost:11434/api/generate \
  -H "Content-Type: application/json" \
  -d "{
    \"model\": \"llama3.2\",
    \"prompt\": \"Fix grammar only, return corrected text: ${SELECTION}\",
    \"stream\": false
  }" | python3 -c "import sys, json; print(json.load(sys.stdin)['response'])")

echo "$RESPONSE" | pbcopy

Salve como fix-grammar.sh, torne-o executável com chmod +x fix-grammar.sh e mova-o para ~/.config/raycast/scripts/.


Estratégia de Seleção de Modelos

Nem toda tarefa precisa do seu modelo mais poderoso. Combine o tamanho do modelo com a complexidade do comando:

Comando Modelo Recomendado Por quê
Corrigir Gramática phi3 ou gemma2:2b Rápido, leve, tarefa simples
Reescrever llama3.2 Equilíbrio entre qualidade e velocidade
Resumir llama3.2 ou mistral Requer profundidade de compreensão

Dica profissional: Modelos menores respondem em menos de um segundo no Apple Silicon — para correções gramaticais, essa diferença de velocidade é transformadora quando você usa o comando dezenas de vezes por dia.

Step 6 Otimizando Teclas de Atalho para Acesso Ultrarrápido

A diferença entre um bom fluxo de trabalho de IA e um excelente está no atrito. Cada clique extra, cada troca de contexto, cada momento gasto alcançando um menu é sobrecarga cognitiva que interrompe seu estado de fluxo. As teclas de atalho eliminam esse atrito completamente — transformando a assistência de IA de uma ferramenta deliberada em uma extensão invisível do seu pensamento.

A Arquitetura de Teclas de Atalho do Raycast

O Raycast suporta duas camadas distintas de atribuição de atalhos de teclado:

Camada Escopo Melhor Usada Para
Global Hotkey Em todo o sistema, funciona em qualquer app Seu único comando de IA mais utilizado
Extension Hotkey Aciona comandos específicos de extensão Comandos frequentes, mas secundários
Alias Abre o Raycast + pré-preenche o comando Acesso rápido sem memorizar nomes completos
Quicklink Atalho do Raycast para um prompt específico Tarefas de IA repetíveis e modeladas

Atribuindo Teclas de Atalho aos Seus Comandos de IA

Navegue até Raycast Preferences → Extensions → Ollama AI e localize cada comando personalizado que você criou na seção anterior. Clique no campo de tecla de atalho ao lado de qualquer comando e pressione a combinação de teclas desejada.

Esquema de teclas de atalho recomendado para comandos de IA:

Terminal
⌥ + Space        → Open Raycast (main launcher)
⌃ + ⌥ + S        → AI Summarize (selected text)
⌃ + ⌥ + R        → AI Rewrite (selected text)  
⌃ + ⌥ + G        → Fix Grammar (selected text)
⌃ + ⌥ + O        → Open Ollama Chat (freeform)

Dica profissional: Use Control (⌃) + Option (⌥) como prefixo modificador para todos os comandos de IA. Essa combinação raramente é reivindicada pelos atalhos de sistema do macOS ou por outros aplicativos, dando a você um namespace limpo e livre de conflitos.

Evitando Conflitos de Teclas de Atalho

Antes de finalizar qualquer atalho, verifique se ele não está sendo usado por outra função:

Terminal
# Check system-level shortcuts via defaults
defaults read com.apple.symbolichotkeys AppleSymbolicHotKeys

Você também pode navegar até System Settings → Keyboard → Keyboard Shortcuts e percorrer cada categoria. Zonas comuns de conflito incluem:

  • Mission Control ocupa a maioria das combinações ⌃ + Seta
  • Spotlight usa por padrão ⌘ + Space
  • Ferramentas de screenshot ocupam vários slots ⌘ + Shift + número
  • Aplicativos de terceiros como Alfred, 1Password ou Magnet podem reivindicar atalhos baseados em

Potencializando Fluxos de Trabalho de Seleção de Texto

O verdadeiro poder dos atalhos de IA em todo o sistema emerge quando combinado com gatilhos de seleção de texto. Configure seus comandos do Ollama para operar sobre o texto atualmente selecionado em qualquer aplicativo:

  1. Selecione texto no Safari, Notion, Xcode, Slack — em qualquer lugar
  2. Pressione ⌃ + ⌥ + S
  3. O Ollama processa a seleção e retorna um resumo inline, sem trocar de aplicativo

Isso funciona porque o Raycast lê a área de transferência do sistema e o contexto de seleção ativo. Para garantir confiabilidade, habilite "Read selected text from active app" no painel de configuração da sua extensão.

Criando um Mapa de Memória Muscular

Anote suas teclas de atalho e mantenha-as por 30 dias. A consistência é o que transforma atalhos conscientes em memória muscular subconsciente. Considere esta progressão:

Terminal
Week 1:  Use hotkeys consciously, referring to your cheat sheet
Week 2:  Fingers begin finding shortcuts without looking
Week 3:  Hotkeys feel as natural as ⌘+C / ⌘+V
Week 4:  You forget AI assistance is a "tool" — it's just thinking

O objetivo é acesso à IA com latência zero — onde a lacuna entre intenção e execução desaparece completamente. Com a arquitetura de teclas de atalho certa em vigor, o Ollama deixa de ser algo que você abre e se torna algo que você alcança instintivamente.