laptop_mac macOS Sonoma
Intermediate
schedule 8 min read
by Alex Rivera • May 14, 2024
Step 1 macOS 전체에서 AI 활용하기
현대 macOS 파워 유저는 분산된 AI 환경에서 작업합니다 — ChatGPT에 고정된 브라우저 탭, 별도의 글쓰기 보조 앱, 그리고 집중력을 무너뜨리는 끊임없는 컨텍스트 전환이 그것입니다. AI가 브라우저 창에 고립되는 것이 아니라 운영 체제 자체에 직접 통합되어, 필요한 순간 즉시 사용 가능하고, 밀리초 단위로 응답하며, 데이터가 단 한 건도 외부로 나가지 않는다면 어떨까요?
바로 그것이 Ollama를 Raycast에 연결했을 때 일어나는 일입니다. 이 조합은 Mac과 상호작용하는 방식을 진정으로 변화시킵니다.
이 아키텍처가 다른 이유
대부분의 AI 통합은 동일한 패턴을 따릅니다: 앱을 열고, 프롬프트를 입력하고, 클라우드 응답을 기다리고, 출력을 복사합니다. 이 워크플로우는 모든 단계에서 인지적 부담을 가중시킵니다. Raycast + Ollama는 AI를 1급 시스템 기본 요소로 자리매김함으로써 이 패턴을 완전히 깨뜨립니다.
| 방식 |
지연 시간 |
개인정보 보호 |
오프라인 지원 |
컨텍스트 인식 |
| 브라우저 기반 ChatGPT |
높음 (네트워크 왕복) |
❌ OpenAI로 데이터 전송 |
❌ 인터넷 필요 |
제한적 |
| 네이티브 AI 앱 |
중간 |
다양함 |
가끔 |
최소한 |
| Raycast + Ollama |
초저지연 (로컬호스트) |
✅ 100% 로컬 |
✅ 완전 오프라인 |
심층적 (시스템 전체) |
Ollama가 제공하는 것
Ollama는 Apple Silicon에서 대형 언어 모델을 로컬로 실행하는 경량 추론 서버입니다. http://localhost:11434에서 깔끔한 REST API를 제공하여 다른 도구들이 손쉽게 활용할 수 있습니다. Llama 3, Mistral, Phi-3, Gemma 2 같은 모델들은 M 시리즈 칩에서 인상적인 속도로 실행되며, 일반적인 작업에서는 종종 클라우드 모델의 응답 시간과 맞먹거나 이를 능가합니다.
Terminal
# Verify Ollama is running and listening
curl http://localhost:11434/api/tags
# Expected output: a JSON list of your locally installed models
Ollama가 백그라운드 서비스로 실행되면, 적절히 구성된 모든 애플리케이션이 쿼리할 수 있는 지속적인 AI 백본이 됩니다 — Raycast도 포함하여.
Raycast가 제공하는 것
Raycast는 시스템 전체에서 사용 가능한 명령 실행기로, 수십만 명의 Mac 사용자들에게 사실상 Spotlight를 대체했습니다. 확장 에코시스템 덕분에 거의 모든 것과 통합할 수 있으며, AI 명령 프레임워크를 통해 선택한 텍스트, 클립보드 내용, 또는 자유 형식 프롬프트를 LLM 엔드포인트로 직접 전달할 수 있습니다.
여기서 핵심적인 인사이트는: Raycast 명령은 macOS 어디서나 사용 가능하다는 것입니다. Xcode에서 함수를 검토하든, Notion에서 문서를 작성하든, Slack에서 메시지를 작성하든, Terminal에서 스크립트를 디버깅하든 — 단 하나의 단축키로 앱 전환 없이 현재 작업 중인 내용에 AI를 불러올 수 있습니다.
조합 가능성의 힘
이 설정을 진정으로 강력하게 만드는 것은 어떤 단일 기능이 아니라 바로 조합 가능성입니다. 다음과 같은 것들이 가능합니다:
- 어떤 편집기에서든 코드를 선택하고 → Raycast AI 명령을 실행하면 → 설명이 클립보드에 바로 삽입됩니다
- Safari에서 복잡한 단락을 드래그하면 → 페이지를 벗어나지 않고도 쉬운 언어로 요약해 줍니다
- 터미널에서 오류 메시지를 캡처하고 → 디버깅 프롬프트에 넣으면 → 즉시 수정 내용을 붙여 넣을 수 있습니다
이것이 바로 '방문하는 도구로서의 AI'와 '항상 지니고 다니는 능력으로서의 AI'의 차이입니다. 이어지는 섹션에서는 필요한 Raycast 확장 설치부터 전체 워크플로우가 macOS 기본 기능처럼 느껴지게 만드는 단축키 설정까지, 이 시스템을 처음부터 구축하는 방법을 단계별로 안내합니다.
참고: 이 가이드의 모든 내용은 완전히 기기 내에서 실행됩니다. API 키도, 구독도, 텔레메트리도 없습니다. 프롬프트와 응답은 절대 Mac 밖으로 나가지 않습니다.
Step 2 사전 요구 사항: Raycast 설정
Ollama 통합에 들어가기 전에, 올바르게 구성된 Raycast 환경이 필요합니다. 이 기반을 건너뛰면 나중에 문제가 생길 수 있으므로, 처음부터 제대로 설정해 봅시다.
필요한 것들
| 요구 사항 |
버전 |
비고 |
| Raycast |
1.50.0+ |
AI 기능에는 Pro 플랜 필요 |
| macOS |
12 Monterey+ |
Ventura 또는 Sonoma 강력 권장 |
| Ollama |
0.1.20+ |
로컬 서비스로 실행 중이어야 함 |
| RAM |
최소 8GB |
대형 모델에는 16GB 이상 권장 |
Raycast 설치
아직 Raycast를 설치하지 않았다면, 설치 과정은 간단합니다. raycast.com에서 최신 안정 버전을 직접 다운로드하거나 Homebrew로 설치하세요:
Terminal
brew install --cask raycast
설치가 완료되면 Raycast를 실행하고 초기 온보딩을 완료하세요. 즉시 Spotlight를 대체하세요—이번에 구축할 워크플로우에서 이 단계는 필수입니다. 다음 경로로 이동하세요:
Terminal
System Settings → Keyboard → Keyboard Shortcuts → Spotlight
Show Spotlight search의 ⌘Space 체크를 해제한 다음, Raycast 환경설정의 General → Raycast Hotkey에서 ⌘Space를 지정하세요.
Raycast 버전 확인
Ollama 확장 프로그램은 Raycast의 확장 API가 커스텀 모델 엔드포인트를 지원해야 합니다. Raycast 환경설정을 열고 빌드 번호를 확인하세요:
Terminal
Raycast → About Raycast → Build Number
또는 터미널에서 다음 명령으로 빠르게 확인할 수 있습니다:
Terminal
defaults read com.raycast.macos CFBundleShortVersionString
버전이 오래되었다면, 내장 업데이터가 이를 처리해 줍니다:
Terminal
Raycast → Check for Updates
Raycast에서 확장 기능 활성화
기본적으로 Raycast의 확장 스토어는 접근 가능하지만, Extensions 탭이 잠금 해제되어 있고 스토어에 접근할 수 있는지 확인해야 합니다. ⌘,로 Raycast 환경설정을 열고 오류 없이 Extensions 탭으로 이동할 수 있는지 확인하세요.
진행하기 전에 반드시 활성화해야 할 설정:
Raycast Preferences → Extensions으로 이동하여 "Allow Extension Installation from Store"가 켜져 있는지 확인하세요. 이 설정이 꺼져 있으면, 다음 단계의 Ollama 확장 설치가 아무런 오류 메시지 없이 실패합니다.
Ollama 실행 여부 확인
Raycast가 통신하려면 실행 중인 Ollama 인스턴스가 필요합니다. Raycast에서 설정하기 전에, Ollama가 활성화되어 있고 응답하는지 확인하세요:
Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags
# Expected response (example)
{
"models": [
{
"name": "llama3:latest",
"modified_at": "2024-01-15T10:30:00Z",
"size": 4661211584
}
]
}
curl 명령이 시간 초과되거나 연결 오류가 반환되면 Ollama를 수동으로 시작하세요:
Pro tip: Ollama를 macOS 로그인 항목에 추가하면 자동으로 시작됩니다. System Settings → General → Login Items로 이동하여 Ollama 애플리케이션을 추가하세요. 이렇게 하면 컴퓨터를 깨우는 순간 Raycast가 항상 모델 백엔드를 사용할 수 있습니다.
네트워크 권한
Raycast가 로컬 Ollama 인스턴스에 처음 접근하려 할 때 macOS가 네트워크 접근 권한을 요청합니다. "허용"을 클릭하세요 — 이것은 외부 네트워크 접근이 아닌 로컬호스트 통신입니다. 실수로 프롬프트를 거부한 경우 다음 명령으로 초기화할 수 있습니다:
Terminal
tccutil reset All com.raycast.macos
이러한 사전 요구 사항이 충족되면, 환경이 확장 프로그램 설치를 위한 준비가 완료됩니다.
Step 3 1단계: Raycast Ollama 확장 프로그램 설치
Ollama가 로컬에서 실행 중이고 Raycast가 설치된 상태에서, 시스템 전체 런처와 로컬 AI 모델 사이의 브리지는 단 하나의 확장 프로그램으로 연결됩니다. 이 섹션에서는 모든 단계에서 모호함 없이 정확한 설치 과정을 안내합니다.
Raycast 스토어에서 확장 프로그램 찾기
Raycast는 앱 자체에서 직접 접근할 수 있는 큐레이션된 확장 프로그램 마켓플레이스를 운영합니다. 탐색 방법은 다음과 같습니다:
- 설정된 단축키로 Raycast를 엽니다 (기본값:
⌥ Space)
- "Store" 를 입력하고 Raycast Store 를 선택합니다
- 검색창에
Ollama 를 입력합니다
- "Ollama AI" 라는 제목의 확장 프로그램을 찾습니다 — 커뮤니티가 제작하고 Raycast 팀이 검토한 확장 프로그램입니다
또는 웹에서 직접 설치할 수 있습니다:
Terminal
https://www.raycast.com/massimiliano_pasquini/raycast-ollama
웹 페이지에서 "Install Extension" 을 클릭하면, Raycast가 컴퓨터의 설치 프롬프트로 직접 딥링크됩니다.
Raycast CLI를 통한 설치 (고급 사용자 방법)
터미널 기반 워크플로우를 선호하는 경우, Raycast는 CLI 툴체인을 통한 확장 프로그램 관리를 지원합니다. 먼저 Raycast CLI가 설치되어 있는지 확인하세요:
Terminal
# Install Raycast CLI via npm
npm install -g @raycast/api
# Verify installation
raycast --version
Note: CLI 방법은 주로 확장 프로그램 개발을 위한 것이며, 일반 사용자 설치를 위한 것이 아닙니다. 프로덕션 사용의 경우 스토어 UI 방법을 권장합니다.
확장 프로그램 설치 안내
스토어 UI 또는 웹 포털에서 설치를 클릭하면 Raycast에 다음과 같은 권한 프롬프트가 표시됩니다:
| 요청된 권한 |
이유 |
| 네트워크 접근 |
Ollama의 로컬 HTTP API와 통신 |
| 클립보드 읽기/쓰기 |
텍스트 변환 명령어 활성화 |
| 시스템 서비스 |
AI 응답을 활성 앱에 주입 가능 |
모든 권한을 수락하세요 — 이 중 어느 것도 인터넷에 연결되지 않습니다. 모든 요청은 localhost로만 라우팅되므로, 데이터가 절대 외부로 전송되지 않습니다.
설치 확인
설치 후, 확장 프로그램이 활성화되어 있는지 확인하세요:
- Raycast 열기 (
⌥ Space)
Ollama 입력 — 즉시 명령어 클러스터가 나타나야 합니다:
- Ollama: Chat
- Ollama: Ask
- Ollama: Summarize
- Ollama: Fix Grammar
Ollama: Chat 선택 후 ↵ 누르기
Ollama가 실행 중이라면 (터미널에서 ollama serve), 바로 대화형 채팅 세션으로 진입합니다. 연결 오류가 표시되면, 데몬이 활성화되어 있는지 확인하세요:
Terminal
# Check if Ollama is running
curl http://localhost:11434/api/tags
# Expected output (truncated):
# {"models":[{"name":"llama3.2:latest",...}]}
# If not running, start it:
ollama serve
첫 번째 모델 다운로드 (아직 하지 않은 경우)
명령어를 실행하기 전에 최소 하나의 모델이 로컬에 다운로드되어 있어야 합니다. 일반적인 용도로 빠르고 유능한 기본 모델:
Terminal
# Lightweight and fast — ideal for system-wide commands
ollama pull llama3.2
# Higher capability for complex tasks (requires more RAM)
ollama pull mistral
# Verify models are available
ollama list
이 단계에서 확장 프로그램은 설치, 연결, 준비 완료 상태입니다. 다음 단계에서는 정밀한 API 구성으로 넘어가 — 엔드포인트, 포트, 응답 동작을 정확한 하드웨어 및 워크플로우 요구사항에 맞게 조정합니다.
Step 4 2단계: API 엔드포인트 및 포트 구성
Raycast Ollama 확장 프로그램이 설치되었으면, 다음 중요한 단계는 Raycast가 로컬 Ollama 인스턴스와 실제로 통신할 수 있는지 확인하는 것입니다. 이를 위해 Ollama가 API를 노출하는 방식과 확장 프로그램이 올바른 엔드포인트를 가리키도록 구성하는 방법에 대한 이해가 필요합니다.
Ollama의 기본 네트워크 구성 이해
기본적으로 Ollama는 다음 주소에서 로컬 REST API 서버를 실행합니다:
이것이 구성해야 할 가장 중요한 값입니다. Raycast가 만드는 모든 AI 요청 — 텍스트 요약, 코드 설명, 문법 교정 등 — 은 이 엔드포인트를 통해 HTTP 요청으로 라우팅되어 머신에서 실행 중인 Ollama 추론 엔진으로 전달됩니다.
터미널에서 헬스 엔드포인트에 직접 접근하여 언제든지 Ollama가 실행 중이고 응답하는지 확인할 수 있습니다:
Terminal
curl http://localhost:11434
# Expected output: Ollama is running
오류가 반환되면 Ollama가 실행 중이지 않은 것입니다. 다음으로 시작하세요:
Pro tip: macOS에서 .dmg GUI 애플리케이션으로 Ollama를 설치한 경우, 메뉴 바 프로세스로 자동 실행됩니다. Homebrew로 설치한 경우, 수동으로 시작하거나 launchd 서비스를 구성해야 할 수 있습니다.
Raycast에서 확장 프로그램 엔드포인트 구성
Raycast를 엽니다 (기본값: ⌘ Space). Extensions를 입력하고 Ollama 확장 설정으로 이동합니다. 다음과 같은 구성 가능한 필드를 찾을 수 있습니다:
| 설정 |
기본값 |
설명 |
| Ollama API URL |
http://localhost:11434 |
로컬 Ollama 서버의 기본 URL |
| Request Timeout |
60000 ms |
요청 실패 전 최대 대기 시간 |
| Default Model |
(사용자 정의) |
재정의가 지정되지 않은 경우 사용되는 모델 |
Ollama의 기본 포트를 의도적으로 변경하지 않은 경우 Ollama API URL을 http://localhost:11434로 설정합니다. 다른 로컬 서비스와의 충돌을 피하기 위한 경우 등, 다른 포트에서 Ollama를 실행 중이라면 시작 시 이를 재정의할 수 있습니다:
Terminal
OLLAMA_HOST=0.0.0.0:11435 ollama serve
그 경우, Raycast 확장 URL을 일치하도록 업데이트합니다:
원격 및 네트워크 Ollama 인스턴스 처리
이 설정의 잘 알려지지 않은 기능 중 하나는 Raycast가 Ollama를 로컬에서 실행할 것을 요구하지 않는다는 점입니다. 원격 머신, NAS, 또는 로컬 네트워크의 전용 GPU 서버에서 Ollama를 실행 중이라면 해당 머신의 IP 주소를 대신 지정할 수 있습니다:
Terminal
http://192.168.1.50:11434
중요한 보안 고려사항: 기본적으로 Ollama는 localhost에만 바인딩됩니다. 네트워크 인터페이스에 노출하려면 다음을 명시적으로 설정해야 합니다:
Terminal
OLLAMA_HOST=0.0.0.0:11434 ollama serve
인증 없이 이 포트를 공용 인터넷에 절대 노출하지 마십시오. Ollama에는 내장된 인증 레이어가 없습니다 — 열린 데이터베이스 포트처럼 취급하고 그에 맞게 방화벽을 설정하세요.
모델 가용성 확인
진행하기 전에 대상 모델이 API를 통해 가져와져 있고 사용 가능한지 확인하십시오:
Terminal
curl http://localhost:11434/api/tags | jq '.models[].name'
이 명령은 로컬에서 사용 가능한 모든 모델의 목록을 반환합니다. Raycast 확장은 이 목록에서 모델 선택기를 채우므로, 커스텀 명령에서 사용하려는 모든 모델은 반드시 먼저 ollama pull <model-name>을 사용하여 가져와야 합니다.
엔드포인트가 구성되고 모델이 확인되면, Raycast는 이제 로컬 AI에 대한 명확하고 낮은 지연 시간의 채널을 갖게 됩니다 — 클라우드 의존성 없음, API 비용 없음, 그리고 성능 좋은 하드웨어에서 1초 미만의 응답 시간.
Step 5 커스텀 AI 명령 만들기 (요약, 재작성, 문법 수정)
Ollama 확장이 구성되고 로컬 모델과 통신하게 되면, 진정한 강점은 Mac 어디서나 즉시 실행되는 목적에 맞는 AI 명령을 구축하는 데서 나옵니다. Raycast의 스크립팅 시스템을 사용하면 정확한 워크플로우에 맞게 명령을 제작할 수 있습니다 — 채팅 인터페이스에 복사-붙여넣기 없이, 컨텍스트 전환 없이.
Raycast AI 확장 vs. 커스텀 스크립트 이해하기
Raycast는 커스텀 AI 명령을 위한 두 가지 경로를 제공합니다:
- 확장 기반 명령 — Raycast Ollama 확장의 프롬프트 구성 패널을 통해 구축
- 스크립트 명령 — Ollama API를 직접 호출하는 셸 또는 JavaScript 스크립트
대부분의 사용자에게 확장 기반 접근 방식은 사용 사례의 90%를 커버합니다. 고급 파이프라인의 경우, 스크립트 명령어를 통해 완전한 제어가 가능합니다.
Ollama 확장에서 프롬프트 구성하기
Raycast를 열고 "Ollama"를 검색한 후 Custom Commands로 이동합니다. 각 명령어에는 다음이 필요합니다:
| 필드 |
설명 |
예시 |
| Name |
Raycast의 명령어 식별자 |
Summarize Selection |
| Model |
사용할 Ollama 모델 |
llama3.2 |
| System Prompt |
모델에 대한 지속적인 지시사항 |
You are a concise summarizer. |
| User Prompt Template |
{selection} 변수가 포함된 동적 프롬프트 |
Summarize this in 3 bullet points: {selection} |
| Output |
결과가 표시되는 위치 |
Clipboard / HUD / Detail View |
세 가지 필수 명령어
1. 요약 (Summarize)
이 명령어는 선택한 텍스트(이메일, 기사, 문서 등)를 이해하기 쉬운 글머리 기호로 정리합니다.
System Prompt:
Terminal
You are a precise summarization assistant. Extract only the essential information. Never add opinions or information not present in the source text. Respond only with the summary, no preamble.
User Prompt:
Terminal
Summarize the following text into 3-5 concise bullet points:
{selection}
더 긴 요약본이 클립보드를 복잡하게 만들지 않고 읽기 쉽도록 Output을 Detail View로 설정하세요.
2. 다시 쓰기 (Rewrite)
다시 쓰기 명령어는 어색한 문장을 세련되고 전문적인 내용으로 변환합니다. Slack 메시지, 문서 작성, 이메일에 이상적입니다.
System Prompt:
Terminal
You are an expert editor and technical writer. Rewrite the provided text to be clear, concise, and professional. Preserve the original meaning and tone intent. Return only the rewritten text with no explanation.
User Prompt:
Terminal
Rewrite the following to be clearer and more professional:
{selection}
개선된 버전을 ⌘V로 즉시 붙여넣을 수 있도록 Output을 Clipboard으로 설정하세요.
3. 문법 교정 (Fix Grammar)
문체를 변경하지 않고 정밀하게 문법을 교정합니다 — 문서를 작성하는 개발자나 영어가 모국어가 아닌 사용자에게 매우 중요합니다.
System Prompt:
Terminal
You are a grammar correction tool. Fix all grammatical errors, punctuation mistakes, and spelling issues in the provided text. Do not change the writing style, tone, or word choices unless grammatically necessary. Return only the corrected text.
User Prompt:
Terminal
Fix the grammar and punctuation in the following text:
{selection}
고급: 일괄 처리를 위한 스크립트 명령어
프로그래밍 방식의 제어가 필요한 고급 사용자를 위해, Raycast 스크립트 명령어를 통해 Ollama의 REST API를 직접 호출할 수 있습니다:
Terminal
#!/bin/bash
# Required parameters:
# @raycast.schemaVersion 1
# @raycast.title Fix Grammar (Script)
# @raycast.mode silent
SELECTION=$(pbpaste)
RESPONSE=$(curl -s http://localhost:11434/api/generate \
-H "Content-Type: application/json" \
-d "{
\"model\": \"llama3.2\",
\"prompt\": \"Fix grammar only, return corrected text: ${SELECTION}\",
\"stream\": false
}" | python3 -c "import sys, json; print(json.load(sys.stdin)['response'])")
echo "$RESPONSE" | pbcopy
이 파일을 fix-grammar.sh로 저장하고, chmod +x fix-grammar.sh로 실행 권한을 부여한 다음, ~/.config/raycast/scripts/ 폴더에 넣어두세요.
모델 선택 전략
모든 작업에 가장 강력한 모델이 필요한 것은 아닙니다. 명령의 복잡도에 맞게 모델 크기를 조정하세요:
| 명령 |
권장 모델 |
이유 |
| 문법 교정 |
phi3 또는 gemma2:2b |
빠르고 가벼우며 단순한 작업 |
| 재작성 |
llama3.2 |
품질과 속도의 균형 |
| 요약 |
llama3.2 또는 mistral |
깊은 이해력 필요 |
프로 팁: Apple Silicon에서 소형 모델은 1초 이내에 응답합니다 — 문법 교정의 경우, 하루에 수십 번씩 명령을 사용할 때 이 속도 차이는 매우 큰 변화를 가져옵니다.
Step 6 번개처럼 빠른 접근을 위한 단축키 최적화
좋은 AI 워크플로와 훌륭한 워크플로의 차이는 마찰에서 비롯됩니다. 불필요한 클릭, 컨텍스트 전환, 메뉴를 찾아 헤매는 모든 순간은 집중 상태를 깨뜨리는 인지적 부담입니다. 단축키는 그 마찰을 완전히 제거합니다 — AI 지원을 의식적으로 사용하는 도구에서 생각의 보이지 않는 연장선으로 변환시켜 줍니다.
Raycast 단축키 아키텍처
Raycast는 두 가지 뚜렷한 키보드 단축키 할당 레이어를 지원합니다:
| 레이어 |
범위 |
최적 용도 |
| 글로벌 단축키 |
시스템 전체, 모든 앱에서 작동 |
가장 자주 사용하는 단일 AI 명령 |
| 확장 단축키 |
특정 확장 명령 실행 |
자주 사용하지만 보조적인 명령 |
| 별칭 |
Raycast 열기 + 명령 미리 입력 |
전체 이름을 외우지 않고 빠르게 접근 |
| 빠른 링크 |
특정 프롬프트에 대한 Raycast 단축키 |
템플릿화된 반복 가능한 AI 작업 |
AI 명령에 단축키 할당하기
Raycast 환경설정 → 확장 → Ollama AI로 이동하여 이전 섹션에서 만든 각 사용자 정의 명령을 찾으세요. 명령 옆의 단축키 필드를 클릭하고 원하는 키 조합을 누르세요.
AI 명령에 권장하는 단축키 체계:
Terminal
⌥ + Space → Raycast 열기 (메인 런처)
⌃ + ⌥ + S → AI 요약 (선택한 텍스트)
⌃ + ⌥ + R → AI 재작성 (선택한 텍스트)
⌃ + ⌥ + G → 문법 교정 (선택한 텍스트)
⌃ + ⌥ + O → Ollama 채팅 열기 (자유형식)
프로 팁: 모든 AI 명령의 수정자 접두어로 Control (⌃) + Option (⌥)을 사용하세요. 이 조합은 macOS 시스템 단축키나 다른 애플리케이션에서 거의 사용되지 않아, 충돌 없이 깔끔한 네임스페이스를 제공합니다.
단축키 충돌 방지
단축키를 확정하기 전에 이미 사용 중인 단축키가 아닌지 확인하세요:
Terminal
# Check system-level shortcuts via defaults
defaults read com.apple.symbolichotkeys AppleSymbolicHotKeys
또한 시스템 설정 → 키보드 → 키보드 단축키로 이동하여 각 카테고리를 살펴볼 수 있습니다. 자주 충돌이 발생하는 구간은 다음과 같습니다:
- Mission Control은 대부분의
⌃ + Arrow 조합을 사용합니다
- Spotlight의 기본값은
⌘ + Space입니다
- 스크린샷 도구는 여러
⌘ + Shift + number 슬롯을 차지합니다
- Alfred, 1Password, Magnet 같은 서드파티 앱이
⌥ 기반 단축키를 가져갈 수 있습니다
텍스트 선택 워크플로우 강화하기
시스템 전체에서 사용하는 AI 단축키의 진정한 강점은 텍스트 선택 트리거와 결합될 때 발휘됩니다. 어떤 애플리케이션에서든 현재 선택된 텍스트를 대상으로 작동하도록 Ollama 명령을 설정하세요:
- Safari, Notion, Xcode, Slack 등 어디서든 텍스트를 선택합니다
⌃ + ⌥ + S를 누릅니다
- Ollama가 선택된 내용을 처리하고 앱 전환 없이 인라인으로 요약을 반환합니다
이것이 가능한 이유는 Raycast가 시스템 클립보드와 활성 선택 컨텍스트를 읽기 때문입니다. 안정적인 작동을 보장하려면 확장 프로그램의 설정 패널에서 "Read selected text from active app" 옵션을 활성화하세요.
근육 기억 지도 만들기
단축키를 적어두고 30일 동안 꾸준히 사용하세요. 의식적인 단축키를 무의식적인 근육 기억으로 전환하는 것은 바로 일관성입니다. 다음과 같은 단계적 발전을 고려해 보세요:
Terminal
Week 1: Use hotkeys consciously, referring to your cheat sheet
Week 2: Fingers begin finding shortcuts without looking
Week 3: Hotkeys feel as natural as ⌘+C / ⌘+V
Week 4: You forget AI assistance is a "tool" — it's just thinking
궁극적인 목표는 지연 없는 AI 접근입니다 — 의도와 실행 사이의 간격이 완전히 사라지는 것입니다. 올바른 단축키 구조가 갖춰지면, Ollama는 더 이상 열어야 하는 무언가가 아니라 자연스럽게 손이 가는 존재가 됩니다.