Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Mac.
All Mac Tutorials
MAC
9 MIN READ
로컬 AI를 위한 8GB 맥 생존 가이드
8GB M1 또는 M2에서 AI를 실행할 수 있을까요? 네, 가능합니다. 스왑 메모리 문제를 피하기 위한 최적의 모델과 설정을 소개합니다.
Read Guide arrow_forward
MAC
11 MIN READ
GitHub Copilot를 대체하세요: Ollama + Continue.dev
월 $10 지출을 멈추세요. Mac의 VS Code에서 Ollama와 Continue.dev 확장 프로그램을 설정하여 완전히 무료로 개인 정보가 보호되는 AI 자동완성을 사용하세요.
Read Guide arrow_forward
MAC
8 MIN READ
Mac에서 LM Studio 사용하기: 가장 쉬운 오프라인 AI 인터페이스
macOS에 LM Studio를 설치하여 Metal 가속을 통해 GGUF 모델을 다운로드하고 실행할 수 있는 세련된 GUI를 경험해 보세요.
Read Guide arrow_forward
MAC
7 MIN READ
시스템 전체 Mac AI: Ollama를 Raycast에 연결하기
로컬 LLM을 Raycast에 직접 통합하세요. Mac 어디서든 텍스트를 드래그하고 단축키를 눌러 무료로 요약하거나 다시 작성할 수 있습니다.
Read Guide arrow_forward
MAC
14 MIN READ
Mac에서 llama.cpp 사용하기: 파워 유저 가이드
macOS에서 llama.cpp를 처음부터 컴파일하고 실행하세요. 최대 성능과 불필요한 요소 없는 깔끔한 환경, 그리고 Metal 가속 파라미터에 대한 완전한 제어권을 확보하세요.
Read Guide arrow_forward
MAC
10 MIN READ
애플의 MLX 프레임워크: 최고의 AI 속도
애플의 네이티브 MLX 프레임워크를 사용하여 애플 실리콘에서 Llama 3와 Mistral을 빠른 속도로 실행하는 방법.
Read Guide arrow_forward
MAC
12 MIN READ
완벽 가이드: Mac M3에서 Ollama 실행하기
Apple Silicon에서 Ollama를 설치하고 최적화하며 실행하는 완벽한 마스터클래스. 통합 메모리와 모델 양자화를 이해하고 M3 칩을 최대한 활용하는 방법을 알아보세요.
Read Guide arrow_forward