147 GUIDES AND GROWING

Run AI Locally.
Free. Private. Yours.

Step-by-step guides for Mac, Windows & Linux — no cloud, no API bills, and total control over your intelligence.

Start Here

Where do you want to run AI?

Pick your setup below — we'll take you straight to the right guide.

MAC 9 MIN READ FEATURED

로컬 AI를 위한 8GB 맥 생존 가이드

8GB M1 또는 M2에서 AI를 실행할 수 있을까요? 네, 가능합니다. 스왑 메모리 문제를 피하기 위한 최적의 모델과 설정을 소개합니다.

Author avatar

Arjun Mehta

Core Contributor

Read Guide arrow_forward

$ curl -fsSL https://ollama.com/install.sh | sh

# Downloading Ollama...

# Setting up environment variables...

$ ollama run llama3.1

> Pulling manifest...

> Success

memory

All Setup Guides

MAC 9 MIN READ

로컬 AI를 위한 8GB 맥 생존 가이드

8GB M1 또는 M2에서 AI를 실행할 수 있을까요? 네, 가능합니다. 스왑 메모리 문제를 피하기 위한 최적의 모델과 설정을 소개합니다.

Read Guide arrow_forward
MAC 11 MIN READ

GitHub Copilot를 대체하세요: Ollama + Continue.dev

월 $10 지출을 멈추세요. Mac의 VS Code에서 Ollama와 Continue.dev 확장 프로그램을 설정하여 완전히 무료로 개인 정보가 보호되는 AI 자동완성을 사용하세요.

Read Guide arrow_forward
MAC 8 MIN READ

Mac에서 LM Studio 사용하기: 가장 쉬운 오프라인 AI 인터페이스

macOS에 LM Studio를 설치하여 Metal 가속을 통해 GGUF 모델을 다운로드하고 실행할 수 있는 세련된 GUI를 경험해 보세요.

Read Guide arrow_forward
WINDOWS 6 MIN READ

Windows에서 Ollama 네이티브로 실행하기

Ollama가 이제 WSL 없이 Windows에서 네이티브로 실행됩니다. 5분 이내에 PowerShell에서 설치, 모델 다운로드 및 채팅을 시작할 수 있습니다.

Read Guide arrow_forward
WINDOWS 8 MIN READ

Windows에서 LM Studio 설치하기

NVIDIA/AMD GPU 지원과 함께 Windows에서 LM Studio를 설치하고 구성하는 방법을 알아보세요. 아름다운 채팅 인터페이스로 GGUF 모델을 로컬에서 실행하세요.

Read Guide arrow_forward
MAC 7 MIN READ

시스템 전체 Mac AI: Ollama를 Raycast에 연결하기

로컬 LLM을 Raycast에 직접 통합하세요. Mac 어디서든 텍스트를 드래그하고 단축키를 눌러 무료로 요약하거나 다시 작성할 수 있습니다.

Read Guide arrow_forward
MAC 14 MIN READ

Mac에서 llama.cpp 사용하기: 파워 유저 가이드

macOS에서 llama.cpp를 처음부터 컴파일하고 실행하세요. 최대 성능과 불필요한 요소 없는 깔끔한 환경, 그리고 Metal 가속 파라미터에 대한 완전한 제어권을 확보하세요.

Read Guide arrow_forward
LINUX 7 MIN READ

Linux에서 Ollama 실행하기: 완벽 가이드

Ubuntu/Debian에서 Ollama를 백그라운드 systemd 서비스로 배포하세요. NVIDIA CUDA 및 AMD ROCm을 위한 전체 설정 방법을 안내합니다.

Read Guide arrow_forward
MAC 10 MIN READ

애플의 MLX 프레임워크: 최고의 AI 속도

애플의 네이티브 MLX 프레임워크를 사용하여 애플 실리콘에서 Llama 3와 Mistral을 빠른 속도로 실행하는 방법.

Read Guide arrow_forward
WINDOWS 14 MIN READ

Windows에서 Llama.cpp 사용하기: CUDA 가이드

CMake와 NVIDIA CUDA 툴킷을 사용하여 Windows에서 llama.cpp를 소스로 컴파일하고 최대 토큰 생성 속도를 달성하세요.

Read Guide arrow_forward
MAC 12 MIN READ

완벽 가이드: Mac M3에서 Ollama 실행하기

Apple Silicon에서 Ollama를 설치하고 최적화하며 실행하는 완벽한 마스터클래스. 통합 메모리와 모델 양자화를 이해하고 M3 칩을 최대한 활용하는 방법을 알아보세요.

Read Guide arrow_forward
LINUX 6 MIN READ

Linux(Ubuntu/Debian)에 LM Studio 설치하기

Linux에 LM Studio AppImage를 설치하여 로컬 AI 모델을 위한 멋진 그래픽 인터페이스를 사용해 보세요.

Read Guide arrow_forward
LINUX 15 MIN READ

Linux에서 로컬 Llama 3 실행하기

llama.cpp와 완전한 CUDA 지원을 사용하여 Linux에서 Meta의 Llama 3 모델을 로컬로 배포합니다. 이 가이드는 컴파일, 양자화 및 명령줄에서 모델을 실행하는 방법을 다룹니다.

Read Guide arrow_forward
LINUX 12 MIN READ

Ubuntu에서 vLLM을 활용한 고처리량 서빙

엔터프라이즈급 성능을 위해 Linux에서 vLLM을 배포하여 PagedAttention과 최대 토큰 처리량으로 모델을 서빙하세요.

Read Guide arrow_forward