Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Windows.
All Windows Tutorials
WINDOWS
6 MIN READ
Windows에서 Ollama 네이티브로 실행하기
Ollama가 이제 WSL 없이 Windows에서 네이티브로 실행됩니다. 5분 이내에 PowerShell에서 설치, 모델 다운로드 및 채팅을 시작할 수 있습니다.
Read Guide arrow_forward
WINDOWS
8 MIN READ
Windows에서 LM Studio 설치하기
NVIDIA/AMD GPU 지원과 함께 Windows에서 LM Studio를 설치하고 구성하는 방법을 알아보세요. 아름다운 채팅 인터페이스로 GGUF 모델을 로컬에서 실행하세요.
Read Guide arrow_forward
WINDOWS
14 MIN READ
Windows에서 Llama.cpp 사용하기: CUDA 가이드
CMake와 NVIDIA CUDA 툴킷을 사용하여 Windows에서 llama.cpp를 소스로 컴파일하고 최대 토큰 생성 속도를 달성하세요.
Read Guide arrow_forward