147 GUIDES AND GROWING

Run AI Locally.
Free. Private. Yours.

Step-by-step guides for Mac, Windows & Linux — no cloud, no API bills, and total control over your intelligence.

Start Here

Where do you want to run AI?

Pick your setup below — we'll take you straight to the right guide.

MAC 9 MIN READ FEATURED

ローカルAIのための8GB Mac サバイバルガイド

8GBのM1またはM2でAIを動かせるのか?答えはイエス。スワップメモリの地獄を避けるための最適なモデルと設定を紹介します。

Author avatar

Arjun Mehta

Core Contributor

Read Guide arrow_forward

$ curl -fsSL https://ollama.com/install.sh | sh

# Downloading Ollama...

# Setting up environment variables...

$ ollama run llama3.1

> Pulling manifest...

> Success

memory

All Setup Guides

MAC 9 MIN READ

ローカルAIのための8GB Mac サバイバルガイド

8GBのM1またはM2でAIを動かせるのか?答えはイエス。スワップメモリの地獄を避けるための最適なモデルと設定を紹介します。

Read Guide arrow_forward
MAC 11 MIN READ

GitHub Copilotを置き換える:Ollama + Continue.dev

月額10ドルの支払いをやめましょう。MacのVS CodeにOllamaとContinue.dev拡張機能をセットアップして、完全無料でプライベートなAI自動補完を実現しましょう。

Read Guide arrow_forward
MAC 8 MIN READ

Mac上のLM Studio:最も簡単なオフラインAIインターフェース

macOSにLM Studioをインストールして、Metalアクセラレーションを活用しながらGGUFモデルのダウンロードと実行ができる美しいGUIを手に入れましょう。

Read Guide arrow_forward
WINDOWS 6 MIN READ

OllamaをWindowsでネイティブ実行する

OllamaはWSLなしでWindowsでネイティブに動作するようになりました。5分以内にPowerShellからインストール、モデルのプル、チャットが可能です。

Read Guide arrow_forward
WINDOWS 8 MIN READ

WindowsにLM Studioをセットアップする

NVIDIA/AMD GPUサポートを使用して、WindowsにLM Studioをインストールおよび設定する方法を学びましょう。美しいチャットインターフェースでGGUFモデルをローカルで実行できます。

Read Guide arrow_forward
MAC 7 MIN READ

システム全体のMac AI:OllamaをRaycastに接続する

ローカルLLMをRaycastに直接統合しましょう。Mac上のどこでもテキストをハイライトしてホットキーを押すだけで、無料で要約や書き換えができます。

Read Guide arrow_forward
MAC 14 MIN READ

Mac向けLlama.cppパワーユーザーガイド

macOSでllama.cppをゼロからコンパイルして実行する方法を解説します。最大限のパフォーマンスを引き出し、無駄を排除し、Metalアクセラレーションのパラメータを完全に制御しましょう。

Read Guide arrow_forward
LINUX 7 MIN READ

LinuxでOllamaを実行する:完全ガイド

Ubuntu/DebianでOllamaをsystemdバックグラウンドサービスとしてデプロイする方法。NVIDIA CUDAおよびAMD ROCmの完全なセットアップ手順を解説。

Read Guide arrow_forward
MAC 10 MIN READ

AppleのMLXフレームワーク:最大のAIスピード

AppleのネイティブMLXフレームワークを使用して、Apple Silicon上でLlama 3とMistralを驚異的な速度でネイティブ実行する方法。

Read Guide arrow_forward
WINDOWS 14 MIN READ

Windows上のLlama.cpp:CUDAガイド

CMakeとNVIDIA CUDAツールキットを使用して、WindowsでLlama.cppをソースからコンパイルし、トークン生成速度を最大化する方法を解説します。

Read Guide arrow_forward
MAC 12 MIN READ

完全ガイド:Mac M3でOllamaを実行する方法

Apple SiliconへのOllamaのインストール、最適化、および実行に関する決定版マスタークラス。ユニファイドメモリ、モデルの量子化、そしてM3チップを最大限に活用する方法を理解しましょう。

Read Guide arrow_forward
LINUX 6 MIN READ

LinuxにLM Studioをセットアップする(Ubuntu/Debian)

LM StudioのAppImageをLinuxにインストールして、ローカルAIモデル用の美しいグラフィカルインターフェースを手に入れましょう。

Read Guide arrow_forward
LINUX 15 MIN READ

LinuxにおけるローカルLlama 3の導入

llama.cppを使用して、完全なCUDAサポートでMetaのLlama 3モデルをLinux上にローカル展開します。本ガイドでは、コンパイル、量子化、およびコマンドラインからのモデル実行について説明します。

Read Guide arrow_forward
LINUX 12 MIN READ

UbuntuでvLLMを使用した高スループットサービング

エンタープライズグレードのパフォーマンスを実現するために、LinuxにvLLMをデプロイし、PagedAttentionと最大トークンスループットでモデルを提供します。

Read Guide arrow_forward