Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Linux.
All Linux Tutorials
LINUX
7 MIN READ
LinuxでOllamaを実行する:完全ガイド
Ubuntu/DebianでOllamaをsystemdバックグラウンドサービスとしてデプロイする方法。NVIDIA CUDAおよびAMD ROCmの完全なセットアップ手順を解説。
Read Guide arrow_forward
LINUX
6 MIN READ
LinuxにLM Studioをセットアップする(Ubuntu/Debian)
LM StudioのAppImageをLinuxにインストールして、ローカルAIモデル用の美しいグラフィカルインターフェースを手に入れましょう。
Read Guide arrow_forward
LINUX
15 MIN READ
LinuxにおけるローカルLlama 3の導入
llama.cppを使用して、完全なCUDAサポートでMetaのLlama 3モデルをLinux上にローカル展開します。本ガイドでは、コンパイル、量子化、およびコマンドラインからのモデル実行について説明します。
Read Guide arrow_forward
LINUX
12 MIN READ
UbuntuでvLLMを使用した高スループットサービング
エンタープライズグレードのパフォーマンスを実現するために、LinuxにvLLMをデプロイし、PagedAttentionと最大トークンスループットでモデルを提供します。
Read Guide arrow_forward