Home chevron_right Linux
LINUX GUIDES

Local AI for
Linux.

Linux gives you maximum control and performance for local AI. Pick your preferred inference engine and get up and running fast.

All Linux Tutorials

LINUX 7 MIN READ

LinuxでOllamaを実行する:完全ガイド

Ubuntu/DebianでOllamaをsystemdバックグラウンドサービスとしてデプロイする方法。NVIDIA CUDAおよびAMD ROCmの完全なセットアップ手順を解説。

Read Guide arrow_forward
LINUX 6 MIN READ

LinuxにLM Studioをセットアップする(Ubuntu/Debian)

LM StudioのAppImageをLinuxにインストールして、ローカルAIモデル用の美しいグラフィカルインターフェースを手に入れましょう。

Read Guide arrow_forward
LINUX 15 MIN READ

LinuxにおけるローカルLlama 3の導入

llama.cppを使用して、完全なCUDAサポートでMetaのLlama 3モデルをLinux上にローカル展開します。本ガイドでは、コンパイル、量子化、およびコマンドラインからのモデル実行について説明します。

Read Guide arrow_forward
LINUX 12 MIN READ

UbuntuでvLLMを使用した高スループットサービング

エンタープライズグレードのパフォーマンスを実現するために、LinuxにvLLMをデプロイし、PagedAttentionと最大トークンスループットでモデルを提供します。

Read Guide arrow_forward