Home chevron_right Linux
LINUX GUIDES

Local AI for
Linux.

Linux gives you maximum control and performance for local AI. Pick your preferred inference engine and get up and running fast.

All Linux Tutorials

LINUX 7 MIN READ

Eseguire Ollama su Linux: La Guida Definitiva

Distribuire Ollama come servizio systemd in background su Ubuntu/Debian. Configurazione completa per NVIDIA CUDA e AMD ROCm.

Read Guide arrow_forward
LINUX 6 MIN READ

Configurare LM Studio su Linux (Ubuntu/Debian)

Installa l'AppImage di LM Studio su Linux per ottenere una bella interfaccia grafica per i tuoi modelli di intelligenza artificiale locali.

Read Guide arrow_forward
LINUX 15 MIN READ

Llama 3 locale su Linux

Distribuisci il modello Llama 3 di Meta localmente su Linux utilizzando llama.cpp con pieno supporto CUDA. Questa guida copre la compilazione, la quantizzazione e l'esecuzione del modello dalla riga di comando.

Read Guide arrow_forward
LINUX 12 MIN READ

Servizio ad Alto Throughput con vLLM su Ubuntu

Per prestazioni di livello enterprise, distribuire vLLM su Linux per servire modelli con PagedAttention e il massimo throughput di token.

Read Guide arrow_forward