147 GUIDES AND GROWING

Run AI Locally.
Free. Private. Yours.

Step-by-step guides for Mac, Windows & Linux — no cloud, no API bills, and total control over your intelligence.

Start Here

Where do you want to run AI?

Pick your setup below — we'll take you straight to the right guide.

MAC 9 MIN READ FEATURED

La Guida alla Sopravvivenza per l'IA Locale su Mac da 8GB

Puoi eseguire l'IA su un Mac M1 o M2 da 8GB? Sì. Ecco i migliori modelli e le impostazioni migliori per evitare il collasso della memoria swap.

Author avatar

Arjun Mehta

Core Contributor

Read Guide arrow_forward

$ curl -fsSL https://ollama.com/install.sh | sh

# Downloading Ollama...

# Setting up environment variables...

$ ollama run llama3.1

> Pulling manifest...

> Success

memory

All Setup Guides

MAC 9 MIN READ

La Guida alla Sopravvivenza per l'IA Locale su Mac da 8GB

Puoi eseguire l'IA su un Mac M1 o M2 da 8GB? Sì. Ecco i migliori modelli e le impostazioni migliori per evitare il collasso della memoria swap.

Read Guide arrow_forward
MAC 11 MIN READ

Sostituire GitHub Copilot: Ollama + Continue.dev

Smetti di pagare 10$/mese. Configura Ollama e l'estensione Continue.dev in VS Code sul tuo Mac per un completamento automatico AI completamente gratuito e privato.

Read Guide arrow_forward
MAC 8 MIN READ

LM Studio su Mac: L'interfaccia AI offline più semplice

Installa LM Studio su macOS per ottenere una bellissima interfaccia grafica per scaricare ed eseguire modelli GGUF con accelerazione Metal.

Read Guide arrow_forward
WINDOWS 6 MIN READ

Esegui Ollama su Windows in modo nativo

Ollama ora funziona in modo nativo su Windows senza WSL. Installa, scarica modelli e chatta da PowerShell in meno di 5 minuti.

Read Guide arrow_forward
WINDOWS 8 MIN READ

Configurare LM Studio su Windows

Scopri come installare e configurare LM Studio su Windows con supporto GPU NVIDIA/AMD. Esegui modelli GGUF in locale con una bellissima interfaccia di chat.

Read Guide arrow_forward
MAC 7 MIN READ

AI per Mac a livello di sistema: Collega Ollama a Raycast

Integra i tuoi LLM locali direttamente in Raycast. Seleziona il testo ovunque sul tuo Mac e premi una scorciatoia da tastiera per riassumerlo o riscriverlo gratuitamente.

Read Guide arrow_forward
MAC 14 MIN READ

Llama.cpp su Mac: La Guida per Utenti Avanzati

Compila ed esegui llama.cpp da zero su macOS. Ottieni le massime prestazioni, zero bloat e il controllo totale sui parametri di accelerazione Metal.

Read Guide arrow_forward
LINUX 7 MIN READ

Eseguire Ollama su Linux: La Guida Definitiva

Distribuire Ollama come servizio systemd in background su Ubuntu/Debian. Configurazione completa per NVIDIA CUDA e AMD ROCm.

Read Guide arrow_forward
MAC 10 MIN READ

Il Framework MLX di Apple: Velocità Massima per l'IA

Come utilizzare il framework nativo MLX di Apple per eseguire Llama 3 e Mistral a velocità fulminee nativamente su Apple Silicon.

Read Guide arrow_forward
WINDOWS 14 MIN READ

Llama.cpp su Windows: La Guida CUDA

Compila llama.cpp dal codice sorgente su Windows utilizzando CMake e il toolkit NVIDIA CUDA per la massima velocità di generazione dei token.

Read Guide arrow_forward
MAC 12 MIN READ

La Guida Definitiva: Eseguire Ollama su Mac M3

Il corso magistrale definitivo per installare, ottimizzare ed eseguire Ollama su Apple Silicon. Comprendi la Memoria Unificata, la quantizzazione dei modelli e come sfruttare al massimo il tuo chip M3.

Read Guide arrow_forward
LINUX 6 MIN READ

Configurare LM Studio su Linux (Ubuntu/Debian)

Installa l'AppImage di LM Studio su Linux per ottenere una bella interfaccia grafica per i tuoi modelli di intelligenza artificiale locali.

Read Guide arrow_forward
LINUX 15 MIN READ

Llama 3 locale su Linux

Distribuisci il modello Llama 3 di Meta localmente su Linux utilizzando llama.cpp con pieno supporto CUDA. Questa guida copre la compilazione, la quantizzazione e l'esecuzione del modello dalla riga di comando.

Read Guide arrow_forward
LINUX 12 MIN READ

Servizio ad Alto Throughput con vLLM su Ubuntu

Per prestazioni di livello enterprise, distribuire vLLM su Linux per servire modelli con PagedAttention e il massimo throughput di token.

Read Guide arrow_forward