Home chevron_right Mac
MACOS GUIDES

Local AI for
Mac.

Apple Silicon makes your Mac one of the best local AI machines available. Pick your engine below and follow a step-by-step guide.

All Mac Tutorials

MAC 9 MIN READ

La Guida alla Sopravvivenza per l'IA Locale su Mac da 8GB

Puoi eseguire l'IA su un Mac M1 o M2 da 8GB? Sì. Ecco i migliori modelli e le impostazioni migliori per evitare il collasso della memoria swap.

Read Guide arrow_forward
MAC 11 MIN READ

Sostituire GitHub Copilot: Ollama + Continue.dev

Smetti di pagare 10$/mese. Configura Ollama e l'estensione Continue.dev in VS Code sul tuo Mac per un completamento automatico AI completamente gratuito e privato.

Read Guide arrow_forward
MAC 8 MIN READ

LM Studio su Mac: L'interfaccia AI offline più semplice

Installa LM Studio su macOS per ottenere una bellissima interfaccia grafica per scaricare ed eseguire modelli GGUF con accelerazione Metal.

Read Guide arrow_forward
MAC 7 MIN READ

AI per Mac a livello di sistema: Collega Ollama a Raycast

Integra i tuoi LLM locali direttamente in Raycast. Seleziona il testo ovunque sul tuo Mac e premi una scorciatoia da tastiera per riassumerlo o riscriverlo gratuitamente.

Read Guide arrow_forward
MAC 14 MIN READ

Llama.cpp su Mac: La Guida per Utenti Avanzati

Compila ed esegui llama.cpp da zero su macOS. Ottieni le massime prestazioni, zero bloat e il controllo totale sui parametri di accelerazione Metal.

Read Guide arrow_forward
MAC 10 MIN READ

Il Framework MLX di Apple: Velocità Massima per l'IA

Come utilizzare il framework nativo MLX di Apple per eseguire Llama 3 e Mistral a velocità fulminee nativamente su Apple Silicon.

Read Guide arrow_forward
MAC 12 MIN READ

La Guida Definitiva: Eseguire Ollama su Mac M3

Il corso magistrale definitivo per installare, ottimizzare ed eseguire Ollama su Apple Silicon. Comprendi la Memoria Unificata, la quantizzazione dei modelli e come sfruttare al massimo il tuo chip M3.

Read Guide arrow_forward