Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Mac.
All Mac Tutorials
La Guida alla Sopravvivenza per l'IA Locale su Mac da 8GB
Puoi eseguire l'IA su un Mac M1 o M2 da 8GB? Sì. Ecco i migliori modelli e le impostazioni migliori per evitare il collasso della memoria swap.
Read Guide arrow_forwardSostituire GitHub Copilot: Ollama + Continue.dev
Smetti di pagare 10$/mese. Configura Ollama e l'estensione Continue.dev in VS Code sul tuo Mac per un completamento automatico AI completamente gratuito e privato.
Read Guide arrow_forwardLM Studio su Mac: L'interfaccia AI offline più semplice
Installa LM Studio su macOS per ottenere una bellissima interfaccia grafica per scaricare ed eseguire modelli GGUF con accelerazione Metal.
Read Guide arrow_forwardAI per Mac a livello di sistema: Collega Ollama a Raycast
Integra i tuoi LLM locali direttamente in Raycast. Seleziona il testo ovunque sul tuo Mac e premi una scorciatoia da tastiera per riassumerlo o riscriverlo gratuitamente.
Read Guide arrow_forwardLlama.cpp su Mac: La Guida per Utenti Avanzati
Compila ed esegui llama.cpp da zero su macOS. Ottieni le massime prestazioni, zero bloat e il controllo totale sui parametri di accelerazione Metal.
Read Guide arrow_forwardIl Framework MLX di Apple: Velocità Massima per l'IA
Come utilizzare il framework nativo MLX di Apple per eseguire Llama 3 e Mistral a velocità fulminee nativamente su Apple Silicon.
Read Guide arrow_forwardLa Guida Definitiva: Eseguire Ollama su Mac M3
Il corso magistrale definitivo per installare, ottimizzare ed eseguire Ollama su Apple Silicon. Comprendi la Memoria Unificata, la quantizzazione dei modelli e come sfruttare al massimo il tuo chip M3.
Read Guide arrow_forward