147 GUIDES AND GROWING

Run AI Locally.
Free. Private. Yours.

Step-by-step guides for Mac, Windows & Linux — no cloud, no API bills, and total control over your intelligence.

Start Here

Where do you want to run AI?

Pick your setup below — we'll take you straight to the right guide.

MAC 9 MIN READ FEATURED

O Guia de Sobrevivência do Mac 8GB para IA Local

É possível rodar IA em um Mac M1 ou M2 com 8GB? Sim. Aqui estão os melhores modelos e configurações para evitar o colapso por uso excessivo de memória swap.

Author avatar

Arjun Mehta

Core Contributor

Read Guide arrow_forward

$ curl -fsSL https://ollama.com/install.sh | sh

# Downloading Ollama...

# Setting up environment variables...

$ ollama run llama3.1

> Pulling manifest...

> Success

memory

All Setup Guides

MAC 9 MIN READ

O Guia de Sobrevivência do Mac 8GB para IA Local

É possível rodar IA em um Mac M1 ou M2 com 8GB? Sim. Aqui estão os melhores modelos e configurações para evitar o colapso por uso excessivo de memória swap.

Read Guide arrow_forward
MAC 11 MIN READ

Substitua o GitHub Copilot: Ollama + Continue.dev

Pare de pagar $10/mês. Configure o Ollama e a extensão Continue.dev no VS Code no seu Mac para um autocompletar de IA completamente gratuito e privado.

Read Guide arrow_forward
MAC 8 MIN READ

LM Studio no Mac: A Interface de IA Offline Mais Fácil

Instale o LM Studio no macOS para obter uma interface gráfica elegante para baixar e executar modelos GGUF com aceleração Metal.

Read Guide arrow_forward
WINDOWS 6 MIN READ

Execute o Ollama nativamente no Windows

O Ollama agora roda nativamente no Windows sem WSL. Instale, baixe modelos e converse pelo PowerShell em menos de 5 minutos.

Read Guide arrow_forward
WINDOWS 8 MIN READ

Configurar o LM Studio no Windows

Aprenda como instalar e configurar o LM Studio no Windows com suporte a GPU NVIDIA/AMD. Execute modelos GGUF localmente com uma interface de chat elegante.

Read Guide arrow_forward
MAC 7 MIN READ

IA para Mac em todo o sistema: Conecte o Ollama ao Raycast

Integre seus LLMs locais diretamente ao Raycast. Selecione texto em qualquer lugar no seu Mac e pressione um atalho de teclado para resumir ou reescrever gratuitamente.

Read Guide arrow_forward
MAC 14 MIN READ

Llama.cpp no Mac: O Guia do Usuário Avançado

Compile e execute o llama.cpp do zero no macOS. Obtenha desempenho máximo, zero de excesso e controle total sobre os parâmetros de aceleração Metal.

Read Guide arrow_forward
LINUX 7 MIN READ

Execute o Ollama no Linux: O Guia Definitivo

Implante o Ollama como um serviço systemd em segundo plano no Ubuntu/Debian. Configuração completa para NVIDIA CUDA e AMD ROCm.

Read Guide arrow_forward
MAC 10 MIN READ

Framework MLX da Apple: Velocidade Máxima em IA

Como usar o framework nativo MLX da Apple para executar o Llama 3 e o Mistral em velocidades surpreendentes nativamente no Apple Silicon.

Read Guide arrow_forward
WINDOWS 14 MIN READ

Llama.cpp no Windows: O Guia CUDA

Compile o llama.cpp a partir do código-fonte no Windows usando CMake e o kit de ferramentas NVIDIA CUDA para obter a máxima velocidade de geração de tokens.

Read Guide arrow_forward
MAC 12 MIN READ

O Guia Definitivo: Execute o Ollama no Mac M3

A aula magistral definitiva para instalar, otimizar e executar o Ollama no Apple Silicon. Entenda a Memória Unificada, a quantização de modelos e como maximizar o seu chip M3.

Read Guide arrow_forward
LINUX 6 MIN READ

Configurar o LM Studio no Linux (Ubuntu/Debian)

Instale o AppImage do LM Studio no Linux para obter uma interface gráfica elegante para seus modelos de IA locais.

Read Guide arrow_forward
LINUX 15 MIN READ

Llama 3 Local no Linux

Implante o modelo Llama 3 da Meta localmente no Linux usando llama.cpp com suporte completo a CUDA. Este guia abrange compilação, quantização e execução do modelo a partir da linha de comando.

Read Guide arrow_forward
LINUX 12 MIN READ

Serviço de Alta Vazão com vLLM no Ubuntu

Para desempenho de nível empresarial, implante o vLLM no Linux para servir modelos com PagedAttention e máxima taxa de transferência de tokens.

Read Guide arrow_forward