Home chevron_right Mac
MACOS GUIDES

Local AI for
Mac.

Apple Silicon makes your Mac one of the best local AI machines available. Pick your engine below and follow a step-by-step guide.

All Mac Tutorials

MAC 9 MIN READ

O Guia de Sobrevivência do Mac 8GB para IA Local

É possível rodar IA em um Mac M1 ou M2 com 8GB? Sim. Aqui estão os melhores modelos e configurações para evitar o colapso por uso excessivo de memória swap.

Read Guide arrow_forward
MAC 11 MIN READ

Substitua o GitHub Copilot: Ollama + Continue.dev

Pare de pagar $10/mês. Configure o Ollama e a extensão Continue.dev no VS Code no seu Mac para um autocompletar de IA completamente gratuito e privado.

Read Guide arrow_forward
MAC 8 MIN READ

LM Studio no Mac: A Interface de IA Offline Mais Fácil

Instale o LM Studio no macOS para obter uma interface gráfica elegante para baixar e executar modelos GGUF com aceleração Metal.

Read Guide arrow_forward
MAC 7 MIN READ

IA para Mac em todo o sistema: Conecte o Ollama ao Raycast

Integre seus LLMs locais diretamente ao Raycast. Selecione texto em qualquer lugar no seu Mac e pressione um atalho de teclado para resumir ou reescrever gratuitamente.

Read Guide arrow_forward
MAC 14 MIN READ

Llama.cpp no Mac: O Guia do Usuário Avançado

Compile e execute o llama.cpp do zero no macOS. Obtenha desempenho máximo, zero de excesso e controle total sobre os parâmetros de aceleração Metal.

Read Guide arrow_forward
MAC 10 MIN READ

Framework MLX da Apple: Velocidade Máxima em IA

Como usar o framework nativo MLX da Apple para executar o Llama 3 e o Mistral em velocidades surpreendentes nativamente no Apple Silicon.

Read Guide arrow_forward
MAC 12 MIN READ

O Guia Definitivo: Execute o Ollama no Mac M3

A aula magistral definitiva para instalar, otimizar e executar o Ollama no Apple Silicon. Entenda a Memória Unificada, a quantização de modelos e como maximizar o seu chip M3.

Read Guide arrow_forward