Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Mac.
All Mac Tutorials
O Guia de Sobrevivência do Mac 8GB para IA Local
É possível rodar IA em um Mac M1 ou M2 com 8GB? Sim. Aqui estão os melhores modelos e configurações para evitar o colapso por uso excessivo de memória swap.
Read Guide arrow_forwardSubstitua o GitHub Copilot: Ollama + Continue.dev
Pare de pagar $10/mês. Configure o Ollama e a extensão Continue.dev no VS Code no seu Mac para um autocompletar de IA completamente gratuito e privado.
Read Guide arrow_forwardLM Studio no Mac: A Interface de IA Offline Mais Fácil
Instale o LM Studio no macOS para obter uma interface gráfica elegante para baixar e executar modelos GGUF com aceleração Metal.
Read Guide arrow_forwardIA para Mac em todo o sistema: Conecte o Ollama ao Raycast
Integre seus LLMs locais diretamente ao Raycast. Selecione texto em qualquer lugar no seu Mac e pressione um atalho de teclado para resumir ou reescrever gratuitamente.
Read Guide arrow_forwardLlama.cpp no Mac: O Guia do Usuário Avançado
Compile e execute o llama.cpp do zero no macOS. Obtenha desempenho máximo, zero de excesso e controle total sobre os parâmetros de aceleração Metal.
Read Guide arrow_forwardFramework MLX da Apple: Velocidade Máxima em IA
Como usar o framework nativo MLX da Apple para executar o Llama 3 e o Mistral em velocidades surpreendentes nativamente no Apple Silicon.
Read Guide arrow_forwardO Guia Definitivo: Execute o Ollama no Mac M3
A aula magistral definitiva para instalar, otimizar e executar o Ollama no Apple Silicon. Entenda a Memória Unificada, a quantização de modelos e como maximizar o seu chip M3.
Read Guide arrow_forward