Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Mac.
All Mac Tutorials
Guía de supervivencia para IA local en Mac con 8GB
¿Puedes ejecutar IA en un M1 o M2 con 8GB? Sí. Aquí están los mejores modelos y configuraciones para evitar que la memoria de intercambio acabe con tu equipo.
Read Guide arrow_forwardReemplaza GitHub Copilot: Ollama + Continue.dev
Deja de pagar $10 al mes. Configura Ollama y la extensión Continue.dev en VS Code en tu Mac para obtener autocompletado de IA completamente gratuito y privado.
Read Guide arrow_forwardLM Studio en Mac: La interfaz de IA sin conexión más sencilla
Instala LM Studio en macOS para obtener una interfaz gráfica atractiva que permite descargar y ejecutar modelos GGUF con aceleración Metal.
Read Guide arrow_forwardIA para Mac en todo el sistema: Conecta Ollama con Raycast
Integra tus LLMs locales directamente en Raycast. Selecciona texto en cualquier lugar de tu Mac y pulsa un atajo de teclado para resumirlo o reescribirlo de forma gratuita.
Read Guide arrow_forwardLlama.cpp en Mac: La Guía para Usuarios Avanzados
Compila y ejecuta llama.cpp desde cero en macOS. Obtén el máximo rendimiento, sin software innecesario y con control total sobre los parámetros de aceleración Metal.
Read Guide arrow_forwardEl Framework MLX de Apple: Velocidad Máxima en IA
Cómo utilizar el framework nativo MLX de Apple para ejecutar Llama 3 y Mistral a velocidades increíbles de forma nativa en Apple Silicon.
Read Guide arrow_forwardLa Guía Definitiva: Ejecutar Ollama en Mac M3
La clase magistral definitiva para instalar, optimizar y ejecutar Ollama en Apple Silicon. Comprende la Memoria Unificada, la cuantización de modelos y cómo sacar el máximo provecho de tu chip M3.
Read Guide arrow_forward