Home chevron_right Mac
MACOS GUIDES

Local AI for
Mac.

Apple Silicon makes your Mac one of the best local AI machines available. Pick your engine below and follow a step-by-step guide.

All Mac Tutorials

MAC 9 MIN READ

Guía de supervivencia para IA local en Mac con 8GB

¿Puedes ejecutar IA en un M1 o M2 con 8GB? Sí. Aquí están los mejores modelos y configuraciones para evitar que la memoria de intercambio acabe con tu equipo.

Read Guide arrow_forward
MAC 11 MIN READ

Reemplaza GitHub Copilot: Ollama + Continue.dev

Deja de pagar $10 al mes. Configura Ollama y la extensión Continue.dev en VS Code en tu Mac para obtener autocompletado de IA completamente gratuito y privado.

Read Guide arrow_forward
MAC 8 MIN READ

LM Studio en Mac: La interfaz de IA sin conexión más sencilla

Instala LM Studio en macOS para obtener una interfaz gráfica atractiva que permite descargar y ejecutar modelos GGUF con aceleración Metal.

Read Guide arrow_forward
MAC 7 MIN READ

IA para Mac en todo el sistema: Conecta Ollama con Raycast

Integra tus LLMs locales directamente en Raycast. Selecciona texto en cualquier lugar de tu Mac y pulsa un atajo de teclado para resumirlo o reescribirlo de forma gratuita.

Read Guide arrow_forward
MAC 14 MIN READ

Llama.cpp en Mac: La Guía para Usuarios Avanzados

Compila y ejecuta llama.cpp desde cero en macOS. Obtén el máximo rendimiento, sin software innecesario y con control total sobre los parámetros de aceleración Metal.

Read Guide arrow_forward
MAC 10 MIN READ

El Framework MLX de Apple: Velocidad Máxima en IA

Cómo utilizar el framework nativo MLX de Apple para ejecutar Llama 3 y Mistral a velocidades increíbles de forma nativa en Apple Silicon.

Read Guide arrow_forward
MAC 12 MIN READ

La Guía Definitiva: Ejecutar Ollama en Mac M3

La clase magistral definitiva para instalar, optimizar y ejecutar Ollama en Apple Silicon. Comprende la Memoria Unificada, la cuantización de modelos y cómo sacar el máximo provecho de tu chip M3.

Read Guide arrow_forward