147 GUIDES AND GROWING

Run AI Locally.
Free. Private. Yours.

Step-by-step guides for Mac, Windows & Linux — no cloud, no API bills, and total control over your intelligence.

Start Here

Where do you want to run AI?

Pick your setup below — we'll take you straight to the right guide.

MAC 9 MIN READ FEATURED

Guía de supervivencia para IA local en Mac con 8GB

¿Puedes ejecutar IA en un M1 o M2 con 8GB? Sí. Aquí están los mejores modelos y configuraciones para evitar que la memoria de intercambio acabe con tu equipo.

Author avatar

Arjun Mehta

Core Contributor

Read Guide arrow_forward

$ curl -fsSL https://ollama.com/install.sh | sh

# Downloading Ollama...

# Setting up environment variables...

$ ollama run llama3.1

> Pulling manifest...

> Success

memory

All Setup Guides

MAC 9 MIN READ

Guía de supervivencia para IA local en Mac con 8GB

¿Puedes ejecutar IA en un M1 o M2 con 8GB? Sí. Aquí están los mejores modelos y configuraciones para evitar que la memoria de intercambio acabe con tu equipo.

Read Guide arrow_forward
MAC 11 MIN READ

Reemplaza GitHub Copilot: Ollama + Continue.dev

Deja de pagar $10 al mes. Configura Ollama y la extensión Continue.dev en VS Code en tu Mac para obtener autocompletado de IA completamente gratuito y privado.

Read Guide arrow_forward
MAC 8 MIN READ

LM Studio en Mac: La interfaz de IA sin conexión más sencilla

Instala LM Studio en macOS para obtener una interfaz gráfica atractiva que permite descargar y ejecutar modelos GGUF con aceleración Metal.

Read Guide arrow_forward
WINDOWS 6 MIN READ

Ejecuta Ollama de forma nativa en Windows

Ollama ahora se ejecuta de forma nativa en Windows sin necesidad de WSL. Instala, descarga modelos y chatea desde PowerShell en menos de 5 minutos.

Read Guide arrow_forward
WINDOWS 8 MIN READ

Configurar LM Studio en Windows

Aprende cómo instalar y configurar LM Studio en Windows con soporte para GPU NVIDIA/AMD. Ejecuta modelos GGUF localmente con una hermosa interfaz de chat.

Read Guide arrow_forward
MAC 7 MIN READ

IA para Mac en todo el sistema: Conecta Ollama con Raycast

Integra tus LLMs locales directamente en Raycast. Selecciona texto en cualquier lugar de tu Mac y pulsa un atajo de teclado para resumirlo o reescribirlo de forma gratuita.

Read Guide arrow_forward
MAC 14 MIN READ

Llama.cpp en Mac: La Guía para Usuarios Avanzados

Compila y ejecuta llama.cpp desde cero en macOS. Obtén el máximo rendimiento, sin software innecesario y con control total sobre los parámetros de aceleración Metal.

Read Guide arrow_forward
LINUX 7 MIN READ

Ejecuta Ollama en Linux: La Guía Definitiva

Despliega Ollama como un servicio en segundo plano con systemd en Ubuntu/Debian. Configuración completa para NVIDIA CUDA y AMD ROCm.

Read Guide arrow_forward
MAC 10 MIN READ

El Framework MLX de Apple: Velocidad Máxima en IA

Cómo utilizar el framework nativo MLX de Apple para ejecutar Llama 3 y Mistral a velocidades increíbles de forma nativa en Apple Silicon.

Read Guide arrow_forward
WINDOWS 14 MIN READ

Llama.cpp en Windows: La guía de CUDA

Compila llama.cpp desde el código fuente en Windows usando CMake y el kit de herramientas NVIDIA CUDA para obtener la máxima velocidad de generación de tokens.

Read Guide arrow_forward
MAC 12 MIN READ

La Guía Definitiva: Ejecutar Ollama en Mac M3

La clase magistral definitiva para instalar, optimizar y ejecutar Ollama en Apple Silicon. Comprende la Memoria Unificada, la cuantización de modelos y cómo sacar el máximo provecho de tu chip M3.

Read Guide arrow_forward
LINUX 6 MIN READ

Configurar LM Studio en Linux (Ubuntu/Debian)

Instala el AppImage de LM Studio en Linux para obtener una hermosa interfaz gráfica para tus modelos de IA locales.

Read Guide arrow_forward
LINUX 15 MIN READ

Llama 3 local en Linux

Implementa el modelo Llama 3 de Meta localmente en Linux usando llama.cpp con soporte completo de CUDA. Esta guía cubre la compilación, cuantización y ejecución del modelo desde la línea de comandos.

Read Guide arrow_forward
LINUX 12 MIN READ

Servicio de Alto Rendimiento con vLLM en Ubuntu

Para un rendimiento de nivel empresarial, implemente vLLM en Linux para servir modelos con PagedAttention y el máximo rendimiento de tokens.

Read Guide arrow_forward