Home chevron_right Mac
MACOS GUIDES

Local AI for
Mac.

Apple Silicon makes your Mac one of the best local AI machines available. Pick your engine below and follow a step-by-step guide.

All Mac Tutorials

MAC 9 MIN READ

ローカルAIのための8GB Mac サバイバルガイド

8GBのM1またはM2でAIを動かせるのか?答えはイエス。スワップメモリの地獄を避けるための最適なモデルと設定を紹介します。

Read Guide arrow_forward
MAC 11 MIN READ

GitHub Copilotを置き換える:Ollama + Continue.dev

月額10ドルの支払いをやめましょう。MacのVS CodeにOllamaとContinue.dev拡張機能をセットアップして、完全無料でプライベートなAI自動補完を実現しましょう。

Read Guide arrow_forward
MAC 8 MIN READ

Mac上のLM Studio:最も簡単なオフラインAIインターフェース

macOSにLM Studioをインストールして、Metalアクセラレーションを活用しながらGGUFモデルのダウンロードと実行ができる美しいGUIを手に入れましょう。

Read Guide arrow_forward
MAC 7 MIN READ

システム全体のMac AI:OllamaをRaycastに接続する

ローカルLLMをRaycastに直接統合しましょう。Mac上のどこでもテキストをハイライトしてホットキーを押すだけで、無料で要約や書き換えができます。

Read Guide arrow_forward
MAC 14 MIN READ

Mac向けLlama.cppパワーユーザーガイド

macOSでllama.cppをゼロからコンパイルして実行する方法を解説します。最大限のパフォーマンスを引き出し、無駄を排除し、Metalアクセラレーションのパラメータを完全に制御しましょう。

Read Guide arrow_forward
MAC 10 MIN READ

AppleのMLXフレームワーク:最大のAIスピード

AppleのネイティブMLXフレームワークを使用して、Apple Silicon上でLlama 3とMistralを驚異的な速度でネイティブ実行する方法。

Read Guide arrow_forward
MAC 12 MIN READ

完全ガイド:Mac M3でOllamaを実行する方法

Apple SiliconへのOllamaのインストール、最適化、および実行に関する決定版マスタークラス。ユニファイドメモリ、モデルの量子化、そしてM3チップを最大限に活用する方法を理解しましょう。

Read Guide arrow_forward