Step 1 · Pick Your Tool
START HERE: Choose Your Engine
The best ways to run AI locally on Mac.
All Mac Tutorials
MAC
9 MIN READ
ローカルAIのための8GB Mac サバイバルガイド
8GBのM1またはM2でAIを動かせるのか?答えはイエス。スワップメモリの地獄を避けるための最適なモデルと設定を紹介します。
Read Guide arrow_forward
MAC
11 MIN READ
GitHub Copilotを置き換える:Ollama + Continue.dev
月額10ドルの支払いをやめましょう。MacのVS CodeにOllamaとContinue.dev拡張機能をセットアップして、完全無料でプライベートなAI自動補完を実現しましょう。
Read Guide arrow_forward
MAC
8 MIN READ
Mac上のLM Studio:最も簡単なオフラインAIインターフェース
macOSにLM Studioをインストールして、Metalアクセラレーションを活用しながらGGUFモデルのダウンロードと実行ができる美しいGUIを手に入れましょう。
Read Guide arrow_forward
MAC
7 MIN READ
システム全体のMac AI:OllamaをRaycastに接続する
ローカルLLMをRaycastに直接統合しましょう。Mac上のどこでもテキストをハイライトしてホットキーを押すだけで、無料で要約や書き換えができます。
Read Guide arrow_forward
MAC
14 MIN READ
Mac向けLlama.cppパワーユーザーガイド
macOSでllama.cppをゼロからコンパイルして実行する方法を解説します。最大限のパフォーマンスを引き出し、無駄を排除し、Metalアクセラレーションのパラメータを完全に制御しましょう。
Read Guide arrow_forward
MAC
10 MIN READ
AppleのMLXフレームワーク:最大のAIスピード
AppleのネイティブMLXフレームワークを使用して、Apple Silicon上でLlama 3とMistralを驚異的な速度でネイティブ実行する方法。
Read Guide arrow_forward
MAC
12 MIN READ
完全ガイド:Mac M3でOllamaを実行する方法
Apple SiliconへのOllamaのインストール、最適化、および実行に関する決定版マスタークラス。ユニファイドメモリ、モデルの量子化、そしてM3チップを最大限に活用する方法を理解しましょう。
Read Guide arrow_forward