Ollama をローカル Mac で動かす手順

2 min
ollamallm

ステップ 1: Ollama をインストールする

ollama.com/download にアクセスして「Download for macOS」をクリック。

ダウンロードされた Ollama-darwin.zip を解凍して、Ollama.app をアプリケーションフォルダに入れる。

Ollama.app を起動する。

ステップ 2: モデルをダウンロードする

ターミナルを開いて以下を実行する。

ollama pull gemma3:4b

だいたい 3GB くらいのダウンロードが走るので、しばらく待つ。

なぜ gemma3:4b? Gemini 2.0 と同じ 262K vocab のトークナイザーを使っていて、日本語のトークン効率が従来モデルから改善されている。4B パラメータなのでメモリ 8GB の Mac でも問題なく動く。

ステップ 3: 動作確認(チャットしてみる)

ollama run gemma3:4b

プロンプトが出たら適当に話しかけてみる。

>>> 今日の天気を俳句にして

日本語で返ってくれば OK。終わるときは /bye で抜ける。

ステップ 4: API で呼べることを確認する

別のターミナルタブで以下を叩く。

curl http://localhost:11434/api/generate \
  -d '{"model":"gemma3:4b","prompt":"東京タワーの高さは?","stream":false}'

JSON の "response" に回答が入っていれば成功。