DeepSeek-R1は、ローカル環境での大規模言語モデル(LLM)の実行を可能にする強力なモデルです。Ollamaは、そのセットアップと実行を簡素化するツールとして最適です。この記事では、Ollamaを使用してDeepSeek-R1をローカルで実行する手順を説明します。
DeepSeek-R1をローカルで実行するためのOllamaセットアップ手順

1. システム要件の確認
- オペレーティングシステム:macOS、Linux、またはWindows
- ハードウェア:
- RAM:最低8GB(推奨16GB以上)
- GPU:NVIDIA GPU(CUDA対応)を推奨。ただし、GPUがない場合でもCPUでの実行は可能ですが、パフォーマンスは低下します。
- ディスク容量:モデルサイズに応じて10GB以上の空き容量
なお、今回はGPUを搭載していないノートPCでOllamaを実行しました。
2. Ollamaのインストール
Ollamaの公式サイトからアプリケーションをダウンロードしてインストールできます。MacOS、Linux、Windowsに対応しています。

または、ターミナルを開き、以下のコマンドを実行してOllamaをインストールします:
curl -fsSL https://ollama.com/install.sh | sh
インストールが完了したら、バージョンを確認して正しくインストールされたことを確認します:
ollama --version
3. DeepSeek-R1モデルのダウンロード
Ollamaを使用して、必要なDeepSeek-R1モデルをダウンロードします。
Windowsであれば、「ターミナル」で「ollama run deepseek-r1」とコマンドを打つことで、自動的にモデルのインストールが開始されます。

モデルは複数のサイズが提供されており、システムリソースに応じて適切なものを選択してください。
- 1.5Bモデル(軽量版):
ollama run deepseek-r1:1.5b
- 7Bモデル(中規模版):
ollama run deepseek-r1:7b
- 14Bモデル(大規模版):
ollama run deepseek-r1:14b
ダウンロードには時間がかかる場合があります。進行状況はターミナル上で確認できます。
4. モデルの実行
モデルのダウンロードが完了したら、以下のコマンドでOllamaサーバーを起動します:
ollama serve
別のターミナルウィンドウを開き、以下のコマンドでモデルを実行します:
ollama run deepseek-r1:<モデル名>
例えば、7Bモデルを実行する場合:
ollama run deepseek-r1:7b
5. プロンプトの入力

モデルが起動すると、ターミナル上でプロンプトを入力してモデルと対話できます。たとえば、「虎とライオンはどっちが強いの?」と入力すると、モデルからの応答が得られます。
思考の過程は英語で表示されました。回答は日本語と英語が混ざっていて、ちぐはぐな回答になっていました。
別なモデル(8B)を試してみると
最初にインストールしたのは7Bのモデル(Qwen)だったのですが、8Bのモデルも試してみました。
ollama run deepseek-r1:8b
同じ質問をしてみたところ、しっかりと日本語で回答してくれました。

日本語に対応したモデルを試してみたら
サイバーエージェントは、中国のAI企業DeepSeekが開発した大規模言語モデル「DeepSeek-R1」の蒸留モデルを基に、日本語データで追加学習を行った「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」を2025年1月27日に公開しました。
このモデルは、Hugging Face上でMITライセンスのもと無料で提供されており、日本語での自然言語処理能力を強化しています。モデルのダウンロードサイズは10GBほどですが、インストールしてみました。
ollama run hf.co/bluepen5805/DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:Q5_K_M
なんと、日本語でしっかりと考えてくれたうえで、回答してくれました。


その他の日本語対応モデル
2025年1月29日、Lightblue株式会社は日本語版のDeepseek R1を公開しました。このモデルは日本語での思考が得意なため、日本人ユーザーにとって非常に使いやすい点が大きな魅力です。
また、DeepSeek R1の7B Qwen Distilをもとに学習していることで軽量化が実現され、個人のパソコンでもスムーズに動かせるほどのコンパクトさを備えています。
さらに、実験ではR1の7B Qwen Distilよりも日本語の数学問題を正確に解くことが確認されており、優れた知能を持ち合わせているようです。
LM StudioでDeepseek R1の日本語モデルを使う方法

LM StudioでDeepseek R1の日本語モデルを使ってローカルLLMを構築する方法もありますので、そちらは以下の記事で解説しています。
注意事項
- リソース管理:
- モデルのサイズが大きいほど、必要なシステムリソースも増加します。システムの性能に応じて適切なモデルを選択してください。
- GPUの活用:
- GPUを使用することで、モデルの実行速度が大幅に向上します。NVIDIAのCUDA対応GPUをお持ちの場合は、最新のドライバとCUDAツールキットをインストールしてください。
- モデルの更新:
- DeepSeek-R1モデルは継続的に更新される可能性があります。最新情報や詳細は、公式のドキュメントやコミュニティリソースを参照してください。
DeepSeek-R1のローカルLLM構築ガイド:まとめ

この記事では、Ollamaを活用してDeepSeek-R1をローカル環境で実行する手順を紹介しました。macOS、Linux、Windowsで動作可能なうえ、モデルサイズやGPUの有無に合わせて柔軟に構成できる点が特徴です。
さらに、日本語への追加学習モデルも充実しており、高精度な自然言語処理をプライベート環境で実現できます。オフライン利用によるデータ保護や、軽量なモデルを選んで個人PCでも動かせる利便性も大きな魅力です。今後はモデルやOllama本体の更新を追いかけながら、LM Studioなどとの使い分けも検討し、最適なローカルLLM構築を目指してみてください。
参考資料
Ollama公式サイト DeepSeekモデル cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese
lightblue/DeepSeek-R1-Distill-Qwen-7B-Japanese