DeepSeek-R1をローカルで実行するためのOllamaセットアップ手順
DeepSeek-R1は、ローカル環境での大規模言語モデル(LLM)の実行を可能にする強力なモデルです。Ollamaは、そのセットアップと実行を簡素化するツールとして最適です。以下に、Ollamaを使用してDeepSeek-R1をローカルで実行する手順を説明します。
1. システム要件の確認
- オペレーティングシステム:macOS、Linux、またはWindows
- ハードウェア:
- RAM:最低8GB(推奨16GB以上)
- GPU:NVIDIA GPU(CUDA対応)を推奨。ただし、GPUがない場合でもCPUでの実行は可能ですが、パフォーマンスは低下します。
- ディスク容量:モデルサイズに応じて10GB以上の空き容量
なお、今回はGPUを搭載していないノートPCでOllamaを実行しました。
2. Ollamaのインストール
Ollamaの公式サイトからアプリケーションをダウンロードしてインストールできます。MacOS、Linux、Windowsに対応しています。
または、ターミナルを開き、以下のコマンドを実行してOllamaをインストールします:
curl -fsSL https://ollama.com/install.sh | sh
インストールが完了したら、バージョンを確認して正しくインストールされたことを確認します:
ollama --version
3. DeepSeek-R1モデルのダウンロード
Ollamaを使用して、必要なDeepSeek-R1モデルをダウンロードします。
Windowsであれば、「ターミナル」で「ollama run deepseek-r1」とコマンドを打つことで、自動的にモデルのインストールが開始されます。
モデルは複数のサイズが提供されており、システムリソースに応じて適切なものを選択してください。
- 1.5Bモデル(軽量版):
ollama run deepseek-r1:1.5b
- 7Bモデル(中規模版):
ollama run deepseek-r1:7b
- 14Bモデル(大規模版):
ollama run deepseek-r1:14b
ダウンロードには時間がかかる場合があります。進行状況はターミナル上で確認できます。
4. モデルの実行
モデルのダウンロードが完了したら、以下のコマンドでOllamaサーバーを起動します:
ollama serve
別のターミナルウィンドウを開き、以下のコマンドでモデルを実行します:
ollama run deepseek-r1:<モデル名>
例えば、7Bモデルを実行する場合:
ollama run deepseek-r1:7b
5. プロンプトの入力
モデルが起動すると、ターミナル上でプロンプトを入力してモデルと対話できます。例えば、「虎とライオンはどっちが強いの?」と入力すると、モデルからの応答が得られます。
思考の過程は英語で表示されました。回答は日本語と英語が混ざっていて、ちぐはぐな回答になっていました。
別なモデル(8B)を試してみると
最初にインストールしたのは7Bのモデル(Qwen)だったのですが、8Bのモデルも試してみました。
ollama run deepseek-r1:8b
同じ質問をしてみたところ、しっかりと日本語で回答してくれました。
日本語に対応したモデルを試してみたら
サイバーエージェントは、中国のAI企業DeepSeekが開発した大規模言語モデル「DeepSeek-R1」の蒸留モデルを基に、日本語データで追加学習を行った「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」を2025年1月27日に公開しました。このモデルは、Hugging Face上でMITライセンスのもと無料で提供されており、日本語での自然言語処理能力を強化しています。
モデルのダウンロードサイズは10GBほどですがインストールしてみました。
ollama run hf.co/bluepen5805/DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:Q5_K_M
なんと、日本語でしっかりと考えてくれたうえで、回答してくれました。
その他の日本語対応モデル
2025年1月29日、Lightblue株式会社は日本語版のDeepseek R1を公開しました。このモデルは日本語での思考が得意なため、日本人ユーザーにとって非常に使いやすい点が大きな魅力です。また、DeepSeek R1の7B Qwen Distilをもとに学習していることで軽量化が実現され、個人のパソコンでもスムーズに動かせるほどのコンパクトさを備えています。さらに、実験ではR1の7B Qwen Distilよりも日本語の数学問題を正確に解くことが確認されており、優れた知能を持ち合わせているようです。
LM StudioでDeepseek R1の日本語モデルを使う方法
LM StudioでDeepseek R1の日本語モデルを使ってローカルLLMを構築する方法もありますので、そちらは以下の記事で解説しています。
<注意事項>
- リソース管理:
- モデルのサイズが大きいほど、必要なシステムリソースも増加します。システムの性能に応じて適切なモデルを選択してください。
- GPUの活用:
- GPUを使用することで、モデルの実行速度が大幅に向上します。NVIDIAのCUDA対応GPUをお持ちの場合は、最新のドライバとCUDAツールキットをインストールしてください。
- モデルの更新:
- DeepSeek-R1モデルは継続的に更新される可能性があります。最新情報や詳細は、公式のドキュメントやコミュニティリソースを参照してください。
参考資料
Ollama公式サイト DeepSeekモデル cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese