Ollamaを活用したDeepSeek-R1のローカルLLM構築ガイド

ChatGPT活用ブログ
ChatGPT活用ブログ

DeepSeek-R1をローカルで実行するためのOllamaセットアップ手順

DeepSeek-R1は、ローカル環境での大規模言語モデル(LLM)の実行を可能にする強力なモデルです。Ollamaは、そのセットアップと実行を簡素化するツールとして最適です。以下に、Ollamaを使用してDeepSeek-R1をローカルで実行する手順を説明します。

1. システム要件の確認

  • オペレーティングシステム:macOS、Linux、またはWindows
  • ハードウェア
    • RAM:最低8GB(推奨16GB以上)
    • GPU:NVIDIA GPU(CUDA対応)を推奨。ただし、GPUがない場合でもCPUでの実行は可能ですが、パフォーマンスは低下します。
  • ディスク容量:モデルサイズに応じて10GB以上の空き容量

なお、今回はGPUを搭載していないノートPCでOllamaを実行しました。

2. Ollamaのインストール

Ollamaの公式サイトからアプリケーションをダウンロードしてインストールできます。MacOS、Linux、Windowsに対応しています。

または、ターミナルを開き、以下のコマンドを実行してOllamaをインストールします:

curl -fsSL https://ollama.com/install.sh | sh

インストールが完了したら、バージョンを確認して正しくインストールされたことを確認します:

ollama --version

3. DeepSeek-R1モデルのダウンロード

Ollamaを使用して、必要なDeepSeek-R1モデルをダウンロードします。

Windowsであれば、「ターミナル」で「ollama run deepseek-r1」とコマンドを打つことで、自動的にモデルのインストールが開始されます。

モデルは複数のサイズが提供されており、システムリソースに応じて適切なものを選択してください。

  • 1.5Bモデル(軽量版):ollama run deepseek-r1:1.5b
  • 7Bモデル(中規模版):ollama run deepseek-r1:7b
  • 14Bモデル(大規模版):ollama run deepseek-r1:14b

ダウンロードには時間がかかる場合があります。進行状況はターミナル上で確認できます。

4. モデルの実行

モデルのダウンロードが完了したら、以下のコマンドでOllamaサーバーを起動します:

ollama serve

別のターミナルウィンドウを開き、以下のコマンドでモデルを実行します:

ollama run deepseek-r1:<モデル名>

例えば、7Bモデルを実行する場合:

ollama run deepseek-r1:7b

5. プロンプトの入力

モデルが起動すると、ターミナル上でプロンプトを入力してモデルと対話できます。例えば、「虎とライオンはどっちが強いの?」と入力すると、モデルからの応答が得られます。

思考の過程は英語で表示されました。回答は日本語と英語が混ざっていて、ちぐはぐな回答になっていました。

別なモデル(8B)を試してみると

最初にインストールしたのは7Bのモデル(Qwen)だったのですが、8Bのモデルも試してみました。

ollama run deepseek-r1:8b

同じ質問をしてみたところ、しっかりと日本語で回答してくれました。

日本語に対応したモデルを試してみたら

サイバーエージェントは、中国のAI企業DeepSeekが開発した大規模言語モデル「DeepSeek-R1」の蒸留モデルを基に、日本語データで追加学習を行った「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」を2025年1月27日に公開しました。このモデルは、Hugging Face上でMITライセンスのもと無料で提供されており、日本語での自然言語処理能力を強化しています。

モデルのダウンロードサイズは10GBほどですがインストールしてみました。

ollama run hf.co/bluepen5805/DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:Q5_K_M

なんと、日本語でしっかりと考えてくれたうえで、回答してくれました。

その他の日本語対応モデル

2025年1月29日、Lightblue株式会社は日本語版のDeepseek R1を公開しました。このモデルは日本語での思考が得意なため、日本人ユーザーにとって非常に使いやすい点が大きな魅力です。また、DeepSeek R1の7B Qwen Distilをもとに学習していることで軽量化が実現され、個人のパソコンでもスムーズに動かせるほどのコンパクトさを備えています。さらに、実験ではR1の7B Qwen Distilよりも日本語の数学問題を正確に解くことが確認されており、優れた知能を持ち合わせているようです。

LM StudioでDeepseek R1の日本語モデルを使う方法

LM StudioでDeepseek R1の日本語モデルを使ってローカルLLMを構築する方法もありますので、そちらは以下の記事で解説しています。

<注意事項>

  • リソース管理
    • モデルのサイズが大きいほど、必要なシステムリソースも増加します。システムの性能に応じて適切なモデルを選択してください。
  • GPUの活用
    • GPUを使用することで、モデルの実行速度が大幅に向上します。NVIDIAのCUDA対応GPUをお持ちの場合は、最新のドライバとCUDAツールキットをインストールしてください。
  • モデルの更新
    • DeepSeek-R1モデルは継続的に更新される可能性があります。最新情報や詳細は、公式のドキュメントやコミュニティリソースを参照してください。

参考資料

Ollama公式サイト DeepSeekモデル cyberagent/DeepSeek-R1-Distill-Qwen-32B-Japanese

lightblue/DeepSeek-R1-Distill-Qwen-7B-Japanese

監修者:服部 一馬

フィクスドスター㈱ 代表取締役 / ITコンサルタント / AIビジネス活用アドバイザー

非エンジニアながら、最新のAI技術トレンドに精通し、企業のDX推進やIT活用戦略の策定をサポート。特に経営層や非技術職に向けた「AIのビジネス活用」に関する解説力には定評がある。
「AIはエンジニアだけのものではない。ビジネスにどう活かすかがカギだ」という理念のもと、企業のデジタル変革と競争力強化を支援するプロフェッショナルとして活動中。ビジネスとテクノロジーをつなぐ存在として、最新AI動向の普及と活用支援に力を入れている。

高セキュリティと低コストを実現するローカルLLM

ある日本企業に対する調査では、72%が業務でのChatGPT利用を禁止していると報告されています。社内の機密情報がChatGPTのモデルに学習されて、情報漏洩の可能性を懸念しているためです。

そのため、インターネットに接続されていないオンプレミス環境で自社独自の生成AIを導入する動きが注目されています。ランニングコストを抑えながら、医療、金融、製造業など機密データを扱う企業の課題を解決し、自社独自の生成AIを導入可能です。サービスの詳細は以下をご覧ください。

いますぐサービス概要を見る▶▶▶
タイトルとURLをコピーしました