LM Studioは、ローカル環境で大規模言語モデル(LLM)を簡単に探索、ダウンロード、実行できるオープンソースのソフトウェアです。この記事では、LM Studioを使用してDeepSeek R1をローカル環境で構築する手順を説明します。
LM StudioでローカルLLMを構築

LM Studioは、ローカル環境で大規模言語モデル(LLM)を簡単に探索、ダウンロード、実行できるオープンソースのソフトウェアです。
ユーザーフレンドリーなグラフィカルユーザーインターフェース(GUI)を備えており、プログラミングの知識がなくても直感的に操作できます。
LM Studioははオフラインでも使える
LM Studioの主な特徴として、オフラインでの利用が可能であり、データのプライバシーを保護しながらAIモデルを活用できる点が挙げられます。
また、Hugging Faceなどから提供される多様なオープンソースのAIモデルをサポートしており、とくに日本語対応のモデルも利用可能です。
DeepSeek R1をローカル環境で構築する手順

①LM Studioのインストール
公式サイトから、使用しているオペレーティングシステム(Windows、macOS、Linux)に対応したインストーラーをダウンロードします。
ダウンロードしたインストーラーを実行し、画面の指示に従ってインストールを完了させます。
②DeepSeek R1モデルのダウンロード

LM Studioを起動し、左側の「探索」アイコン(虫眼鏡のマーク)をクリックします。
検索バーに「DeepSeek R1 Japanese」と入力し、エンターキーを押します。
検索結果から「cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf」などのモデルを選択します。約6.6GBのファイルです。
選択したモデルの詳細画面で、「Download」ボタンをクリックし、ダウンロードを開始します。

GGUFとは?
GGUF(GPT生成統合フォーマット、GPT Generation Unified Format)は、大規模言語モデル(LLM)の保存と読み込みを効率化するために設計されたバイナリファイル形式です。
従来のGGML形式の後継として開発され、拡張性と柔軟性が向上しています。
③モデルのロード

ダウンロードが完了したら、左側の「チャット」アイコン(吹き出しのマーク)をクリックします。
画面上部の「Select a model to load」から、先ほどダウンロードしたDeepSeek R1モデルを選択します。
モデルがロードされると、チャットインターフェースが利用可能になります。
④モデルの実行
チャット画面の下部にある入力フォームに質問や指示を入力し、エンターキーを押すと、モデルからの応答が表示されます。
日本語での質問にも対応しており、さまざまなトピックについて会話が可能です。質問を入れると、しばらく考えてから答えてくれます。

以下のように、思考過程は日本語で表示されています。

以上の手順で、LM Studioを使用してローカル環境でDeepSeek R1を構築し、利用することができます。
この方法により、インターネット接続がない環境でもAIモデルを活用でき、データのプライバシーを保護しながら自然言語処理を行うことが可能です。
DeepSeekの政治的なバイアスについて
政治的な意見がわかれる質問をしてみたところ、Web版のDeepSeekとは違って、日本語で追加学習されたモデルは多面的に質問を分析して考えてくれます。

(思考時間が長いのはGPUを積んでいないノートPCでローカルLLMを動かしているからです)
サーバーとしての機能もある
さらに、LM Studioは言語モデルをサーバーとして利用する機能も備えており、他のアプリケーションからAPI経由でアクセスすることも可能です。
LM StudioでDeepSeekをローカル環境で動かす:まとめ

この記事では、LM Studioのインストール方法からDeepSeek R1モデルのダウンロード・ロード手順までを解説し、チャット形式での利用方法を紹介しました。
LM Studioを使用してDeepSeekをローカル環境で動かす際には、是非参考にしてください。
参考)公式サイト(lmstudio.ai)