API依存からの脱却という選択肢
生成AIの業務活用は、いまや「導入するかどうか」ではなく「どう最適化するか」の段階に入りました。ChatGPTやClaude、GeminiといったAPI型モデルは依然として強力ですが、一方で企業現場では次のような声が増えています。
・社外にデータを出せない
・トークン課金が読めない
・エージェント構成にするとコストが跳ねる
・自社専用モデルを持ちたい
こうした背景から再評価されているのが、オープンウェイトLLMです。その中でも注目を集めているのがOpenAIのGPT-OSSシリーズ、120Bと20Bの2モデルです。本記事では、企業のIT担当者が意思決定するために必要な視点から、この2モデルを性能・コスト・インフラ・用途の観点で徹底比較します。
GPT-OSSとは何か

GPT-OSSは、ChatGPTでおなじみのOpenAIからリリースされたオープンLLMです。オープンLLMはAPI提供型とは違い、自社環境で動かすことができます。最大の特徴は「モデルを自社で保持できる」ことと言えるでしょう。生成AIモデルを自社で保有できるようになると以下のことが可能になります。
・機密データを外に出さない
・トークン従量課金からの脱却
・RAGやエージェントを自由に設計できる
・業務特化チューニングが可能
もちろん、API型のように「すぐに使える」わけではありません。GPU環境、推論最適化、量子化設計など、IT部門の技術力が問われます。しかし、一定規模以上の企業にとっては、長期的なTCOを考えたときに現実的な選択肢になりつつあります。
GPT-OSS-120Bの特徴

さて、OpenAIからリリースされたGPT-OSSには120Bと20Bの2種類があります。まず120Bですが、パラメータ規模が約1200億クラス。複雑な推論、多段階思考、構造化出力に強みがあります。そして、とくに以下の用途で真価を発揮します。
・エージェント型業務自動化
・契約書レビューの高度分析
・設計書や技術文書の精密要約
・データ横断型RAG
単純なQA用途では過剰スペックになる場合もありますが、「業務を任せる」設計では優位性があります。
GPT-OSS-120B運用のために必要なインフラ
FP16で動かす場合、理論上約240GB以上のVRAMが必要です。実務では以下の構成が一般的です。
・A100 80GB × 4枚
・H100 × 複数枚
量子化(4bit)を行えば、約120GB前後まで削減可能ですが、それでもハイエンドGPU構成になります。
GPT-OSS-120Bを導入する際、初期投資の金額は?
多くの人が気になるのは、GPT-OSS-120Bを導入する場合に必要なコストでしょう。GPU価格を踏まえた概算ですと、以下のような参考価格になります。
- サーバー初期投資:1,500万〜4,000万円
- 年間電力・保守費:数百万円規模
けっして安い金額ではありません。戦略投資レベルの導入になります。
GPT-OSS-120B導入に向いている企業
- 全社AIエージェント基盤を構築したい
- API課金が年間数千万円規模
- セキュアな閉域網で高度分析を行う
GPT-OSS-20Bの特徴

一方、GPT-OSS-20Bは約200億パラメータ規模と120Bと比較するとかなりライトなオープンLLMです。当然120Bほどの深い推論は得意ではありませんが、業務用途では十分な性能を発揮するため、「まずはこれで十分」というケースも少なくありません。とくに適しているのは、以下の業務へのAI導入を考えている場合です。
- 社内FAQボット
- 議事録要約
- 社内文書生成
- 部門単位のRAG
GPT-OSS-20B運用のために必要なインフラ
GPT-OSS-20Bは、FP16なら約40GB前後。量子化すれば20GB前後まで圧縮可能です。構成例は以下のとおりで小規模オンプレや部門単位導入に適しています。
- L40S 1枚
- RTX 6000 Ada 1枚
- 高性能ワークステーションでも可
GPT-OSS-20Bを導入する際、初期投資の金額は?
- サーバー初期投資:150万〜500万円
- 電力・保守費:比較的低い
PoCやスモールスタートに現実的です。
企業GPT-OSS-120B導入に向いている企業
- まずは社内限定LLMを作りたい
- API依存から一部脱却したい
- 予算を抑えたい

120B vs 20B 比較表
| 項目 | GPT-OSS-120B | GPT-OSS-20B |
|---|---|---|
| パラメータ規模 | 約120B | 約20B |
| 推論能力 | 非常に高い | 実務十分 |
| 主用途 | エージェント基盤 | 社内LLM |
| 推奨GPU | A100/H100複数 | L40S/RTX6000 1枚 |
| VRAM要件(FP16) | 約240GB | 約40GB |
| 量子化時VRAM | 約120GB | 約20GB |
| 初期投資目安 | 1,500万〜4,000万円 | 150万〜500万円 |
| 運用難易度 | 高 | 中 |
| おすすめ企業 | 大規模・戦略投資型 | スモールスタート型 |
ケース別診断:あなたの企業に適しているのはどっち?
全社エージェント基盤を作るなら120Bです。高度推論が必要な業務自動化では性能差が効いてきます。一方、社内FAQや文書検索中心なら20Bで十分です。
閉域網での高度分析は、予算が許せば120B。ただし運用体制が前提になります。部門単位のPoCなら20Bが現実解です。
GPT-OSS-120B、20Bの比較:まとめ

120Bは戦略モデルであり、20Bは実務モデルです。そのため、多くの企業ではまず20Bで始め、必要に応じて120Bへ拡張する二段構えが合理的です。
オープンLLMは「APIの代替」ではなく「自社AI基盤」という発想で捉えるべき段階に入っています。2026年のAI投資は性能競争ではなく、設計力の勝負になるでしょう。


