生成AIの「次の現場」はクラウド上の巨大モデルではなく、手元のPCやエッジ端末で動く“小型LLM”に移りつつあります。AlibabaのQwen Teamが公開した「Qwen3.5 Small(0.8B/2B/4B/9B)」は、その潮流を決定づけるリリースです。特にQwen3.5-9Bは、パラメータ数で13倍以上大きいOpenAIのオープンウェイトモデルgpt-oss-120Bを第三者ベンチマークで上回る結果を示し、「より少ない計算資源で、より多くの知性」を現実の選択肢にしました。本稿では、B2Bの観点からラインナップ、技術、性能、ライセンス、活用領域、導入時の注意点を整理します。
Qwen3.5 Small(0.8B/2B/4B/9B)とは:ラインナップと狙い

Qwen3.5 Smallは、汎用LLMを“ローカル推論前提”で実用化するための小型モデル群です。従来は「小型=簡易チャット用途」という印象が強かった一方、本シリーズは推論・マルチモーダル・長文コンテキストを小さな器に詰め込み、業務アプリに組み込みやすい設計思想が見えます。
ラインナップの位置づけ
- Qwen3.5-0.8B / 2B:高速・省電力を重視した“tiny & fast”。プロトタイピングやエッジ端末(バッテリー制約の強い環境)を想定。
- Qwen3.5-4B:軽量エージェント向けの強力なマルチモーダル基盤。ネイティブで最大262,144トークン級の長文コンテキストに対応。
- Qwen3.5-9B:コンパクトな推論モデルとして、知識・推論・マルチモーダルの総合性能を狙う“主力”。標準的なノートPCや単体GPUでの運用可能性が話題。
狙いは明確で、クラウドAPI依存を減らし、遅延・コスト・データ持ち出しリスクを抑えつつ、マルチステップの業務自動化(エージェント)に必要な「考える・見る・動く」を端末側に分散することです。
技術的特徴:ハイブリッド効率化(Gated Delta+疎MoE)とネイティブマルチモーダル

Qwen3.5 Smallの要は、標準的Transformer一辺倒ではない「効率のための設計」です。小型モデルが直面しがちな“メモリの壁(memory wall)”や推論時レイテンシを、アーキテクチャ面から抑えにいっています。
Efficient Hybrid Architecture:Gated Delta Networks+疎MoE
Alibabaは、線形注意(linear attention)系のGated Delta Networksと、必要な部分だけ活性化する疎Mixture-of-Experts(MoE)を組み合わせたハイブリッド構成を採用しています。これにより、推論時のスループット向上とレイテンシ低減を狙います。B2Bの現場では、同じ精度でも「応答が速い」「同一GPUで同時処理数を稼げる」ことがROIに直結します。
ネイティブマルチモーダル:後付けではなく“早期融合”
4B/9Bはテキストモデルに視覚エンコーダを後付けするのではなく、マルチモーダルトークンを早期融合(early fusion)して学習した“ネイティブ”設計とされています。結果として、UI上の要素読取り、画像内テキストやレイアウト理解、動画内の物体カウントといった業務的タスクが、小型でも成立しやすくなります。これは「OCR+レイアウト解析+ルールベース」など分断されたパイプラインを、よりシンプルな構成へ寄せる可能性を意味します。
ベンチマークで見る性能:9Bがgpt-oss-120B級を超える理由

注目は「小さいのに強い」がスローガンではなく、第三者ベンチマークで具体的に示されている点です。Qwen3.5-9Bは、マルチモーダル推論、大学院レベル推論、動画理解、数学、文書理解、多言語知識など複数軸で高い数値を出しています。
- 視覚推論(MMMU-Pro):Qwen3.5-9Bが70.1。Gemini 2.5 Flash-Lite(59.7)や、より大きい専門モデルQwen3-VL-30B-A3B(63.0)を上回る。
- 高度推論(GPQA Diamond):Qwen3.5-9Bが81.7で、gpt-oss-120B(80.1)を超過。
- 動画理解(Video-MME 字幕あり):9Bが84.5、4Bが83.5。Gemini 2.5 Flash-Lite(74.6)を大きくリード。
- 数学(HMMT Feb 2025):9Bが83.2、4Bが74.0。STEM推論が“大規模前提”ではなくなりつつあることを示唆。
- 文書理解(OmniDocBench v1.5):9Bが87.7でトップ級。
- 多言語知識(MMMLU):9Bが81.2で、gpt-oss-120B(78.2)を上回る。
なぜ9Bでここまで伸びるのかのポイント
単なる圧縮ではなく「推論効率の高い構造」「必要部分だけ動かす疎性」「マルチモーダルを前提にした学習」「エージェント時代の強化学習的スケール(多数環境でのRL)」といった、学習・構造の両輪で“実効性能”を引き上げている点が大きなポイントです。とくにB2Bでは、パラメータ数よりも「特定業務の正答率」「検証可能性」「運用コスト」が勝負です。
Apache 2.0で商用利用しやすい:配布先・カスタム(Base/Instruct)・ロックイン回避

企業導入で最初に確認すべきは、性能よりもライセンスと配布形態です。Qwen3.5 Smallは重みがApache 2.0で提供され、商用利用・改変・再配布がしやすい“許諾の広い”条件になっています。これは、特定ベンダーAPIへのロックイン(価格改定、利用制限、提供停止、リージョン制約)を避けたい企業にとって大きな意味があります。
配布先と運用の現実性
- 配布:Hugging Face、ModelScopeで重みと設定ファイルが入手可能。
- ローカル実行:標準的なノートPCや単体GPU、場合によってはブラウザ内推論など、配布形態の広さが話題。
BaseとInstructを揃える価値
本シリーズはBaseモデルとInstructモデルが提供されます。Instructは即戦力ですが、企業用途では「自社の会話調」「不要な拒否」「特定ドメインでの言い回し」などが障害になることがあります。Baseは“白紙に近い出発点”として、SFTやRLHF、あるいは軽量な指示追従調整を自社データで行いやすく、産業用途の最適化に向きます。
企業での活用領域:UI自動化、文書解析、ローカル開発支援、エッジ動画分析

Qwen3.5 Smallが刺さるのは、「クラウドに投げたくない/投げられない」データを扱う業務と、「低遅延で回したい」反復処理です。特にマルチモーダルがネイティブな点は、現場の画面・帳票・動画という“非構造データ”を扱う部門に効きます。
代表的ユースケース
- UI自動化(Visual Workflow Automation):画面上の要素理解を前提に、フォーム入力、ファイル整理、設定変更などを自然言語で指示。RPAの保守負荷(画面変更で壊れる)を、視覚的なグラウンディングで緩和する発想。
- 文書解析(Complex Document Parsing):請求書・申込書・報告書・図表を含むPDFなどから、項目抽出・表の構造化・要約を一体で実施。OCR+レイアウト解析+後段ルールの多段構成を簡素化できる可能性。
- ローカル開発支援(Autonomous Coding/Refactoring):社内コードを外部に出さずに、リポジトリ横断のリファクタやコード生成を支援。長文コンテキスト対応は、複数ファイルを跨ぐ理解に効く。
- エッジ動画分析(Real-Time Edge Analysis):店舗・工場・車載など、帯域やプライバシー制約が強い現場で、短尺動画の要約、異常兆候の説明、状況把握を端末側で実行。0.8B/2Bは省電力を重視した設計で、常時稼働の端末に向く。
重要なのは、これらを「単発のチャット」ではなく、ツール実行や検証を組み合わせた“業務フローの部品”として組み込むことです。小型モデルは回転数を上げやすく、エージェント的ループ(観測→推論→実行→再観測)を低コストで回せます。

導入時の注意点:幻覚カスケード、デバッグ適性、VRAM要件、規制・データレジデンシー
小型LLMが実務に入るほど、失敗の仕方が“地味に危険”になります。導入時は性能指標だけでなく、運用上のリスク設計が不可欠です。
幻覚カスケード(Hallucination Cascade)
エージェント運用では、初手の誤認(画面要素の取り違え、文書の読み間違い、前提の誤解)が後工程に連鎖し、もっともらしい誤作業を積み重ねることがあります。対策として、各ステップに検証(ルール、正規表現、二重実行、差分比較、権限分離)を挟み、「検証可能なタスク」を優先して自動化範囲を広げるのが現実的です。
デバッグ適性:新規開発は得意でも、既存改修は難所
小型モデルはグリーンフィールドのコード生成では強く見えますが、複雑な既存システムのデバッグや局所改修では、前提把握の抜けや推測が混ざりやすい傾向があります。テストの自動生成、静的解析、リント、型チェックなど“機械的に落とせる網”を先に整備すると、実用域に入りやすくなります。
VRAM要件とスループット設計
「9Bは小型」とはいえ、推論を高スループットで回すには相応のVRAMが必要です。量子化で下げられる一方、長文コンテキストやマルチモーダル入力、同時リクエスト数を増やすとメモリ圧は上がります。PoCでは単発応答の可否だけでなく、同時接続・ピーク時レイテンシ・バッチ戦略まで含めて見積もるべきです。
規制・データレジデンシー
中国発のモデルという出自により、社内規程や取引先要件で懸念が出るケースがあります。ただしApache 2.0のオープンウェイトであれば、推論・学習を自社環境(オンプレ、ソブリンクラウド、閉域GPU基盤)に閉じて運用できます。重要なのは「どこで重みを取得し、どこで実行し、ログをどこに保存し、誰がアクセスできるか」を監査可能にすることです。
Qwen3.5-9Bが示す“小型LLM”革命:まとめ

Qwen3.5 Smallは、「小型=妥協」という常識を崩し、ローカル推論で推論・マルチモーダル・長文処理を現実の業務に持ち込むための具体解を提示しました。Apache 2.0で重みが配布され、Base/Instructが揃うことで、企業はロックインを避けながら自社最適化を進められます。一方で、幻覚カスケードやデバッグ耐性、VRAM、規制対応といった運用課題は残ります。
まずは検証可能な業務(文書抽出、UI操作の限定フロー、ローカル開発支援、エッジ動画要約など)から段階的に適用し、“小型LLM革命”をコストと統制の両面で自社の競争力に変えていくことが重要です。


