スマホでAIがローカルで動く時代へ!Gemma 3nのプレビュー版をGoogle AI Edge Galleryで試す方法

AI活用ブログ
AI活用ブログ

AI技術は日進月歩で進化し続け、その活用領域はクラウドサーバーから私たちが日常的に使うスマートフォンやタブレットへと急速に広がっています。この流れを加速させるべく、Googleは画期的な「オンデバイスAI」モデル「Gemma 3n」の早期プレビュー版を発表しました。この新技術は、インターネット接続なしでもデバイス上で高性能なAIを動作させる未来を切り開くものです。

この記事ではGemma 3nの紹介、ならびにプレビュー版をGoogle AI Edge Galleryで試す方法を詳しく解説します。

この記事の内容は上記のGPTマスター放送室でわかりやすく音声で解説しています。


最近「社外に出せないデータで生成AIを使いたい」という相談をよく聞きます。ChatGPTの利用は社内で禁止されているそうです。セキュリティやコスト面が気になる企業には、社内のローカル環境で動かせる仕組みがあることはご存知ですか?

モバイルファースト設計と革新的な技術

次世代のオンデバイスAIを支えるため、Gemma 3nはQualcomm Technologies、MediaTek、SamsungのSystem LSIビジネスといったモバイルハードウェアリーダーとの緊密な連携のもと、新しい最先端アーキテクチャで設計されました。この基盤は、高速なマルチモーダルAIに最適化されており、デバイス上で真にパーソナルでプライベートな体験を可能にします。

PLE技術の実力とは

Gemma 3nの最も注目すべき革新の一つは、Google DeepMindが開発した「Per-Layer Embeddings (PLE)」技術です。この画期的な技術により、RAM使用量が劇的に削減されました。

Gemma 3nには5Bと8Bの2種類のパラメータモデルがありますが、PLEのおかげで以下の容量で動作が可能です。

  • 5Bモデルは一般的な2Bモデルと同等のメモリ使用量(約2GB)
  • 8Bモデルは一般的な4Bモデルと同等のメモリ使用量(約3GB)

これはスマートフォンなどの限られたリソースでも高性能AIが実行可能になることを意味します。

Gemma 3nの機能について

Gemma 3nの主要な機能を紹介しましょう。

1.オンデバイスパフォーマンスと効率の最適化

モバイル上での応答開始速度がGemma 3 4Bと比較して約1.5倍高速化され、品質も大幅に向上しています。これはPer Layer Embeddings、KVC sharing、および高度な活性化量子化などの革新技術によって実現されました。

2.Many-in-1の柔軟性

4Bのアクティブメモリフットプリントを持つモデル内に、最先端の2Bアクティブメモリフットプリントを持つサブモデルがネイティブに含まれています。これにより、別々のモデルをホストすることなく、パフォーマンスと品質を動的にトレードオフする柔軟性が得られます。

さらに、特定のユースケースに最適なサブモデルを4Bモデルから動的に作成するmix’n’match機能も導入されています。

3.プライバシーファースト&オフライン対応

ローカルでの実行により、ユーザーのプライバシーを尊重し、インターネット接続がなくても信頼できる機能が可能になります。

4。音声を含むマルチモーダル理解の拡張

Gemma 3nは音声、テキスト、画像を理解・処理でき、ビデオ理解も大幅に強化されています。音声機能により、高品質な自動音声認識(書き起こし)や翻訳(音声から翻訳されたテキストへ)を実行できます。

さらに、モダリティをまたいだインターリーブ入力を受け付けるため、複雑なマルチモーダルインタラクションの理解が可能です(公開実装は近日予定)。

5.多言語機能の向上

とくに日本語、ドイツ語、韓国語、スペイン語、フランス語で多言語パフォーマンスが向上しています。WMT24++ (ChrF)のような多言語ベンチマークでも50.1%という強いパフォーマンスを示しています。

6.高いベンチマーク評価

Chatbot Arena Eloスコアでは、Gemma 3nはGPT-4.1 nanoやLlama-4-Maverick-17B-128E-Instructといった他の人気モデルと比較して高くランク付けされています。

これらの機能により、Gemma 3nは、ユーザーの環境からのリアルタイムな視覚・聴覚情報に反応するライブでインタラクティブな体験、音声、画像、ビデオ、テキスト入力を組み合わせて使用するより深い理解と文脈に基づいたテキスト生成、リアルタイムの音声書き起こしや翻訳を含む高度な音声中心アプリケーションの開発を可能にし、新しいオンザゴー体験を強化します。

Google AI Edge GalleryでGemma 3nを今すぐ試す

GoogleはGemma 3nを開発者やユーザーが簡単に体験できるように、「Google AI Edge Gallery」という実験的なAndroidアプリ(iOS版は近日公開予定)を提供しています。

このアプリを使えば、最先端の生成AIモデルを、インターネット接続なしでデバイス上でローカルに実行するパワーを体験できます。モデルを一度ダウンロードすれば、完全にオフラインで動作します。

Gemma 3nで試せることは?

Google AI Edge Galleryアプリでは、以下のような機能を通じてGemma 3nの能力を試すことができます。

  • ローカル実行、完全オフライン: インターネット不要でGenAIを体験。
  • モデルの選択: Hugging Faceの異なるモデル間を簡単に切り替えて性能を比較可能。
  • Ask Image: 画像をアップロードして、それに関する質問をする(説明、問題解決、オブジェクト識別など)。
  • Prompt Lab: 要約、書き換え、コード生成、自由形式のプロンプトを使って単一ターンのLLMユースケースを探求。
  • AI Chat: マルチターンの会話が可能。
  • パフォーマンスインサイト: リアルタイムベンチマーク(TTFT、デコード速度、レイテンシ)を表示。
  • Bring Your Own Model: ローカルのLiteRT .taskモデルをテスト。

AndroidデバイスでGoogle AI Edge Galleryを使ってGemma 3nを試す手順【完全ガイド】

Googleが提供するローカルAI実行環境「AI Edge Gallery」を使えば、Gemma 3nのような強力なAIモデルをスマートフォン上でオフラインで体験できます。ここでは、Pixel 8 ProなどのAndroidデバイス上でGemma 3nを利用するまでのステップを詳細に解説します。

Step 1:Google AI Edge Galleryの配布ページにアクセスする

まず、以下のURLから「AI Edge Gallery」の公式リリースページ(GitHub)にアクセスします。

このページには、最新バージョンのAPKファイルがリストされています。通常は最上部が最新リリースなので、そこを探してください。

ポイント

  • GitHubのページは英語ですが、手順に従えば問題なく操作できます。
  • APKとはAndroidアプリのパッケージ形式で、Google Play以外から直接インストールする際に使います。

Step 2:APKファイルをダウンロードする

ページ内で、最新リリースの一覧からai-edge-gallery.apk」というファイルを探し、タップしてダウンロードを開始します。

注意

  • 「安全でない可能性があります」という警告が出る場合がありますが、公式リリースであることを確認したうえで「ダウンロードを続行」してください。
  • セキュリティのため、信頼できるWi-Fi環境で行いましょう。

Step 3:APKをインストールする

ダウンロードが完了したら、通知バーまたはファイルマネージャーからAPKファイルをタップし、インストール画面を開きます。

  1. 「インストール」をタップ
  2. 数秒〜数十秒でインストール完了
  3. 「開く」をタップしてアプリを起動

補足

  • 初めてAPKをインストールする場合、設定で「提供元不明のアプリのインストール許可」が求められることがあります。その場合は設定画面から許可を与えてください。

Step 4:アプリを起動し、基本機能を確認する

アプリを起動すると、シンプルなホーム画面が表示されます。ここから利用したい機能を選択できます。

  • AI Chat:チャット形式で質問できる
  • Ask Image:画像から情報を取得する
  • 他のデモ機能:今後追加される可能性あり

この段階ではまだAIモデルはロードされていません。次のステップでGemma 3nを選択します。

Step 5:Gemma 3nモデルを選択する

「AI Chat」や「Ask Image」をタップすると、モデル選択画面に遷移します。ここで「Gemma-3n-E2B-it-int4」など、Gemma 3n系のモデルを選択します。複数の量子化バージョン(int4など)があるため、より軽量で高速に動作するバージョンを選ぶのが一般的です。

参考

  • int4 は軽量な整数型で、モバイルデバイスでも効率よく処理できるよう最適化された形式です。

Step 6:初回利用時のセットアップ(ダウンロードとライセンス同意)

Gemma 3nを初めて使う場合、以下の手順を踏んでセットアップを行います。

  1. 「Download & Try」をタップ
  2. Hugging Faceのログイン画面が開く(※アカウントが必要)
  3. モデル利用のための利用規約とライセンス条項に同意
  4. アクセス権限の許可とダウンロード開始

補足

  • Hugging Faceは、AIモデルの配布・管理を行うプラットフォームです。
  • アカウントがない場合は、その場で無料登録できます。

Step 7:モデルをダウンロードして実行準備を整える

同意が完了すると、Gemma 3nのモデルデータが端末にダウンロードされます。ファイルサイズは数百MB〜数GB程度で、ネット環境によっては5分以上かかる場合もあります。

ヒント

  • Wi-Fi環境でのダウンロードを推奨
  • ダウンロード完了後は、同モデルを繰り返しオフラインで使用可能

Step 8:ローカルAI体験をスタート!

モデルの読み込みが完了すると、AI ChatやAsk Imageの機能をオフラインで利用できます。

AI Chatを試す

画面下部のテキスト欄に質問を入力するだけで、Gemma 3nが即座に応答します。以下は例です。

「ネギとニンジンで作れる料理のレシピを教えて」
→「ネギとニンジンを使ったみそ汁や炒め物がオススメです」といった返答が返ってきます。

この応答は完全にローカル(端末内)で生成されており、インターネット通信は不要です。

Ask Imageを試す

カメラまたはギャラリーから画像を選び、「これは何?」などの質問をするとAIが回答します。以下は例です。

iPhone 13 Proの写真を見せて「これは何?」と質問
→「iPhone 13」と返答。ただし「Pro」であるかまでは認識されない場合も

まとめ:Gemma 3nの今後に期待!

Gemma 3nは、最先端で効率的なAIへのアクセスを民主化する次なる一歩です。今回リリースされたのは早期プレビュー版であり、この技術が順次利用可能になるにつれて、皆様がどのようなものを構築するのかを楽しみにしています。

開発者は、Google AI Studio(ブラウザでテキスト入力を試す場合)やGoogle AI Edge(ローカル統合の場合)を利用してGemma 3nのプレビューを試すことができます。Google AI Edge Galleryアプリは、手軽にオンデバイスAIの性能を体験するための素晴らしい入り口です。

これは実験的なアルファリリースです。バグを見つけたり、アイデアがあれば、ぜひフィードバックを寄せてください。皆様からの入力は非常に重要です。


関連情報:

Gemma 3nとGoogle AI Edge Galleryを通じて、手軽に最先端のオンデバイスAIの世界を体験してみてはいかがでしょうか。

↑↑↑
この記事が参考になりましたら、上の「参考になった」ボタンをお願いします。

会社ではChatGPTは使えない?情報漏洩が心配?

ある日本企業に対する調査では、72%が業務でのChatGPT利用を禁止していると報告されています。社内の機密情報がChatGPTのモデルに学習されて、情報漏洩の可能性を懸念しているためです。

そのため、インターネットに接続されていないオンプレミス環境で自社独自の生成AIを導入する動きが注目されています。ランニングコストを抑えながら、医療、金融、製造業など機密データを扱う企業の課題を解決し、自社独自の生成AIを導入可能です。サービスの詳細は以下をご覧ください。

いますぐサービス概要を見る▶▶▶
この記事をシェアする
監修者:服部 一馬

フィクスドスター㈱ 代表取締役 / ITコンサルタント / AIビジネス活用アドバイザー

非エンジニアながら、最新のAI技術トレンドに精通し、企業のDX推進やIT活用戦略の策定をサポート。特に経営層や非技術職に向けた「AIのビジネス活用」に関する解説力には定評がある。
「AIはエンジニアだけのものではない。ビジネスにどう活かすかがカギだ」という理念のもと、企業のデジタル変革と競争力強化を支援するプロフェッショナルとして活動中。ビジネスとテクノロジーをつなぐ存在として、最新AI動向の普及と活用支援に力を入れている。

Chat Icon
タイトルとURLをコピーしました