RAG 2.0の衝撃—企業が求める“信頼できるAI”への新アプローチ

AI活用ブログ
AI活用ブログ

Contextual AI新モデルが切り拓く“正確性”の未来

近年、生成系AIの進化が目覚ましく、多様な現場で活躍する一方、その「正確性」や「信頼性」に対する不安を感じる人は多いのではないでしょうか。本記事を読むと、最新のRAG(リトリーバル拡張生成)技術による正しい情報活用の可能性や、高精度を実現するための具体的な手法が見えてきます。

意外なアプローチや、大企業導入事例を通じてAI活用の新しい一面に気づくでしょう。「AIは便利だけれど誤情報が怖い」という懸念を持つ方にも、有益なヒントが満載です。ぜひ最後までお読みください。


今なら助成金活用で最大75%OFFと大変お得にご利用いただける、AI・ChatGPT活用研修サービスがご好評をいただいています。ご興味のある方は以下のリンクから、助成金の活用方法やサービス内容が分かる資料をダウンロードいただけます。

AI・ChatGPT活用研修サービスの紹介資料ダウンロードはこちら(無料)

“Groundedness”で誤情報を抑える新時代のAIモデル

最高水準の「事実性」を実現

Contextual AIが発表した新たなAIモデル「Grounded Language Model(GLM)」は、GoogleやAnthropic、OpenAIといった大手各社のモデルを上回る事実性(factual accuracy)を示したとされています。

同社によると、独自のベンチマーク「FACTS」において88%の正答率を達成。GoogleのGemini 2.0 FlashやAnthropicのClaude 3.5 Sonnet、OpenAIのGPT-4oすら凌駕する性能を持つとして注目を集めています。

企業向け特化モデルの重要性

大規模言語モデル(LLM)が多方面で活用される中、“幻覚”とも呼ばれる誤情報の生成はビジネス導入にとって大きなハードルです。特に医療や金融、通信といった厳格な規制下での運用では、わずかな誤りも許されません。Contextual AIは、そうした「高い正確性を求める」企業向けに特化し、事実に忠実(グラウンディッド=grounded)な回答をするAIを開発することで差別化を図っています。

RAG(リトリーバル拡張生成)を“正しく”使いこなす

同社のCEOであるDouwe Kiela氏は、RAG(Retrieval-Augmented Generation)技術の共同発明者として知られています。RAGは、大規模言語モデルに外部データベースからの情報を「検索」させ、回答の裏付けを強化するアプローチです。しかし、従来のRAGシステムは部品をつなぎ合わせただけの“フランケンシュタイン”的な存在になりがちでした。Contextual AIはこれを一体化し、取得すべきデータの選定から再ランク付け(re-ranking)までを最適化した「RAG 2.0」を採用しています。

“わからない”と言えるAIの価値

このGLMが特に重視しているのは、コンテキストに含まれない情報に関しては「わからない」と返答する仕組みです。一般的な大規模言語モデルは、何らかの回答を無理に生成してしまうことが多いですが、Contextual AIのモデルは不確かな部分や条件付きの内容に対して慎重な応答が可能。規制の厳しい業界や高リスクな場面ほど、この「わからない」の判断が企業にとって大きな価値をもたらします。

構造化データや画像も統合

さらに同社のプラットフォームは、テキストだけでなくチャートや図表、データベース(BigQuery、Snowflake、Redshift、Postgresなど)との連携も重視しています。エンタープライズにおいては、文書(テキスト情報)だけでなく、トランザクションデータや表形式の情報が数多く存在します。その両方を組み合わせ、正確に処理することで、より複雑なビジネス課題に対応できるよう設計されているのです。

今後の展望:より信頼されるAIを目指して

今後、Contextual AIは「GLM」に続き、専門特化した再ランク付けシステムの提供や、高度なドキュメント理解機能を拡充していく計画です。将来的には、代理的にタスクを実行する「エージェント機能」の実験も視野に入れているとのこと。すでにHSBC、Qualcomm、Economistなど名だたる企業が導入を進めていることから、こうした信頼性重視のモデルが主流になる可能性は十分にあります。

「生成系AIをビジネスに活かしたいが、誤情報のリスクが高くて踏み出せない」という企業にとっては、Contextual AIのアプローチは大きな一歩となるでしょう。精度だけでなく、「いかに裏付けを取り、正しい情報を返すか」が今後のAI導入のキーポイントになることは間違いありません。

↑↑↑
この記事が参考になりましたら、上の「参考になった」ボタンをお願いします。

会社ではChatGPTは使えない?情報漏洩が心配?

ある日本企業に対する調査では、72%が業務でのChatGPT利用を禁止していると報告されています。社内の機密情報がChatGPTのモデルに学習されて、情報漏洩の可能性を懸念しているためです。

そのため、インターネットに接続されていないオンプレミス環境で自社独自の生成AIを導入する動きが注目されています。ランニングコストを抑えながら、医療、金融、製造業など機密データを扱う企業の課題を解決し、自社独自の生成AIを導入可能です。サービスの詳細は以下をご覧ください。

いますぐサービス概要を見る▶▶▶
この記事をシェアする
監修者:服部 一馬

フィクスドスター㈱ 代表取締役 / ITコンサルタント / AIビジネス活用アドバイザー

非エンジニアながら、最新のAI技術トレンドに精通し、企業のDX推進やIT活用戦略の策定をサポート。特に経営層や非技術職に向けた「AIのビジネス活用」に関する解説力には定評がある。
「AIはエンジニアだけのものではない。ビジネスにどう活かすかがカギだ」という理念のもと、企業のデジタル変革と競争力強化を支援するプロフェッショナルとして活動中。ビジネスとテクノロジーをつなぐ存在として、最新AI動向の普及と活用支援に力を入れている。

Chat Icon
タイトルとURLをコピーしました