Contextual AI新モデルが切り拓く“正確性”の未来
近年、生成系AIの進化が目覚ましく、多様な現場で活躍する一方、その「正確性」や「信頼性」に対する不安を感じる人は多いのではないでしょうか。本記事を読むと、最新のRAG(リトリーバル拡張生成)技術による正しい情報活用の可能性や、高精度を実現するための具体的な手法が見えてきます。
意外なアプローチや、大企業導入事例を通じてAI活用の新しい一面に気づくでしょう。「AIは便利だけれど誤情報が怖い」という懸念を持つ方にも、有益なヒントが満載です。ぜひ最後までお読みください。
“Groundedness”で誤情報を抑える新時代のAIモデル
最高水準の「事実性」を実現
Contextual AIが発表した新たなAIモデル「Grounded Language Model(GLM)」は、GoogleやAnthropic、OpenAIといった大手各社のモデルを上回る事実性(factual accuracy)を示したとされています。
同社によると、独自のベンチマーク「FACTS」において88%の正答率を達成。GoogleのGemini 2.0 FlashやAnthropicのClaude 3.5 Sonnet、OpenAIのGPT-4oすら凌駕する性能を持つとして注目を集めています。
企業向け特化モデルの重要性
大規模言語モデル(LLM)が多方面で活用される中、“幻覚”とも呼ばれる誤情報の生成はビジネス導入にとって大きなハードルです。特に医療や金融、通信といった厳格な規制下での運用では、わずかな誤りも許されません。Contextual AIは、そうした「高い正確性を求める」企業向けに特化し、事実に忠実(グラウンディッド=grounded)な回答をするAIを開発することで差別化を図っています。
RAG(リトリーバル拡張生成)を“正しく”使いこなす
同社のCEOであるDouwe Kiela氏は、RAG(Retrieval-Augmented Generation)技術の共同発明者として知られています。RAGは、大規模言語モデルに外部データベースからの情報を「検索」させ、回答の裏付けを強化するアプローチです。しかし、従来のRAGシステムは部品をつなぎ合わせただけの“フランケンシュタイン”的な存在になりがちでした。Contextual AIはこれを一体化し、取得すべきデータの選定から再ランク付け(re-ranking)までを最適化した「RAG 2.0」を採用しています。
“わからない”と言えるAIの価値
このGLMが特に重視しているのは、コンテキストに含まれない情報に関しては「わからない」と返答する仕組みです。一般的な大規模言語モデルは、何らかの回答を無理に生成してしまうことが多いですが、Contextual AIのモデルは不確かな部分や条件付きの内容に対して慎重な応答が可能。規制の厳しい業界や高リスクな場面ほど、この「わからない」の判断が企業にとって大きな価値をもたらします。
構造化データや画像も統合
さらに同社のプラットフォームは、テキストだけでなくチャートや図表、データベース(BigQuery、Snowflake、Redshift、Postgresなど)との連携も重視しています。エンタープライズにおいては、文書(テキスト情報)だけでなく、トランザクションデータや表形式の情報が数多く存在します。その両方を組み合わせ、正確に処理することで、より複雑なビジネス課題に対応できるよう設計されているのです。
今後の展望:より信頼されるAIを目指して
今後、Contextual AIは「GLM」に続き、専門特化した再ランク付けシステムの提供や、高度なドキュメント理解機能を拡充していく計画です。将来的には、代理的にタスクを実行する「エージェント機能」の実験も視野に入れているとのこと。すでにHSBC、Qualcomm、Economistなど名だたる企業が導入を進めていることから、こうした信頼性重視のモデルが主流になる可能性は十分にあります。
「生成系AIをビジネスに活かしたいが、誤情報のリスクが高くて踏み出せない」という企業にとっては、Contextual AIのアプローチは大きな一歩となるでしょう。精度だけでなく、「いかに裏付けを取り、正しい情報を返すか」が今後のAI導入のキーポイントになることは間違いありません。