生成AIを業務に導入する企業は急増しています。しかし、2025年時点でもハルシネーション、つまりもっともらしい誤情報を完全に排除することは難しいとされています。だからこそ重要なのは、AIの回答を「完成品」ではなく「下書き」と捉え、確認作業を標準業務として組み込むことです。SHIFT AIは、企業実務での基本対策として人によるファクトチェックと複数AIでのクロスチェックを挙げています。クラウドサインも、固有名詞や出典リンクを含むチェックリスト化が属人化防止に有効だと指摘しています。
特に危険なのは、対外公表資料、顧客向け案内、契約、法務、医療、金融のようなYMYL領域です。ProFutureは、健康・金融・法律などでは担当者確認に加えて、別担当者や上長による再確認を推奨しています。つまり、AIを安全に使う鍵は、性能の高いモデルを選ぶことだけではありません。確認の設計こそが重要です。
本記事では、業務で実践しやすい7つの確認術を、具体例と運用のコツとともに整理します。
一次情報と数値を最優先で確認する

1. まず一次情報へ遡る
最初の確認術は、AIの説明をそのまま信じず、必ず一次情報に戻ることです。たとえば制度改正なら官公庁、統計なら公的統計や研究機関、製品仕様ならメーカー公式、決算情報なら上場企業の開示資料を確認します。Google Workspace関連の解説でも、厳格な確認が必要な対象として「法律・条文・公的制度」が明示されています。
実務では、AIに「2025年度の補助金制度をまとめてください」と依頼する場面が多いですが、この種の回答には古い制度や終了済み要件が混ざりやすいです。Knowleful AIも、「2025年7月現在」のような最新情報は特に要注意だとしています。営業資料や顧客説明に使うなら、最終的には省庁や自治体の公開ページ、企業のニュースリリース、約款や利用規約まで遡る必要があります。
また、AIの「要約」だけでなく「原文」を見ることも重要です。AIは原文の趣旨を変えずに要約するとは限りません。特に例外条件、注記、施行日、適用対象などは落ちやすいです。たとえば法令や社内規程を扱うとき、AIが「原則」を正しく書いていても、「ただし書き」を落とせば業務事故につながります。XIMIXは、社内規程、製品マニュアル、過去提案書を根拠に回答させるRAGが、現時点で有力な対策だと説明しています。これは裏を返せば、根拠文書そのものを確認する運用が必要だということです。
2. 数値を重点的に確認する
2つ目の確認術は、数値を最優先で検証することです。Google Workspace関連の記事では、特に厳格な確認が必要な対象として「統計データや数値」を挙げています。Knowleful AIも、金額、割合、年号を要注意項目として明記しています。
なぜ数値が危険かというと、文章全体は自然でも、1桁違い、年度違い、比率の取り違えが起きやすいからです。たとえば市場規模を「120億円」と書くべきところを「1,200億円」と出してしまえば、提案の前提が崩れます。採用資料で離職率を誤れば、社外説明の信頼も損ないます。AIは前後の文脈を整えるのが得意な一方で、細かな数字の真正性までは保証しません。
数値確認では、単に別サイトで同じ数字が出るかを見るだけでは不十分です。可能であれば、原表、算出条件、対象期間、母数まで確認します。たとえば「前年比15%増」とあっても、前年が四半期ベースで今年が通期なら比較できません。営業や広報では、AIが作成した表やグラフをそのまま使わず、ExcelやBIで再計算する運用が安全です。
ASCII.jpは、長文全体を一度に検証するより、段落単位で別セッションや別AIサービスに「ファクトチェックしてください」と確認するほうが漏れを減らしやすいと紹介しています。数値が含まれる段落だけを切り出して再検証する方法は、現場でも実践しやすいです。
固有名詞と出典の信頼性を見極める

3. 固有名詞を照合する
3つ目の確認術は、固有名詞の照合です。Google Workspace関連の記事では、「固有名詞(人名・会社名・製品名)」を重点確認対象に挙げています。クラウドサインも「固有名詞は確認したか」というチェック項目を推奨しています。
固有名詞の誤りは、数字以上に信用を傷つけます。たとえば企業名の正式表記、製品名の現行名称、役職名、法令名の略称と正式名称の混同は、提案書や記事で頻発します。M&A、資本提携、社名変更があった企業は特に危険です。AIは過去時点の名称と現在名を混ぜることがありますし、似たサービス名を取り違えることもあります。
実務では、企業サイトの会社概要、製品ページ、IR資料、法令データ提供システムなどで正式名称を確認します。ここで重要なのは、名称だけでなく更新日や施行日も見ることです。たとえば旧制度名を使っていないか、旧製品名を現行版として扱っていないかで、資料の鮮度が分かります。社内でチェックリストを作るなら、「正式名称」「英語表記」「略称可否」「更新日確認」の4項目を入れると精度が高まります。
4. 出典とURLの実在性を確認する
4つ目の確認術は、AIが示した出典やURLをそのまま信用しないことです。N-Worksは、出典明示をAIに要求してもURL自体が捏造される可能性があるため、「実在するURLのみを提示してください」と明示的に指示する重要性を指摘しています。クラウドサインも「出典のリンクは生きているか」を確認項目に入れています。
これは実務で非常に重要です。AIは一見もっともらしいドメイン名や記事タイトルを作ることがあります。しかし、クリックすると404になる、別内容のページへ飛ぶ、そもそも存在しないといったケースがあります。したがって、URL確認では少なくとも「実在するか」「リンク切れでないか」「引用箇所が本文と一致するか」の3点を確認する必要があります。
安全な方法は、AIの文章中で使われた主張を1つずつ出典本文に照合することです。たとえば「A社は2025年3月に新機能を発表した」とAIが書いたなら、公式リリースの日付と内容を見て一致を取ります。ここまで行って初めて、出典確認が完了したと言えます。対外発信であれば、出典一覧を付ける前に、引用箇所のスクリーンショットや保存PDFを残しておくと、後日の検証にも役立ちます。
AI任せにしないクロスチェック体制を作る

5. 複数AIと別セッションでクロスチェックする
5つ目の確認術は、複数AIによるクロスチェックです。SHIFT AIは、ChatGPT、Gemini、Perplexityなどの併用例を示し、企業実務での基本対策としてクロスチェックを挙げています。1つのモデルだけに頼ると、そのモデル特有の誤りを見抜きにくくなります。
たとえば、ChatGPTに要約させた後、Geminiで検索照合付きの確認を行い、Perplexityで出典候補を洗う、といった役割分担が考えられます。Google Workspace関連の記事では、GeminiにGoogle検索結果と一致する箇所を緑、異なる可能性が高い箇所を茶色で示す確認支援機能が紹介されています。こうした機能は、確認の起点として有効です。
また、ASCII.jpが紹介するように、長文を丸ごと検証するより、段落単位で別セッション、できれば別AIサービスに確認させるほうが漏れを減らしやすいです。同じAIでも、別セッションにすると前の会話に引っ張られにくくなります。具体的には、「この段落の事実関係だけを確認してください。誤りの可能性がある箇所を箇条書きで示してください」と依頼すると、検証しやすくなります。
6. 人間によるダブルチェックを標準化する
6つ目の確認術は、人間のダブルチェック体制です。ProFutureは、健康・金融・法律などのYMYL領域では、担当者確認後に別担当者や上長が再確認する体制を推奨しています。Pronavi AIも、対外発信や法的判断に関わる情報では、複数の人間でチェックする体制が必要だとしています。
理由は明確です。AIの誤りは「もっともらしい」ため、最初に文章を作った本人ほど見落としやすいからです。担当者は文脈を知っている分、誤りを補完して読んでしまいます。そこで、内容を知らない別担当者が「数字」「固有名詞」「出典」「結論」の4点だけを見るだけでも、事故率は大きく下がります。
さらに、クラウドサインはチェックリスト化が属人化防止に有効だと述べています。実務では、公開前確認シートを作り、「一次情報確認済み」「数値照合済み」「固有名詞照合済み」「URL実在確認済み」「別担当者確認済み」の5項目にチェックを入れるだけでも運用しやすくなります。特に広報、営業、法務、人事のように対外資料が多い部門では、承認フローにAI利用の有無と確認者名を残すべきです。
予防策を業務フローに組み込む

7. 用途制限・RAG・プロンプト設計で事故を減らす
7つ目の確認術は、確認作業だけでなく、そもそも誤りを出しにくい運用を設計することです。クラウドサインは、アイデア出しや壁打ちのような創造性重視の業務にはAIが適しやすい一方、顧客案内や重要判断では誤情報リスクが大きいと示しています。つまり、用途制限は最初の防波堤です。
さらに、XIMIXはRAGを現時点で有力な対策と説明しています。Google CloudのVertex AIを使えば、社内文書を根拠にしたエンタープライズ向けRAGを迅速に構築できるとされています。社内規程、FAQ、製品マニュアル、過去提案書に限定して回答させれば、インターネット上の曖昧な情報より安全性は高まります。
加えて、プロンプト設計も有効です。Start-Linkは、出典明示要求や、確信度を1〜5段階で示させる方法を紹介しています。たとえば「各主張に根拠文書名を付け、確信度3以下は要確認と明記してください」と指示すれば、人間が重点確認すべき箇所を絞れます。N-Worksが指摘するように、「実在するURLのみを提示してください」といったネガティブプロンプトも有効です。
また、Pronavi AIは法人向けAIサービスの選定と全従業員向けAIリスク研修を推奨しています。ツール導入だけで終わらせず、どの業務で使ってよいか、何を必ず確認するか、誰が承認するかまで定義して初めて、安全な業務利用になります。
まとめ:安全に使う企業は「確認」を仕組みにしている

ハルシネーション対策の本質は、魔法のような完全防止策を探すことではありません。2025年時点でも、複数の解説が示す通りゼロにはできません。その前提で、一次情報確認、数値確認、固有名詞照合、出典URL確認、複数AIでのクロスチェック、人間のダブルチェック、そしてRAGや用途制限といった予防策を組み合わせることが現実解です。
技術面では進歩もあります。NECは2025年6月、生成文と原文を比較し、情報源を特定しながらハルシネーションの可能性がある箇所を文章レベルでリアルタイム検出する機能を紹介しました。Geminiにも検索照合の支援機能があります。ただし、支援機能があっても最終責任は人間にあります。
業務でAIを安全に使う企業は、AIに期待しすぎる企業ではなく、確認を仕組みにしている企業です。まずは7つの確認術をチェックリスト化し、公開前フローに組み込むことから始めるのが最も効果的です。
参考文献
1. https://ai-keiei.shift-ai.co.jp/hallucination-check/
2. https://www.cloudsign.jp/journal/hallucination/
3. https://n-works.link/blog/seo/ai-lighting-hallucination-prevention
4. https://googleworkspace.tscloud.co.jp/gemini/hallucination-prevention

