生成AIの性能が高まるにつれて、今ではビジネスに限らず多様なシーンで使用されています。ほしい情報を速やかに取得できる手軽さにより幅広い世代に親しまれる生成AIですが、誤解を招く内容やバイアスを含む情報を、あたかも真実であるかのように生成することがあります。
こうした事象のことを「ハルシネーション」と呼び、生成AIの利用にあたっては情報の正確性やバイアスの有無、第三者を傷つける内容ではないかなどを確認することが大切です。この記事では、ハルシネーションの基本的な概要と発生する理由、リスクや防ぐ方法について解説します。
関連記事:【2025年最新】AIを活用するなら必見!覚えておくべきAI用語34選

\ DX・AI人材を600万名から選抜して提案 /
ハルシネーションとは
ハルシネーション(Hallucination)とは「幻覚」「幻影」という意味を持つ言葉のことで、生成AI技術においては「もっともらしい嘘」という意味があります。ハルシネーションが起こる理由はさまざまで、それらがもととなってあたかも真実であるように情報を抽出するという結果につながります。
近年、ビジネスシーンを中心にハルシネーションが問題視される理由は、生成AIツールによって生み出された情報の正確性についてユーザーが真実であるかを速やかに判断しづらい部分にあります。そうとは知らないユーザーが、誤った情報を第三者に伝えた場合、情報は一人歩きし、場合によっては大きな混乱を招きます。
こうした懸念から、生成AIの使用にあたってはハルシネーションというリスクと隣り合わせであることを理解し向き合っていくことがAI時代に欠かせない姿勢といえます。
関連記事:AIにおけるリスクとは?利用者、提供者などへのリスクや対策方法を解説
ハルシネーションの種類
ハルシネーションは「内在的」と「外在的」の2つに分類されます。
内在的ハルシネーション
生成AIモデルが学習データと矛盾する情報を抽出する現象を「内在的ハルシネーション」と呼びます。たとえば「日本の首都は東京であり、大阪は日本の第二の都市ですか?」といったプロンプトに対して、「日本の首都は大阪です」と誤った情報を生成した場合、内在的ハルシネーションの可能性があります。
こうした現象が起きる理由としては、生成AIがプロンプトの内容を正確に理解できておらず、文脈のなかで矛盾した情報を生成していることが挙げられます。内在的ハルシネーションは生成AIが倫理的な整合性を保てていないことを示すため、より複雑な質問や文脈においては発生する可能性が高いと考えられています。
外在的ハルシネーション
プロンプトの内容とは関係なく事実とは異なる情報を生成する現象を「外在的ハルシネーション」と呼びます。生成AIが過去に収集した学習データを誤って記憶している場合などが原因で、プロンプトの文脈を超えた外部情報に対して生成されることがあります。
こうした情報が生成される背景には、生成AIが現実世界でのできごとを適切に理解・認識できていないことが挙げられ、情報の正確性について確認する作業が必要です。
ハルシネーションが発生する理由
ハルシネーションが発生する理由は、大きく分けて6つあります。ここからは理由について解説するので、適切な対策を講じるため、ハルシネーションの背景について押さえておきましょう。
学習データの量や質
生成AIが参考とする情報、いわゆる学習データの量や質によってハルシネーションが起こることがあります。生成AIが参考とする学習データの多くは、インターネット上で取得・閲覧できるさまざまなデータです。そのため、情報そのものに誤りがある場合、抽出する情報にも誤りが含まれることがあります。
プロンプト
生成AIに提示する指示、いわゆるプロンプトに問題があるときもハルシネーションが起きます。たとえば「もっとも優れた大統領は誰ですか?」と質問しても、参考とする情報の量や質によって回答にばらつきが生じることがあります。また「証明されたか?」「確定したか?」のように、なんらかを前提としたプロンプトも、事実とは異なる情報を抽出しやすいです。
過学習
過学習とは、生成AIが学習データに対して過剰に適合し、汎用性・柔軟性を失う現象のことです。その結果、これまでとは異なるジャンルのプロンプトを提示しても、うまく対応することができず、誤った情報を抽出することがあります。
専門知識の不足
特定のジャンルや領域に特化した生成AIモデルの場合、学習していない専門外のジャンル・領域のためにハルシネーションを招くことがあります。膨大な言語や語彙を学習した生成AIモデルであっても、文化的背景や文章の微妙なニュアンスに対しては理解し切れていないために誤った解答を抽出することがあります。
推論の不安定性
生成AIは学習データから情報を抽出する際、常に同じ回答を出すわけではありません。その背景にはプロンプトの意味をできる限り理解しようとする構造が関係しており、たとえば異なるニュアンスでも受け取れるようなプロンプトだと、前回とは異なるデータが生成されることがあります。
推論の不安定性はハルシネーションの発生を助長しやすく、ユーザーの意図を理解しようとする構造がかえって事実とは異なる情報を生成する理由と考えられ、技術的な改善が求められています。
攻撃に対する脆弱性
生成AIに対して誤ったデータを出力するような外部攻撃によってハルシネーションが引き起こされることもあります。生成AIモデルの脆弱性を突いた攻撃でありハルシネーションを人工的に引き起こす原因と捉えられ、適切な対策が求められています。

\ DX・AI人材を600万名から選抜して提案 /
ハルシネーションによるリスク
生成AIを使用するにあたっては、ハルシネーションの存在に加えてそこに潜むリスクについて把握しておくことが大切です。ここからは、ハルシネーションによるリスクについて解説します。
事実と異なる情報の拡散
ハルシネーションによって生成された情報を誤情報と知らずに第三者に共有した場合、大きな混乱を招く可能性があります。たとえばAIが作成したプレゼンテーション資料に誤情報が含まれており、正確性について確認せずそのまま使用した場合、顧客や取引先、社内の上層部に誤った情報を伝える恐れがあります。
誤情報が記載された資料が仮に拡散されると、企業の信頼性を大きく損なうだけでなく、風評被害や法的トラブルに発展する可能性があります。
組織・個人を傷つける
ハルシネーションによっては、特定の人物を傷つけたり組織の信頼性失墜を招いたりするリスクもあります。たとえば生成AIが収集した情報に特定の人物に関する誤情報が含まれていた場合です。このような情報が使用されてしまえば、特定の個人を傷つける可能性があるだけでなく、企業にとってもあらぬ誤解を生み、大きな損害につながる恐れがあります。
誤った意思決定
ハルシネーションが含まれたデータを使用したことで、誤った意思決定につながるリスクもあります。たとえば市場調査レポートを生成AIに作成させた場合です。このときAIが架空の競合他社のデータを生成したことを知らずに上層部に提出すると、市場の現実とはかけ離れたビジネス戦略を推進することになりかねません。
過去に起きたハルシネーションの実例
実際に起きたハルシネーションの実例としては、OpenAIが提供する「ChatGPT」では、特定の人物を巻き込むハルシネーションにより、存在しない犯罪行為に関する情報を生成したことがあります。
また、アメリカの弁護士がChatGPTを活用して民事裁判用の資料を作成した際、同資料に記載された航空会社を巡る複数の判例が事実と異なるものだったことも明らかになっています。
参考:「息子2人を殺した」とチャットGPTが誤情報を生成、ノルウェーの男性が苦情申し立て – BBCニュース
参考:弁護士がChatGPTを使ったら 「偽の判例」が裁判資料に 米国:朝日新聞
ハルシネーションを防ぐ方法
さまざまな事象によって起こり得るハルシネーションには、以下の方法で防ぐことを推奨します。
学習データを見直す
企業活動のなかで生成AIを活用する方は、生成AIに提示する学習データを見直すことをおすすめします。これまで提示した学習データに誤った情報やバイアスが含まれていた場合、その内容がそのままハルシネーションを招く原因になるためです。
学習データはその質と正確性について定期的に確認・検証し、不適切なデータを取り除くようにしましょう。また、特定の分野に特化した生成AIを開発する際は、その分野に精通した専門家が監修した高品質なデータを追加学習させることで発生を抑制できます。
プロンプトを改善する
プロンプトに含まれる曖昧な文章によってもハルシネーションを招くことがあります。生成AIを使用する際は、プロンプトに具体性を含めるなどの改善・工夫を心がけてみましょう。たとえば「○○について教えてください」という質問から「○○について具体的な統計データや引用元を明記し、300文字程度で説明してください」という内容に変えるなどです。
このほか「私が質問(あるいは提供)する情報に不足がある場合は、その旨を素直に答えてください」といった一文を加えることで抑制につながります。
AIの社内使用ルールを明確にする
企業活動で生成AIの活用機会が増えている場合は、社内使用ルールを明確にする方法も有効です。これまで機密情報や個人情報、公にする可能性の高い文章に生成AIを使用していた場合は、社外に公開する予定の資料やコラムに使わないことを義務化することで、誤情報の拡散防止につながります。
また生成AIが生成した情報を業務使用する場合も、人間の目による確認業務を義務化することで、誤情報の拡散やバイアスによる他者への思いがけない危害を防ぐことができます。
AIモデルの境界線を決める
社内使用ルールと共通しますが、AIモデルの境界線を決める方法も効果的です。たとえば一般的な情報の検索、文章要約などには使用を認め、士業や医療分野をはじめとした専門分野には利用しないという境界線を設ける方法です。
専門知識を必要とする業務において、どうしても生成AIを使用しなければならない事情がある場合は、その領域に精通した専門家による最終チェックを義務化することでリスクを最小限に抑えることができます。
人間によるチェックを必須ルールにする
生成AIが生成するコンテンツや情報の信頼性を確保する上では、人間による最終チェックを義務化することも大切です。生成AIはあくまでツールのひとつであり万能ではありません。生成AIモデル全体に共通するいわば欠点を念頭に置き、その上で人間による最終チェックが欠かせないと理解・認識することで軽減できます。
望む回答と望まない回答をAIに伝える
あらかじめ、生成AIに「望む回答」と「望まない回答」を伝えることも効果的です。たとえば「○○という事実に基づいた回答のみ生成してください」と指示することで、回答の方向性をある程度コントロールできます。また、回答の根拠となる情報源をプロンプトに含めることで、ハルシネーションを防ぎながら信頼できる情報に基づいた回答の生成を促すことができます。
積極的な情報共有
社内でハルシネーションに関する情報を積極的に共有することで、類似したプロンプトによる誤情報の生成を防ぐことができます。積極的な情報共有によって組織全体のAIリテラシーが向上し、適切に生成AIを使いこなすことができるでしょう。ナレッジ共有の文化を構築できれば組織全体で低減することにも期待できます。
まとめ
ハルシネーションは、生成AIの進化・普及にともない、企業が向き合うべき課題にまで発展しています。適切な対策を講じずにいれば、誤った意思決定や企業・個人の信用失墜、法的リスクなど、多角的な影響を及ぼす可能性があります。
企業のDX推進においてAIの存在は強力な武器となる一方で、ハルシネーションをはじめとした欠点への理解や適切な対策の立案・実施に対応できるDX人材が欠かせません。
Peaceful Morningの 「DX Boost」 なら、600万名超のデータ・AI・DX人材から、AI活用・社内ルール整備・プロンプト設計を支援できる即戦力人材 を最短即日でご提案できます。
AI活用を安全かつスピーディに進めたい企業様は、ぜひこちらをご確認ください。

\ DX・AI人材を600万名から選抜して提案 /


コメントを残す