ハンバーガーメニュー

Hallucination(幻覚)とは丨生成AI 用語集

最終更新日:

2025年7月9日

ライター:

PM Career編集部

プロダクト開発

Hallucination(幻覚)とは丨生成AI 用語集のサムネイル

この記事の監修者

佐々木真
PM Career事業責任者(Xアカウント @shin_sasaki19
株式会社リクルートにて「スタディサプリ」の初期メンバーとして事業開発・プロダクトマネージャー業を担当し全国展開を達成後、SmartHRのグループ会社としてToB向けSaaS「SmartMeeting」を立ち上げ2021年3月に退任。その後PMオンラインスクール「PM School」、プロダクト開発人材の転職サイト「PM Career」の事業を運営中。プロダクト開発の知見・人材の流動性を高め、日本のプロダクト作りをぶち上げるべく尽力中。個人としてもX(Twitter)アカウントのフォロワーは3万人超え、YouTubeやPodcastでもプロダクト開発のコンテンツを発信する日本で最も有名なプロダクト開発者の1人。

線の装飾画像

今すぐ転職をしたい人も、中長期的にしたい方も、PM Careerに無料会員登録をしておくことでキャリアに役立つ情報を定期的にキャッチアップすることが重要です。まだ登録されてない方はこちらからどうぞ。3分で完了します。
PM Careerに無料会員登録する
転職についての情報はこちらをご覧ください!

線の装飾画像

Hallucinationとは何か?

Hallucination(ハルシネーション/幻覚)とは、生成AIが事実とは異なる、あるいは根拠のない情報を出力してしまう現象を指します。特にChatGPTやBard、Claudeのような大規模言語モデル(LLM)においては、あたかも本物のような言い回しで誤情報を提示することがあり、この現象は「幻覚」と呼ばれます。

この用語は、もともと医学や心理学の文脈で使われていた「幻覚」という言葉を比喩的に転用したもので、AIが“見てもいないものを見たことにする”ような振る舞いを表しています。

具体例:Hallucinationの発生ケース

たとえば以下のようなケースがHallucinationです。

  • 実在しない論文やURLをもっともらしく出力する
  • 存在しない人物や団体の名前を記載する
  • 法律や制度について誤った内容を断定的に語る
  • 実在する事実に基づいていないコードや数式を提示する

特に専門性の高い分野や、最新情報が求められるタスクでは、Hallucinationによって誤解を生むリスクが高まります。

なぜHallucinationが起こるのか?

生成AIは、大量のテキストデータから統計的にもっともらしい単語の連なりを予測して文章を生成します。しかし、これは「意味」や「事実」に基づいた推論ではなく、あくまで「言語のパターン」に基づいた予測であるため、文脈に合っていても事実と異なる情報を出力してしまうことがあります。

また、ユーザーの質問が曖昧だったり、モデルが訓練されていない情報に対して応答しようとする場合にも、Hallucinationが発生しやすくなります。

Hallucinationを防ぐための対策

  • ソースの明記:根拠のある情報に限定するよう指示を与える(プロンプト設計)
  • 外部ツールとの連携:検索エンジンやデータベースとの併用(RAGなど)
  • 人間の確認プロセス:生成された情報は必ず人間がチェックする
  • モデルの微調整:特定用途に特化したモデルを構築することでHallucinationを抑制

ユーザーとしては、「生成された情報をうのみにしない」という姿勢も重要です。

プロダクトマネージャーが知っておくべき理由

生成AIを製品や業務に活用する際、Hallucinationのリスクを理解していなければ、誤情報による信頼性の低下や法的リスクにつながる恐れがあります。とくにユーザーに直接出力される情報に生成AIを用いる場合は、検証プロセスの設計が必須です。

プロダクトマネージャーは、AIの限界を把握したうえで、正確性が求められる領域では人間の判断を挟む、あるいは出力の信頼度をユーザーに明示するといった運用ルールの設計が求められます。

関連用語

生成AI 用語集

厳選されたプロダクト開発企業
一流プロダクト開発人材の出会い

チームをイメージした画像

関連する記事

  1. トップページ
  2. お役立ち情報
  3. プロダクト開発
  4. Hallucination(幻覚)とは丨生成AI 用語集