Hallucination(幻覚)とは丨生成AI 用語集
最終更新日:
2025年7月9日
ライター:
PM Career編集部
プロダクト開発

この記事の監修者
佐々木真
PM Career事業責任者(Xアカウント @shin_sasaki19)
株式会社リクルートにて「スタディサプリ」の初期メンバーとして事業開発・プロダクトマネージャー業を担当し全国展開を達成後、SmartHRのグループ会社としてToB向けSaaS「SmartMeeting」を立ち上げ2021年3月に退任。その後PMオンラインスクール「PM School」、プロダクト開発人材の転職サイト「PM Career」の事業を運営中。プロダクト開発の知見・人材の流動性を高め、日本のプロダクト作りをぶち上げるべく尽力中。個人としてもX(Twitter)アカウントのフォロワーは3万人超え、YouTubeやPodcastでもプロダクト開発のコンテンツを発信する日本で最も有名なプロダクト開発者の1人。
今すぐ転職をしたい人も、中長期的にしたい方も、PM Careerに無料会員登録をしておくことでキャリアに役立つ情報を定期的にキャッチアップすることが重要です。まだ登録されてない方はこちらからどうぞ。3分で完了します。
PM Careerに無料会員登録する
転職についての情報はこちらをご覧ください!
Hallucinationとは何か?
Hallucination(ハルシネーション/幻覚)とは、生成AIが事実とは異なる、あるいは根拠のない情報を出力してしまう現象を指します。特にChatGPTやBard、Claudeのような大規模言語モデル(LLM)においては、あたかも本物のような言い回しで誤情報を提示することがあり、この現象は「幻覚」と呼ばれます。
この用語は、もともと医学や心理学の文脈で使われていた「幻覚」という言葉を比喩的に転用したもので、AIが“見てもいないものを見たことにする”ような振る舞いを表しています。
具体例:Hallucinationの発生ケース
たとえば以下のようなケースがHallucinationです。
- 実在しない論文やURLをもっともらしく出力する
- 存在しない人物や団体の名前を記載する
- 法律や制度について誤った内容を断定的に語る
- 実在する事実に基づいていないコードや数式を提示する
特に専門性の高い分野や、最新情報が求められるタスクでは、Hallucinationによって誤解を生むリスクが高まります。
なぜHallucinationが起こるのか?
生成AIは、大量のテキストデータから統計的にもっともらしい単語の連なりを予測して文章を生成します。しかし、これは「意味」や「事実」に基づいた推論ではなく、あくまで「言語のパターン」に基づいた予測であるため、文脈に合っていても事実と異なる情報を出力してしまうことがあります。
また、ユーザーの質問が曖昧だったり、モデルが訓練されていない情報に対して応答しようとする場合にも、Hallucinationが発生しやすくなります。
Hallucinationを防ぐための対策
- ソースの明記:根拠のある情報に限定するよう指示を与える(プロンプト設計)
- 外部ツールとの連携:検索エンジンやデータベースとの併用(RAGなど)
- 人間の確認プロセス:生成された情報は必ず人間がチェックする
- モデルの微調整:特定用途に特化したモデルを構築することでHallucinationを抑制
ユーザーとしては、「生成された情報をうのみにしない」という姿勢も重要です。
プロダクトマネージャーが知っておくべき理由
生成AIを製品や業務に活用する際、Hallucinationのリスクを理解していなければ、誤情報による信頼性の低下や法的リスクにつながる恐れがあります。とくにユーザーに直接出力される情報に生成AIを用いる場合は、検証プロセスの設計が必須です。
プロダクトマネージャーは、AIの限界を把握したうえで、正確性が求められる領域では人間の判断を挟む、あるいは出力の信頼度をユーザーに明示するといった運用ルールの設計が求められます。