
プロダクト開発
Hallucination(幻覚)とは丨生成AI 用語集
この記事の監修者佐々木真PM Career事業責任者(Xアカウント @shin_sasaki19)株式会社リクルートにて「スタディサプリ」の初期メンバーとして事業開発・プロダクトマネージャー業を担当し全国展開を達成後、SmartHRのグループ会社としてToB向けSaaS「SmartMeeting」を立ち上げ2021年3月に退任。その後PMオンラインスクール「PM School」、プロダクト開発人材の転職サイト「PM Career」の事業を運営中。プロダクト開発の知見・人材の流動性を高め、日本のプロダクト作りをぶち上げるべく尽力中。個人としてもX(Twitter)アカウントのフォロワーは3万人超え、YouTubeやPodcastでもプロダクト開発のコンテンツを発信する日本で最も有名なプロダクト開発者の1人。今すぐ転職をしたい人も、中長期的にしたい方も、PM Careerに無料会員登録をしておくことでキャリアに役立つ情報を定期的にキャッチアップすることが重要です。まだ登録されてない方はこちらからどうぞ。3分で完了します。PM Careerに無料会員登録する転職についての情報はこちらをご覧ください! プロダクトマネージャー転職完全ガイド|年収・面接対策・求人探しまで【2025年最新版】プロジェクトマネージャー 転職・完全ガイド|年収・面接対策・求人探しまで【2025年最新版】Hallucinationとは?Hallucination(ハルシネーション/幻覚)とは、生成AIが事実とは異なる、あるいは根拠のない情報を出力してしまう現象を指します。特にChatGPTやBard、Claudeのような大規模言語モデル(LLM)においては、あたかも本物のような言い回しで誤情報を提示することがあり、この現象は「幻覚」と呼ばれます。この用語は、もともと医学や心理学の文脈で使われていた「幻覚」という言葉を比喩的に転用したもので、AIが“見てもいないものを見たことにする”ような振る舞いを表しています。具体例:Hallucinationの発生ケースたとえば以下のようなケースがHallucinationです。実在しない論文やURLをもっともらしく出力する存在しない人物や団体の名前を記載する法律や制度について誤った内容を断定的に語る実在する事実に基づいていないコードや数式を提示する特に専門性の高い分野や、最新情報が求められるタスクでは、Hallucinationによって誤解を生むリスクが高まります。なぜHallucinationが起こるのか?生成AIは、大量のテキストデータから統計的にもっともらしい単語の連なりを予測して文章を生成します。しかし、これは「意味」や「事実」に基づいた推論ではなく、あくまで「言語のパターン」に基づいた予測であるため、文脈に合っていても事実と異なる情報を出力してしまうことがあります。また、ユーザーの質問が曖昧だったり、モデルが訓練されていない情報に対して応答しようとする場合にも、Hallucinationが発生しやすくなります。Hallucinationを防ぐための対策ソースの明記:根拠のある情報に限定するよう指示を与える(プロンプト設計)外部ツールとの連携:検索エンジンやデータベースとの併用(RAGなど)人間の確認プロセス:生成された情報は必ず人間がチェックするモデルの微調整:特定用途に特化したモデルを構築することでHallucinationを抑制ユーザーとしては、「生成された情報をうのみにしない」という姿勢も重要です。プロダクトマネージャーが知っておくべき理由生成AIを製品や業務に活用する際、Hallucinationのリスクを理解していなければ、誤情報による信頼性の低下や法的リスクにつながる恐れがあります。とくにユーザーに直接出力される情報に生成AIを用いる場合は、検証プロセスの設計が必須です。プロダクトマネージャーは、AIの限界を把握したうえで、正確性が求められる領域では人間の判断を挟む、あるいは出力の信頼度をユーザーに明示するといった運用ルールの設計が求められます。関連用語生成AI 用語集用語LLM(大規模言語モデル)RAGプロンプトPrompt EngineeringTransformerAttention機構Zero-shot/Few-shot LearningFine-tuning