ハンバーガーメニュー

Attention機構丨生成AI 用語集

最終更新日:

2025年7月4日

ライター:

PM Career編集部

プロダクト開発

Attention機構丨生成AI 用語集のサムネイル

この記事の監修者

佐々木真
PM Career事業責任者(Xアカウント @shin_sasaki19
株式会社リクルートにて「スタディサプリ」の初期メンバーとして事業開発・プロダクトマネージャー業を担当し全国展開を達成後、SmartHRのグループ会社としてToB向けSaaS「SmartMeeting」を立ち上げ2021年3月に退任。その後PMオンラインスクール「PM School」、プロダクト開発人材の転職サイト「PM Career」の事業を運営中。プロダクト開発の知見・人材の流動性を高め、日本のプロダクト作りをぶち上げるべく尽力中。個人としてもX(Twitter)アカウントのフォロワーは3万人超え、YouTubeやPodcastでもプロダクト開発のコンテンツを発信する日本で最も有名なプロダクト開発者の1人。

線の装飾画像

今すぐ転職をしたい人も、中長期的にしたい方も、PM Careerに無料会員登録をしておくことでキャリアに役立つ情報を定期的にキャッチアップすることが重要です。まだ登録されてない方はこちらからどうぞ。3分で完了します。
PM Careerに無料会員登録する
転職についての情報はこちらをご覧ください!

線の装飾画像

Attention機構とは?

画像の説明: Attention機構解説図

Attention機構(アテンション機構)は、自然言語処理(NLP)や画像認識などの分野で用いられる、深層学習モデルにおける重要な技術です。入力データの中から、モデルが「今、注目すべき部分」に動的に重みをつけて処理する仕組みを指します。

従来のRNN(再帰型ニューラルネットワーク)やCNN(畳み込みニューラルネットワーク)は、固定的な処理構造であり、すべての入力情報を等しく扱うのが基本でした。しかし、言語や画像の文脈には「重要な部分」と「そうでない部分」があるため、それらを区別できるAttention機構は、情報処理の効率と精度を飛躍的に向上させました。

Attention機構の基本的な仕組み

Attention機構は、入力された一連のデータ(たとえば単語列)に対して、それぞれの要素が「どの程度重要か」をスコア化し、重みをつけて加重平均することで出力を生成します。以下はその基本的な流れです。

  1. Query(クエリ):注目したい対象(例:ある単語の意味を理解するために見る視点)
  2. Key(キー):入力の各要素に対応する特徴ベクトル
  3. Value(バリュー):実際に取り出す情報

QueryとKeyの類似度をスコアとし、Softmax関数で正規化して重みを決定し、Valueにそれをかけて合計します。

この仕組みにより、たとえばある単語が過去のどの単語と強く関連しているかを、文脈に応じて自動的に判断できるようになります。

Transformerにおける役割

Attention機構は、Googleが2017年に発表したTransformerというアーキテクチャで中心的な役割を担っています。Transformerでは、「Self-Attention(自己注意)」と呼ばれる仕組みで、各単語が文中の他のすべての単語に注目することが可能となり、並列計算にも適しているため、大規模モデルの学習に向いています。

生成AIの基盤モデルであるGPT(Generative Pre-trained Transformer)やBERT(Bidirectional Encoder Representations from Transformers)は、すべてこのAttention機構を核にしています。

応用例

Attention機構は、以下のような多くの分野・タスクで活用されています。

  • 自然言語翻訳(例:英語 → 日本語)
  • 要約生成
  • 質問応答システム
  • 画像キャプション生成
  • 音声認識

関連用語

生成AI 用語集

厳選されたプロダクト開発企業
一流プロダクト開発人材の出会い

チームをイメージした画像

関連する記事

  1. トップページ
  2. お役立ち情報
  3. プロダクト開発
  4. Attention機構丨生成AI 用語集