論文の概要: Understanding Arithmetic Reasoning in Language Models using Causal
Mediation Analysis
- arxiv url: http://arxiv.org/abs/2305.15054v1
- Date: Wed, 24 May 2023 11:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 16:27:16.698650
- Title: Understanding Arithmetic Reasoning in Language Models using Causal
Mediation Analysis
- Title(参考訳): 因果メディエーション分析を用いた言語モデルにおける算数推論の理解
- Authors: Alessandro Stolfo, Yonatan Belinkov, Mrinmaya Sachan
- Abstract要約: 算術的質問に対する大規模言語モデル(LLM)の機械論的解釈を提案する。
異なる大きさ(2.8Bおよび6Bパラメータ)の事前学習言語モデルの解析を行う。
実験結果から,中間層の小さな集合が算術的質問の予測に大きく影響していることが判明した。
- 参考スコア(独自算出の注目度): 104.50791267513893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mathematical reasoning in large language models (LLMs) has garnered attention
in recent research, but there is limited understanding of how these models
process and store information related to arithmetic tasks. In this paper, we
present a mechanistic interpretation of LLMs for arithmetic-based questions
using a causal mediation analysis framework. By intervening on the activations
of specific model components and measuring the resulting changes in predicted
probabilities, we identify the subset of parameters responsible for specific
predictions. We analyze two pre-trained language models with different sizes
(2.8B and 6B parameters). Experimental results reveal that a small set of
mid-late layers significantly affect predictions for arithmetic-based
questions, with distinct activation patterns for correct and wrong predictions.
We also investigate the role of the attention mechanism and compare the model's
activation patterns for arithmetic queries with the prediction of factual
knowledge. Our findings provide insights into the mechanistic interpretation of
LLMs for arithmetic tasks and highlight the specific components involved in
arithmetic reasoning.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) における数学的推論が注目されているが,これらのモデルがどのように処理し,算術的タスクに関連する情報を格納しているかは限定的に理解されている。
本稿では,因果媒介分析フレームワークを用いた算術的質問に対するLLMの機械論的解釈を提案する。
特定のモデルコンポーネントのアクティベーションに介入し、予測される確率の変化を測定することで、特定の予測に責任のあるパラメータのサブセットを識別する。
異なる大きさ(2.8Bおよび6Bパラメータ)の事前学習言語モデルを分析する。
実験結果から,中間層の小さな集合が算術に基づく質問の予測に大きく影響し,正しい予測と間違った予測のアクティベーションパターンが異なることが明らかとなった。
また、注意機構の役割についても検討し、算術的クエリに対するモデルのアクティベーションパターンと事実知識の予測を比較した。
本研究は,算術的タスクに対する LLM の機械的解釈に関する知見を提供し,算術的推論に関わる特定の要素を強調した。
関連論文リスト
- Aggregation Artifacts in Subjective Tasks Collapse Large Language Models' Posteriors [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理の主要な手法となっている。
本研究は,低アグリゲーション,異質なアノテーションを組み合わせたアグリゲーションの結果が,プロンプトに有害なノイズを生じさせるアノテーションのアーティファクトに繋がるかどうかを考察する。
この結果から,アグリゲーションは主観的タスクのモデル化において不明瞭な要因であり,代わりに個人をモデリングすることを重視することが示唆された。
論文 参考訳(メタデータ) (2024-10-17T17:16:00Z) - Interpreting token compositionality in LLMs: A robustness analysis [10.777646083061395]
Constituent-Aware Pooling (CAP)は、大規模言語モデルが言語構造をどのように処理するかを分析するために設計された方法論である。
CAPは様々なモデルレベルで構成型プールを通してモデル活性化に介入する。
論文 参考訳(メタデータ) (2024-10-16T18:10:50Z) - Interpreting and Improving Large Language Models in Arithmetic Calculation [72.19753146621429]
大規模言語モデル(LLM)は、多くのアプリケーションにまたがる顕著な可能性を示している。
本研究では,LLMが計算を行う特定のメカニズムを明らかにする。
LLMの計算性能を高めるために、これらの必須ヘッド/MLPを選択的に微調整する潜在的な利点について検討する。
論文 参考訳(メタデータ) (2024-09-03T07:01:46Z) - From Feature Importance to Natural Language Explanations Using LLMs with RAG [4.204990010424084]
大規模言語モデル(LLM)の応答に外部知識リポジトリを活用して,トレーサブルな質問応答を導入する。
この知識リポジトリは、高レベルの特徴、特徴の重要性、代替確率を含む、モデルの出力に関するコンテキストの詳細を含む。
社会的・因果的・選択的・コントラスト的な4つの重要な特徴を、人間の説明に関する社会科学研究から一発のプロンプトへと統合し、応答生成過程を導く。
論文 参考訳(メタデータ) (2024-07-30T17:27:20Z) - Competence-Based Analysis of Language Models [21.43498764977656]
CALM (Competence-based Analysis of Language Models) は、特定のタスクの文脈におけるLLM能力を調べるために設計された。
我々は,勾配に基づく対向攻撃を用いた因果探究介入を行うための新しい手法を開発した。
これらの介入を用いてCALMのケーススタディを行い、様々な語彙推論タスクにおけるLCM能力の分析と比較を行う。
論文 参考訳(メタデータ) (2023-03-01T08:53:36Z) - Tracing and Manipulating Intermediate Values in Neural Math Problem
Solvers [29.957075459315384]
複数の推論ステップを必要とする複雑な入力を、言語モデルがどのように処理するかは、よく理解されていない。
これまでの研究では、これらの入力の中間値に関する情報はモデルの活性化から抽出できることが示されている。
本稿では、簡単な算術問題とその中間値に着目して、トランスフォーマーモデルがこれらの入力をどのように処理するかを分析する手法を提案する。
論文 参考訳(メタデータ) (2023-01-17T08:46:50Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Learning Operators with Coupled Attention [9.715465024071333]
本稿では,近年の注目機構の成功を動機とした,新しい演算子学習手法であるLOCAを提案する。
我々のアーキテクチャでは、入力関数は有限個の特徴にマッピングされ、その特徴は出力クエリの場所に依存する注意重みで平均化される。
これらの注意重みを積分変換と組み合わせることで、LOCAは目標出力関数の相関関係を明示的に学習することができる。
論文 参考訳(メタデータ) (2022-01-04T08:22:03Z) - Multilingual Multi-Aspect Explainability Analyses on Machine Reading Comprehension Models [76.48370548802464]
本稿では,マルチヘッド自己注意と最終MRCシステム性能の関係を検討するために,一連の解析実験を実施することに焦点を当てる。
問合せ及び問合せ理解の注意が問合せプロセスにおいて最も重要なものであることが判明した。
包括的可視化とケーススタディを通じて、注意マップに関するいくつかの一般的な知見も観察し、これらのモデルがどのように問題を解くかを理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-08-26T04:23:57Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。