論文の概要: Function Induction and Task Generalization: An Interpretability Study with Off-by-One Addition
- arxiv url: http://arxiv.org/abs/2507.09875v1
- Date: Mon, 14 Jul 2025 03:20:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 20:53:35.145133
- Title: Function Induction and Task Generalization: An Interpretability Study with Off-by-One Addition
- Title(参考訳): 関数誘導とタスク一般化:オフ・バイ・ワン付加による解釈可能性の検討
- Authors: Qinyuan Ye, Robin Jia, Xiang Ren,
- Abstract要約: 標準加算からオフ・バイ・ワン加算までのモデルの一般化を説明する関数誘導機構を見いだす。
このメカニズムは、以前の作業で見いだされた誘導ヘッド機構の構造に似ており、より高度な抽象レベルまで上昇する。
この関数誘導機構は、シフトした複数選択QAのような合成タスクや、ベース8の追加のようなアルゴリズムタスクなど、幅広いタスクで再利用されている。
- 参考スコア(独自算出の注目度): 52.11481619456093
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models demonstrate the intriguing ability to perform unseen tasks via in-context learning. However, it remains unclear what mechanisms inside the model drive such task-level generalization. In this work, we approach this question through the lens of off-by-one addition (i.e., 1+1=3, 2+2=5, 3+3=?), a two-step, counterfactual task with an unexpected +1 function as a second step. Leveraging circuit-style interpretability techniques such as path patching, we analyze the models' internal computations behind their notable performance and present three key findings. First, we uncover a function induction mechanism that explains the model's generalization from standard addition to off-by-one addition. This mechanism resembles the structure of the induction head mechanism found in prior work and elevates it to a higher level of abstraction. Second, we show that the induction of the +1 function is governed by multiple attention heads in parallel, each of which emits a distinct piece of the +1 function. Finally, we find that this function induction mechanism is reused in a broader range of tasks, including synthetic tasks such as shifted multiple-choice QA and algorithmic tasks such as base-8 addition. Overall, our findings offer deeper insights into how reusable and composable structures within language models enable task-level generalization.
- Abstract(参考訳): 大規模言語モデルは、コンテキスト内学習を通じて目に見えないタスクを実行する興味深い能力を示している。
しかし、モデルの内部のメカニズムがそのようなタスクレベルの一般化を駆動しているのかは、まだ不明である。
本研究では,この問題に対して,予期せぬ+1関数を第2ステップとする2段階の対実的タスクである1+1=3,2+2=5,3+3=?)のオフ・バイ・ワン加算のレンズを用いてアプローチする。
経路パッチングなどの回路方式の解釈可能性技術を活用することで,その顕著な性能の背後にあるモデルの内部計算を分析し,3つの重要な知見を示す。
まず,標準加算からオフ・バイ・ワン加算までのモデルの一般化を説明する関数誘導機構を明らかにする。
このメカニズムは、以前の作業で見いだされた誘導ヘッド機構の構造に似ており、より高度な抽象レベルまで上昇する。
第2に、+1関数の誘導は複数の注目ヘッドによって並列に制御され、それぞれが+1関数の異なる部分を生成することを示す。
最後に, この関数誘導機構は, シフト多重選択QAなどの合成タスクや, ベース8の追加などのアルゴリズムタスクなど, 幅広いタスクで再利用されている。
全体として、言語モデルにおける再利用可能な構造と構成可能な構造がタスクレベルの一般化を実現する方法について、より深い知見を提供する。
関連論文リスト
- Interpreting Affine Recurrence Learning in GPT-style Transformers [54.01174470722201]
インコンテキスト学習により、GPTスタイルのトランスフォーマーは、重みを変更することなく推論中に一般化できる。
本稿では,ICLタスクとしてアフィンの再発を学習し,予測する能力に着目する。
実験的手法と理論的手法の両方を用いてモデルの内部動作を分析する。
論文 参考訳(メタデータ) (2024-10-22T21:30:01Z) - Continuum Attention for Neural Operators [6.425471760071227]
関数空間設定における変換器について検討する。
実際に実施される注意機構はモンテカルロあるいはこの作用素の有限差分近似であることを示す。
そのため、コンピュータビジョンからパッチ戦略の関数空間の一般化を導入し、関連するニューラル演算子のクラスを導入する。
論文 参考訳(メタデータ) (2024-06-10T17:25:46Z) - Bayes Complexity of Learners vs Overfitting [4.873362301533825]
関数の複雑性という新しい概念が、PACベイズのような一般化境界を支配していることを示す。
従来の研究とは対照的に、我々は自然に複数の層を持つニューラルネットワークに一般化している。
上界の導出により、2層と4層ニューラルネットワークの良好な一般化に必要なサンプル数の分離が図れる。
論文 参考訳(メタデータ) (2023-03-13T13:07:02Z) - Generalization on the Unseen, Logic Reasoning and Degree Curriculum [25.7378861650474]
本稿では,論理的(ブール的)関数の学習について,未確認(GOTU)設定の一般化に着目して考察する。
我々は,(S)GDで訓練されたネットワークアーキテクチャがGOTUの下でどのように機能するかを検討する。
具体的には、より高次基底要素に最小のフーリエ質量を持つトレーニングデータの補間子を意味する。
論文 参考訳(メタデータ) (2023-01-30T17:44:05Z) - Interpretability in the Wild: a Circuit for Indirect Object
Identification in GPT-2 small [68.879023473838]
間接オブジェクト識別 (IOI) と呼ばれる自然言語タスクにおいて, GPT-2 の小型化が果たす役割について解説する。
我々の知る限り、この調査は言語モデルにおいて「野生」の自然な振る舞いをリバースエンジニアリングする最大のエンドツーエンドの試みである。
論文 参考訳(メタデータ) (2022-11-01T17:08:44Z) - A simple probabilistic neural network for machine understanding [0.0]
本稿では,機械理解のためのモデルとして,確率的ニューラルネットワークと内部表現の固定化について論じる。
内部表現は、それが最大関係の原理と、どのように異なる特徴が組み合わされるかについての最大無知を満たすことを要求して導出する。
このアーキテクチャを持つ学習機械は、パラメータやデータの変化に対する表現の連続性など、多くの興味深い特性を享受している、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-24T13:00:15Z) - Provable General Function Class Representation Learning in Multitask
Bandits and MDPs [58.624124220900306]
マルチタスク表現学習は、サンプル効率を高めるために強化学習において一般的なアプローチである。
本研究では,解析結果を一般関数クラス表現に拡張する。
バンディットと線形MDPの一般関数クラスにおけるマルチタスク表現学習の利点を理論的に検証する。
論文 参考訳(メタデータ) (2022-05-31T11:36:42Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - I-BERT: Inductive Generalization of Transformer to Arbitrary Context
Lengths [2.604653544948958]
自己注意は、自然言語処理のための最先端のシーケンス・ツー・シーケンスモデルの重要な構成要素として現れてきた。
位置エンコーディングをリカレント層に置き換える双方向トランスであるI-BERTを提案する。
論文 参考訳(メタデータ) (2020-06-18T00:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。