論文の概要: Shattered Compositionality: Counterintuitive Learning Dynamics of Transformers for Arithmetic
- arxiv url: http://arxiv.org/abs/2601.22510v1
- Date: Fri, 30 Jan 2026 03:38:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.196905
- Title: Shattered Compositionality: Counterintuitive Learning Dynamics of Transformers for Arithmetic
- Title(参考訳): 分断構成性: 算術用変圧器の直観的学習ダイナミクス
- Authors: Xingyu Zhao, Darsh Sharma, Rheeya Uppaal, Yiqiao Zhong,
- Abstract要約: 大規模言語モデル(LLM)は、大規模であっても予期せぬ誤りや意図せぬ振る舞いを示すことが多い。
合成算術課題における変圧器の訓練による動的学習のメカニズムについて検討する。
この結果から,モデルの学習行動と所望のスキル構成との根本的なミスマッチが明らかとなった。
- 参考スコア(独自算出の注目度): 5.938190199042771
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) often exhibit unexpected errors or unintended behavior, even at scale. While recent work reveals the discrepancy between LLMs and humans in skill compositions, the learning dynamics of skill compositions and the underlying cause of non-human behavior remain elusive. In this study, we investigate the mechanism of learning dynamics by training transformers on synthetic arithmetic tasks. Through extensive ablations and fine-grained diagnostic metrics, we discover that transformers do not reliably build skill compositions according to human-like sequential rules. Instead, they often acquire skills in reverse order or in parallel, which leads to unexpected mixing errors especially under distribution shifts--a phenomenon we refer to as shattered compositionality. To explain these behaviors, we provide evidence that correlational matching to the training data, rather than causal or procedural composition, shapes learning dynamics. We further show that shattered compositionality persists in modern LLMs and is not mitigated by pure model scaling or scratchpad-based reasoning. Our results reveal a fundamental mismatch between a model's learning behavior and desired skill compositions, with implications for reasoning reliability, out-of-distribution robustness, and alignment.
- Abstract(参考訳): 大規模言語モデル(LLM)は、大規模であっても予期せぬ誤りや意図せぬ振る舞いを示すことが多い。
近年の研究では、スキル・コンポジションにおけるLLMと人間との相違が明らかになっているが、スキル・コンポジションの学習力学と非人間行動の根本原因は解明されていない。
本研究では,合成算術課題における変圧器の訓練による動的学習のメカニズムについて検討する。
広範囲にわたるアブレーションと詳細な診断指標により、トランスフォーマーは人間のようなシーケンシャルなルールに従って、確実にスキルコンポジションを構築することができないことが判明した。
代わりに、彼らはしばしば逆順または平行にスキルを習得し、特に分布シフト時の予期せぬ混合エラーを生じさせます。
これらの振る舞いを説明するために、我々は、因果関係や手続き的構成ではなく、トレーニングデータとの相関関係が学習力学を形作るという証拠を提供する。
さらに,現代のLCMでは破砕構成性が持続し,純粋なモデルスケーリングやスクラッチパッドに基づく推論では緩和されないことを示す。
本結果から,モデルの学習行動と所望のスキル構成との間には,信頼性,分布外堅牢性,アライメントといった基本的なミスマッチが明らかとなった。
関連論文リスト
- Knowledge Collapse in LLMs: When Fluency Survives but Facts Fail under Recursive Synthetic Training [2.094557609248011]
大規模な言語モデルは、人間が書き込んだコンテンツの不足のために、合成データにますます依存している。
モデル生成出力に対する再帰的なトレーニングは、事実の信頼性を脅かす退化過程であるモデル崩壊につながる。
論文 参考訳(メタデータ) (2025-09-05T04:29:15Z) - Mitigating Spurious Correlations with Causal Logit Perturbation [22.281052412112263]
本研究では,個々のサンプルに対して因果ロジット摂動を発生させた分類器を訓練するための新しい因果ロジット摂動(CLP)フレームワークを提案する。
このフレームワークは、オンラインのメタ学習ベースの学習アルゴリズムによって最適化され、人間の因果知識を利用して、反事実的および事実的両方の方法でメタデータを増強する。
論文 参考訳(メタデータ) (2025-05-21T08:21:02Z) - Are Transformers Able to Reason by Connecting Separated Knowledge in Training Data? [25.644436806962133]
人間は、様々な情報源からの知識を統合することで、顕著な構成的推論を示す。
本稿では,このスキルを再現する上でのトランスフォーマーの可能性を検証するための合成学習タスクを提案する。
数発のChain-of-Thoughtプロンプトにより、TransformersはFTCT上でコンストラクショナル推論を行うことができる。
論文 参考訳(メタデータ) (2025-01-27T08:34:38Z) - The dynamic interplay between in-context and in-weight learning in humans and neural networks [16.43008975197273]
In-context Learning" (ICL) は、ニューラルネットワークに固有のIWLと共存可能な、根本的に異なる学習特性を持たせることができることを示す。
我々の研究は、創発的なICLが、そのネイティブなIWLと共存可能な、根本的に異なる学習特性を持つニューラルネットワークをどのように装備できるかを示している。
論文 参考訳(メタデータ) (2024-02-13T18:55:27Z) - Seeing is not Believing: Robust Reinforcement Learning against Spurious
Correlation [57.351098530477124]
国家の異なる部分には、保存されていない共同設立者が引き起こす相関関係が存在しない。
このような役に立たないあるいは有害な相関を学習するモデルは、テストケースの共同創設者がトレーニングケースから逸脱したときに破滅的に失敗する可能性がある。
したがって、単純かつ非構造的な不確実性集合を仮定する既存の頑健なアルゴリズムは、この問題に対処するには不十分である。
論文 参考訳(メタデータ) (2023-07-15T23:53:37Z) - Learning perturbation sets for robust machine learning [97.6757418136662]
我々は、潜在空間の制約領域上に設定された摂動を定義する条件生成器を用いる。
学習した摂動集合の質を定量的かつ質的に測定する。
我々は、学習した摂動集合を利用して、敵画像の破損や逆光の変動に対して経験的かつ確実に堅牢なモデルを訓練する。
論文 参考訳(メタデータ) (2020-07-16T16:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。