論文の概要: Language models can learn implicit multi-hop reasoning, but only if they have lots of training data
- arxiv url: http://arxiv.org/abs/2505.17923v1
- Date: Fri, 23 May 2025 14:01:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.13291
- Title: Language models can learn implicit multi-hop reasoning, but only if they have lots of training data
- Title(参考訳): 言語モデルは暗黙のマルチホップ推論を学習できるが、訓練データが多い場合に限られる
- Authors: Yuekun Yao, Yupei Du, Dawei Zhu, Michael Hahn, Alexander Koller,
- Abstract要約: 暗黙の推論は、言語モデルが単一のフォワードパスでマルチホップ推論タスクを解く能力である。
このようなモデルでは暗黙的な$k$-hop推論を学べるが、必要なトレーニングデータは$k$で指数関数的に増加する。
- 参考スコア(独自算出の注目度): 51.92147944576878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit reasoning is the ability of a language model to solve multi-hop reasoning tasks in a single forward pass, without chain of thought. We investigate this capability using GPT2-style language models trained from scratch on controlled $k$-hop reasoning datasets ($k = 2, 3, 4$). We show that while such models can indeed learn implicit $k$-hop reasoning, the required training data grows exponentially in $k$, and the required number of transformer layers grows linearly in $k$. We offer a theoretical explanation for why this depth growth is necessary. We further find that the data requirement can be mitigated, but not eliminated, through curriculum learning.
- Abstract(参考訳): 暗黙の推論は、言語モデルが思考の連鎖なしに単一の前方通過でマルチホップ推論タスクを解く能力である。
制御された$k$-hop推論データセット(k = 2, 3, 4$)をスクラッチからトレーニングしたGPT2スタイルの言語モデルを用いて、この機能について検討する。
このようなモデルは暗黙的な$k$-hop推論を学習できるが、必要なトレーニングデータは$k$で指数関数的に増加し、必要なトランスフォーマー層数は$k$で線形的に増加する。
この深さ成長が必要な理由を理論的に説明する。
さらに、カリキュラムの学習を通じて、データ要件を緩和できるが、排除できないこともわかりました。
関連論文リスト
- Do Larger Language Models Imply Better Reasoning? A Pretraining Scaling Law for Reasoning [89.17086632436363]
本研究では,実世界の大規模知識グラフの構造と分布を再現する合成マルチホップ推論環境を提案する。
我々の推論タスクは、グラフの欠落したエッジを補完することであり、これは高度なマルチホップ推論を必要とし、現実世界の推論シナリオを模倣する。
特定の知識グラフに対して最適なモデルサイズを予測するために,知識グラフ探索エントロピーを最適モデルサイズに線形にマッピングする経験的スケーリングを求める。
論文 参考訳(メタデータ) (2025-04-04T17:57:22Z) - Implicit Reasoning in Transformers is Reasoning through Shortcuts [10.351525484558376]
テストタイム計算は、言語モデルの複雑な多段階推論機能を強化するための新しいパラダイムとして登場しつつある。
マルチステップタスクにおいて,言語モデルがどのように暗黙的推論を行うかを検討する。
論文 参考訳(メタデータ) (2025-03-10T17:58:31Z) - Reasoning with Latent Thoughts: On the Power of Looped Transformers [52.84192961524481]
多くの合成推論問題に対して、$k$層変換器が$L$倍ループしたことが、$kL$層非ループモデルの性能にほぼ一致することを示す。
ループ型および非ループ型モデルは、その有効深さに依存するスケーリングの挙動を示す。
論文 参考訳(メタデータ) (2025-02-24T18:49:05Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - ALERT: Adapting Language Models to Reasoning Tasks [43.8679673685468]
ALERTは、言語モデルの推論能力を評価するためのベンチマークと分析スイートである。
ALERTは、あらゆる言語モデルに対して、きめ細かい推論スキルを評価するためのテストベッドを提供する。
言語モデルは、事前学習状態と比較して、微調整段階の推論スキルを学習する。
論文 参考訳(メタデータ) (2022-12-16T05:15:41Z) - Discovering Latent Knowledge in Language Models Without Supervision [72.95136739040676]
既存の言語モデルをトレーニングするテクニックは、真実と正しく一致していない可能性がある。
本稿では,言語モデルの内部アクティベーション内部の潜伏知識を,純粋に教師なしの方法で直接見つけることを提案する。
本手法は, 教師なし, モデル出力がないにもかかわらず, 大規模言語モデルで表される多様な知識を復元できることを示す。
論文 参考訳(メタデータ) (2022-12-07T18:17:56Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。