論文の概要: Laying the Foundation First? Investigating the Generalization from Atomic Skills to Complex Reasoning Tasks
- arxiv url: http://arxiv.org/abs/2403.09479v1
- Date: Thu, 14 Mar 2024 15:20:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 19:57:52.456631
- Title: Laying the Foundation First? Investigating the Generalization from Atomic Skills to Complex Reasoning Tasks
- Title(参考訳): ファウンデーションファーストの在り方 : 原子スキルから複雑な推論課題への一般化をめざして
- Authors: Yuncheng Huang, Qianyu He, Yipei Xu, Jiaqing Liang, Yanghua Xiao,
- Abstract要約: 本稿では,原子スキルが複雑な推論タスクに自然に一般化できるかどうかを探索する枠組みを提案する。
次に、より優れたスキルの一般化を実現するために、階層的なカリキュラム学習訓練戦略を導入する。
階層的なカリキュラム学習を活用することで、一般化を成功させ、複雑な推論タスクにおけるオープンソースのLMの性能を大幅に向上させる。
- 参考スコア(独自算出の注目度): 40.7766635942194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current language models have demonstrated their capability to develop basic reasoning, but struggle in more complicated reasoning tasks that require a combination of atomic skills, such as math word problem requiring skills like arithmetic and unit conversion. Previous methods either do not improve the inherent atomic skills of models or not attempt to generalize the atomic skills to complex reasoning tasks. In this paper, we first propose a probing framework to investigate whether the atomic skill can spontaneously generalize to complex reasoning tasks. Then, we introduce a hierarchical curriculum learning training strategy to achieve better skill generalization. In our experiments, we find that atomic skills can not spontaneously generalize to compositional tasks. By leveraging hierarchical curriculum learning, we successfully induce generalization, significantly improve the performance of open-source LMs on complex reasoning tasks. Promisingly, the skill generalization exhibit effective in cross-dataset and cross-domain scenarios. Complex reasoning can also help enhance atomic skills. Our findings offer valuable guidance for designing better training strategies for complex reasoning tasks.
- Abstract(参考訳): 現在の言語モデルは、基本的な推論を開発する能力を示したが、算術や単位変換のようなスキルを必要とする数学の単語問題のような、原子のスキルの組み合わせを必要とするより複雑な推論タスクに苦慮している。
従来の手法では、モデル固有の原子スキルを改善できないか、複雑な推論タスクに原子スキルを一般化しようとしないかのいずれかであった。
本稿ではまず,原子スキルが複雑な推論タスクに自然に一般化できるかどうかを探索する枠組みを提案する。
そして、より優れたスキルの一般化を実現するために、階層的なカリキュラム学習訓練戦略を導入する。
我々の実験では、原子スキルが自然に合成タスクに一般化できないことが判明した。
階層的なカリキュラム学習を活用することで、一般化を成功させ、複雑な推論タスクにおけるオープンソースのLMの性能を大幅に向上させる。
スキルの一般化は、クロスデータセットとクロスドメインのシナリオで有効である。
複雑な推論は、原子スキルの向上にも役立ちます。
我々の研究結果は、複雑な推論タスクのためのより良いトレーニング戦略を設計するための貴重なガイダンスを提供する。
関連論文リスト
- AtomR: Atomic Operator-Empowered Large Language Models for Heterogeneous Knowledge Reasoning [38.736190591684]
AtomRは、新しい異種知識推論フレームワークである。
複雑な問題を3つの原子知識演算子の組み合わせに分解する。
AtomRは3つの単一ソースと2つのマルチソース推論ベンチマークで最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2024-11-25T15:35:51Z) - Agentic Skill Discovery [19.5703917813767]
言語条件付きロボット技術により、Large Language Models (LLMs) の高レベル推論を低レベルロボット制御に適用することができる。
残る課題は、さまざまな基本的なスキルを取得することです。
LLMによって完全に駆動されるスキル発見のための新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-23T19:44:03Z) - Skills-in-Context Prompting: Unlocking Compositionality in Large Language Models [68.18370230899102]
大規模言語モデル(LLM)における構成一般化能力の活用法について検討する。
我々は,これらのスキルに基礎を置く基礎的スキルと構成的事例の両方を同じプロンプト・コンテキストで示すことが重要であることを発見した。
SKiC型データを用いた微調整LDMは、ゼロショット弱強一般化を導出できることを示す。
論文 参考訳(メタデータ) (2023-08-01T05:54:12Z) - A Theory for Emergence of Complex Skills in Language Models [56.947273387302616]
今日のAI製品の主要な要因は、パラメータセットとトレーニングコーパスのスケールアップ時に、言語モデルに新たなスキルが現れることだ。
本稿では,LSMの有名な(かつ実証的な)スケーリング法則と単純な統計的枠組みを用いて,その出現を解析する。
論文 参考訳(メタデータ) (2023-07-29T09:22:54Z) - Divide & Conquer Imitation Learning [75.31752559017978]
模倣学習は学習プロセスをブートストラップするための強力なアプローチである。
本稿では,専門的軌道の状態から複雑なロボットタスクを模倣する新しいアルゴリズムを提案する。
提案手法は,非ホロノミックナビゲーションタスクを模倣し,非常に高いサンプル効率で複雑なロボット操作タスクにスケールすることを示す。
論文 参考訳(メタデータ) (2022-04-15T09:56:50Z) - Hierarchical Skills for Efficient Exploration [70.62309286348057]
強化学習において、事前訓練された低レベルスキルは、探索を大幅に促進する可能性がある。
下流タスクの以前の知識は、スキルデザインにおける一般性(きめ細かい制御)と特異性(より高速な学習)の適切なバランスをとるために必要である。
教師なしの方法で様々な複雑さのスキルを習得する階層的スキル学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-20T22:29:32Z) - Complex Skill Acquisition Through Simple Skill Imitation Learning [0.0]
本稿では,ニューラルネットワークのポリシーをシンプルで学習しやすいスキルで学習するアルゴリズムを提案する。
複雑なタスクが単純なサブタスクの同時(そしておそらくはシーケンシャルな)組み合わせである場合に焦点を当てる。
我々のアルゴリズムは、トレーニング速度と全体的な性能において、最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2020-07-20T17:06:26Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。