論文の概要: Growing Through Experience: Scaling Episodic Grounding in Language Models
- arxiv url: http://arxiv.org/abs/2506.01312v1
- Date: Mon, 02 Jun 2025 04:52:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.720585
- Title: Growing Through Experience: Scaling Episodic Grounding in Language Models
- Title(参考訳): 経験を通して成長する: 言語モデルにおけるエピソードグラウンドのスケーリング
- Authors: Chunhui Zhang, Sirui, Wang, Zhongyu Ouyang, Xiangchi Yuan, Soroush Vosoughi,
- Abstract要約: 言語モデル(LM)は、物理的な計画タスクに長けるために、堅牢なエピソジックグラウンドを必要とする。
現在のエピソジックな基盤アプローチは、スケーラビリティと統合に苦労しています。
本稿では,より小規模から大規模にエピソジックな動作を効果的に伝達する,スケーラブルな弱から強のエピソジックな学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 67.27024505353384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models (LMs) require robust episodic grounding-the capacity to learn from and apply past experiences-to excel at physical planning tasks. Current episodic grounding approaches struggle with scalability and integration, limiting their effectiveness, especially for medium-sized LMs (7B parameters). While larger LMs (70-405B parameters) possess superior hierarchical representations and extensive pre-trained knowledge, they encounter a fundamental scale paradox: despite their advanced abstraction capabilities, they lack efficient mechanisms to leverage experience streams. We propose a scalable weak-to-strong episodic learning framework that effectively transfers episodic behaviors from smaller to larger LMs. This framework integrates Monte Carlo tree search for structured experience collection with a novel distillation method, preserving the inherent LM capabilities while embedding episodic memory. Experiments demonstrate our method surpasses state-of-the-art proprietary LMs by 3.45% across diverse planning and question-answering tasks. Layer-wise probing further indicates significant improvements in task alignment, especially within deeper LM layers, highlighting stable generalization even for previously unseen scenarios with increased planning complexity-conditions where baseline methods degrade markedly.
- Abstract(参考訳): 言語モデル(LM)は、物理的な計画タスクにおいて、過去の経験から学び、適用する能力である堅牢なエピソード基底を必要とする。
現在のエピソード基底法はスケーラビリティと統合に苦慮し、特に中規模のLM(7Bパラメータ)では有効性を制限している。
より大きなLM(70-405Bパラメータ)は優れた階層表現と広範な事前訓練された知識を持っているが、それらは基本的なスケールのパラドックスに直面している。
本稿では,より小規模から大規模にエピソジックな動作を効果的に伝達する,スケーラブルな弱から強のエピソジックな学習フレームワークを提案する。
この枠組みはモンテカルロ木を用いた新しい蒸留法と構造的経験収集を融合し, エピソードメモリを埋め込みながら固有のLM機能を維持する。
提案手法は,多種多様な計画課題および質問応答課題において,最先端の独自LMを3.45%超過することを示した。
レイヤワイズ探索はさらにタスクアライメント、特に深いLMレイヤ内での大幅な改善を示しており、ベースラインメソッドが著しく低下する計画上の複雑性条件が増大する前例のないシナリオにおいても、安定した一般化が強調されている。
関連論文リスト
- Analyzing Mitigation Strategies for Catastrophic Forgetting in End-to-End Training of Spoken Language Models [79.90523648823522]
多段階連続学習は破滅的な忘れを招きかねない。
本稿では, 3つの緩和戦略, モデルマージ, LoRAスケーリング係数の割引, 経験リプレイについて検討する。
その結果,経験的リプレイが最も効果的であることが示され,他の手法と組み合わせることでさらに効果が得られた。
論文 参考訳(メタデータ) (2025-05-23T05:50:14Z) - LESA: Learnable LLM Layer Scaling-Up [57.0510934286449]
LLM(Large Language Models)をスクラッチからトレーニングするには膨大な計算資源が必要であるため、非常に高価である。
モデルスケーリングアップは、より小さなモデルのパラメータを活用してより大きなモデルを作成することで、有望なソリューションを提供する。
深度スケールアップのための新しい学習方法である textbfLESA を提案する。
論文 参考訳(メタデータ) (2025-02-19T14:58:48Z) - Learn from Downstream and Be Yourself in Multimodal Large Language Model Fine-Tuning [104.27224674122313]
微調整MLLMは、特定の下流タスクのパフォーマンスを改善するための一般的なプラクティスとなっている。
一般化と特殊化のトレードオフのバランスをとるために,事前学習と微調整の両方におけるパラメータの重要度を測定することを提案する。
論文 参考訳(メタデータ) (2024-11-17T01:16:37Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Language Models Meet World Models: Embodied Experiences Enhance Language
Models [48.70726641605047]
大規模言語モデル(LM)は、物理的環境における単純な推論と計画にしばしば苦労する。
我々は、世界モデルでそれらを微調整することで、LMを強化する新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T00:35:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。