論文の概要: Task-Agnostic Continual Reinforcement Learning: Gaining Insights and
Overcoming Challenges
- arxiv url: http://arxiv.org/abs/2205.14495v3
- Date: Wed, 17 May 2023 18:23:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 21:01:06.262413
- Title: Task-Agnostic Continual Reinforcement Learning: Gaining Insights and
Overcoming Challenges
- Title(参考訳): タスク非依存の継続的強化学習:獲得と課題克服
- Authors: Massimo Caccia, Jonas Mueller, Taesup Kim, Laurent Charlin, Rasool
Fakoor
- Abstract要約: 連続学習(CL)は、一連のタスクから学習するモデルやエージェントの開発を可能にする。
タスクに依存しないCLとマルチタスク(MTL)エージェントのパフォーマンス差に寄与する要因について検討する。
- 参考スコア(独自算出の注目度): 27.474011433615317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning (CL) enables the development of models and agents that
learn from a sequence of tasks while addressing the limitations of standard
deep learning approaches, such as catastrophic forgetting. In this work, we
investigate the factors that contribute to the performance differences between
task-agnostic CL and multi-task (MTL) agents. We pose two hypotheses: (1)
task-agnostic methods might provide advantages in settings with limited data,
computation, or high dimensionality, and (2) faster adaptation may be
particularly beneficial in continual learning settings, helping to mitigate the
effects of catastrophic forgetting. To investigate these hypotheses, we
introduce a replay-based recurrent reinforcement learning (3RL) methodology for
task-agnostic CL agents. We assess 3RL on a synthetic task and the Meta-World
benchmark, which includes 50 unique manipulation tasks. Our results demonstrate
that 3RL outperforms baseline methods and can even surpass its multi-task
equivalent in challenging settings with high dimensionality. We also show that
the recurrent task-agnostic agent consistently outperforms or matches the
performance of its transformer-based counterpart. These findings provide
insights into the advantages of task-agnostic CL over task-aware MTL approaches
and highlight the potential of task-agnostic methods in resource-constrained,
high-dimensional, and multi-task environments.
- Abstract(参考訳): 連続学習(CL)は、破滅的な忘れなど標準的なディープラーニングアプローチの限界に対処しながら、一連のタスクから学習するモデルやエージェントの開発を可能にする。
本研究では,タスクに依存しないCLとマルチタスク(MTL)エージェントの性能差に寄与する要因について検討する。
1) タスク非依存の手法は, 限られたデータ, 計算量, あるいは高次元の設定において有利であり, 2) 高速適応は連続的な学習環境において特に有益であり, 破滅的な忘れ込みの影響を軽減するのに役立つ。
これらの仮説を考察するために,タスク非依存CLエージェントに対するリプレイベースリカレント強化学習(3RL)手法を提案する。
合成タスクとメタワールドベンチマークで3RLを評価し,50個のユニークな操作タスクを含む。
その結果,3rlはベースラインメソッドよりも優れており,高次元の難易度設定ではマルチタスクに匹敵する性能を持つことがわかった。
また,リカレントタスク非依存エージェントは,変圧器をベースとしたエージェントの性能に一貫して優れ,かつ一致していることを示す。
これらの知見は、タスク認識mtlアプローチに対するタスク非依存clの利点に対する洞察を与え、リソース制約、高次元、マルチタスク環境におけるタスク非依存手法の可能性を強調している。
関連論文リスト
- MENTOR: Mixture-of-Experts Network with Task-Oriented Perturbation for Visual Reinforcement Learning [17.437573206368494]
視覚深部強化学習(RL)は、ロボットが非構造化タスクの視覚入力からスキルを習得することを可能にする。
現在のアルゴリズムはサンプル効率が低く、実用性が制限されている。
本稿では,RLエージェントのアーキテクチャと最適化の両方を改善する手法であるMENTORを提案する。
論文 参考訳(メタデータ) (2024-10-19T04:31:54Z) - Spatial Reasoning and Planning for Deep Embodied Agents [2.7195102129095003]
この論文は空間的推論と計画タスクのためのデータ駆動手法の開発を探求する。
学習効率、解釈可能性、新しいシナリオ間の伝達可能性の向上に重点を置いている。
論文 参考訳(メタデータ) (2024-09-28T23:05:56Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Generalizable Task Representation Learning for Offline
Meta-Reinforcement Learning with Data Limitations [22.23114883485924]
本稿では,データ制限に直面した一般化可能なタスク表現を学習するための新しいアルゴリズムGENTLEを提案する。
GENTLEは、タスクの特徴を抽出するために、エンコーダ・デコーダアーキテクチャであるTask Auto-Encoder(TAE)を使用している。
限られた行動多様性の影響を軽減するため,TAEのトレーニングに使用されるデータ分布とテスト中に発生するデータ分布とを整合させる擬似遷移を構築した。
論文 参考訳(メタデータ) (2023-12-26T07:02:12Z) - In Defense of the Unitary Scalarization for Deep Multi-Task Learning [121.76421174107463]
本稿では,多くの特殊マルチタスクを正規化の形式として解釈できることを示唆する理論解析について述べる。
標準正規化と安定化技術と組み合わせると、ユニタリスカラー化は複雑なマルチタスクの性能にマッチし、改善することを示す。
論文 参考訳(メタデータ) (2022-01-11T18:44:17Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Meta-Reinforcement Learning in Broad and Non-Parametric Environments [8.091658684517103]
非パラメトリック環境におけるタスクに対するタスク推論に基づくメタRLアルゴリズムTIGRを導入する。
我々は,タスク推論学習から政策訓練を分離し,教師なしの再構築目標に基づいて推論機構を効率的に訓練する。
半チーター環境に基づく定性的に異なるタスクのベンチマークを行い、最先端のメタRL手法と比較してTIGRの優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-08T19:32:44Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Learning Context-aware Task Reasoning for Efficient Meta-reinforcement
Learning [29.125234093368732]
本稿では,新しいタスクの学習において,人間レベルの効率を実現するためのメタRL戦略を提案する。
本稿では,メタRL問題をタスク探索,タスク推論,タスク充足という3つのサブタスクに分解する。
提案アルゴリズムは,タスク推論の探索を効果的に行い,トレーニングとテストの双方においてサンプル効率を向上し,メタオーバーフィッティング問題を緩和する。
論文 参考訳(メタデータ) (2020-03-03T07:38:53Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。