論文の概要: Efficient Multi-Task and Transfer Reinforcement Learning with
Parameter-Compositional Framework
- arxiv url: http://arxiv.org/abs/2306.01839v1
- Date: Fri, 2 Jun 2023 18:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 23:51:46.194041
- Title: Efficient Multi-Task and Transfer Reinforcement Learning with
Parameter-Compositional Framework
- Title(参考訳): パラメータ合成フレームワークを用いた効率的なマルチタスク・トランスファー強化学習
- Authors: Lingfeng Sun, Haichao Zhang, Wei Xu, Masayoshi Tomizuka
- Abstract要約: 強化学習環境におけるマルチタスク学習の改善と伝達に活用する可能性について検討する。
本稿ではパラメータ合成式を用いた転送手法を提案する。
実験により,提案手法はマルチタスク学習段階における性能を向上させることができることが示された。
- 参考スコア(独自算出の注目度): 44.43196786555784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we investigate the potential of improving multi-task training
and also leveraging it for transferring in the reinforcement learning setting.
We identify several challenges towards this goal and propose a transferring
approach with a parameter-compositional formulation. We investigate ways to
improve the training of multi-task reinforcement learning which serves as the
foundation for transferring. Then we conduct a number of transferring
experiments on various manipulation tasks. Experimental results demonstrate
that the proposed approach can have improved performance in the multi-task
training stage, and further show effective transferring in terms of both sample
efficiency and performance.
- Abstract(参考訳): 本研究では,マルチタスクトレーニングの改善の可能性について検討し,強化学習環境の移行にも活用する。
我々は,この目標に対するいくつかの課題を特定し,パラメータ・コンポジション定式化によるトランスファーアプローチを提案する。
本研究では,トランスファーの基盤となるマルチタスク強化学習のトレーニングを改善する方法について検討する。
次に,様々な操作タスクの転送実験を行う。
実験の結果,提案手法はマルチタスク訓練段階における性能の向上,さらにサンプル効率と性能の両面で効果的に伝達できることが確認された。
関連論文リスト
- Enhancing Few-Shot Transfer Learning with Optimized Multi-Task Prompt Tuning through Modular Prompt Composition [0.0]
マルチタスクのプロンプトチューニングは、その固有のモジュラリティと、パラメータ効率のよい転送学習を向上する可能性に対して、かなりの注意を払っている。
本稿では,マルチタスク環境において,対応するプロンプト間の知識伝達を容易にすることで,複数のタスクのパフォーマンスを解析・改善することを目的とする。
論文 参考訳(メタデータ) (2024-08-23T17:01:51Z) - Exploring the Effectiveness and Consistency of Task Selection in Intermediate-Task Transfer Learning [21.652389166495407]
転送性能は、異なるソースタスク間で大きなばらつきを示し、種を訓練する。
埋め込みのない方法やテキスト埋め込みと比較して、微調整された重みで構築されたタスク埋め込みは、タスク転送可能性をよりよく見積もることができる。
本稿では,内部積探索の最大化によるトークンの相互類似度の測定手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T07:31:43Z) - PEMT: Multi-Task Correlation Guided Mixture-of-Experts Enables Parameter-Efficient Transfer Learning [28.353530290015794]
マルチタスク変換学習に基づくパラメータ効率の高いファインチューニングフレームワークPEMTを提案する。
我々は17のデータセットにまたがる幅広いタスクについて実験を行う。
論文 参考訳(メタデータ) (2024-02-23T03:59:18Z) - Distill Knowledge in Multi-task Reinforcement Learning with
Optimal-Transport Regularization [0.24475591916185496]
マルチタスク強化学習では、他の異なるタスクから知識を伝達することで、トレーニングエージェントのデータ効率を向上させることができる。
伝統的な手法は、あるタスクから他のタスクへの知識の移動を安定化するために、Kulback-Leibler正規化に依存している。
本研究では,Kulback-Leiblerの発散を,新しいトランスポートベース正規化に置き換える方向について検討する。
論文 参考訳(メタデータ) (2023-09-27T12:06:34Z) - An Exploration of Data Efficiency in Intra-Dataset Task Transfer for
Dialog Understanding [65.75873687351553]
本研究は,対話領域における逐次移動学習における目標タスク訓練データ量の影響について検討する。
非意図的に、我々のデータでは、タスクトレーニングデータのサイズを目標とする場合、シーケンシャルトランスファーラーニングがトランスファーラーニングなしで同じモデルと比較した場合、最小限の効果が示される。
論文 参考訳(メタデータ) (2022-10-21T04:36:46Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - On Transferability of Prompt Tuning for Natural Language Understanding [63.29235426932978]
タスクやモデル間でのソフトプロンプトの転送可能性について検討する。
訓練されたソフトプロンプトは、同様のタスクにうまく移行し、PTを初期化してトレーニングを加速し、パフォーマンスを向上させることができる。
以上の結果から,知識伝達によるPTの改善は可能で有望であり,プロンプトのクロスタスク転送性はクロスモデル転送性よりも良好であることが示唆された。
論文 参考訳(メタデータ) (2021-11-12T13:39:28Z) - Measuring and Harnessing Transference in Multi-Task Learning [58.48659733262734]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
情報伝達や伝達のダイナミクスを、トレーニングを通して分析する。
論文 参考訳(メタデータ) (2020-10-29T08:25:43Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。