論文の概要: Sharing Knowledge in Multi-Task Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2401.09561v1
- Date: Wed, 17 Jan 2024 19:31:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 18:46:17.332950
- Title: Sharing Knowledge in Multi-Task Deep Reinforcement Learning
- Title(参考訳): マルチタスク深層強化学習における知識共有
- Authors: Carlo D'Eramo, Davide Tateo, Andrea Bonarini, Marcello Restelli, Jan
Peters
- Abstract要約: マルチタスク強化学習において、ディープニューラルネットワークを効果的に活用するためのタスク間の表現の共有の利点について検討する。
我々は,タスク間で表現を共有するのに便利な条件を強調する理論的保証を提供することで,これを証明している。
- 参考スコア(独自算出の注目度): 57.38874587065694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the benefit of sharing representations among tasks to enable the
effective use of deep neural networks in Multi-Task Reinforcement Learning. We
leverage the assumption that learning from different tasks, sharing common
properties, is helpful to generalize the knowledge of them resulting in a more
effective feature extraction compared to learning a single task. Intuitively,
the resulting set of features offers performance benefits when used by
Reinforcement Learning algorithms. We prove this by providing theoretical
guarantees that highlight the conditions for which is convenient to share
representations among tasks, extending the well-known finite-time bounds of
Approximate Value-Iteration to the multi-task setting. In addition, we
complement our analysis by proposing multi-task extensions of three
Reinforcement Learning algorithms that we empirically evaluate on widely used
Reinforcement Learning benchmarks showing significant improvements over the
single-task counterparts in terms of sample efficiency and performance.
- Abstract(参考訳): マルチタスク強化学習において,ディープニューラルネットワークを効果的に活用するためのタスク間の表現共有の利点について検討する。
異なるタスクから学習し、共通の特性を共有することは、それらの知識を一般化し、1つのタスクを学習するよりも効果的な特徴抽出を可能にすると仮定する。
直感的には、結果として得られた機能セットは強化学習アルゴリズムが使用するパフォーマンスの利点を提供する。
本稿では,タスク間の表現の共有に便利な条件を強調した理論的保証を提供することにより,近似値の有限時間境界をマルチタスク設定に拡張することでこれを証明する。
さらに,広範に使用されている強化学習ベンチマークで実証的に評価した3つの強化学習アルゴリズムのマルチタスク拡張を提案し,サンプル効率と性能の観点から,単一タスクのアルゴリズムよりも大幅に向上したことを示す。
関連論文リスト
- Learning Representation for Multitask learning through Self Supervised Auxiliary learning [3.236198583140341]
ハードパラメータ共有アプローチでは、複数のタスクを通して共有されるエンコーダは、タスク固有の予測子に渡されるデータ表現を生成する。
共有エンコーダが生成する表現の普遍性を改善することを目的としたダミー勾配ノルム正規化を提案する。
DGRは共有表現の品質を効果的に向上し、マルチタスク予測性能が向上することを示す。
論文 参考訳(メタデータ) (2024-09-25T06:08:35Z) - Sample Efficient Myopic Exploration Through Multitask Reinforcement
Learning with Diverse Tasks [53.44714413181162]
本稿では, エージェントが十分に多様なタスクセットで訓練された場合, 筋電図探索設計による一般的なポリシー共有アルゴリズムは, サンプル効率がよいことを示す。
我々の知る限りでは、これはMTRLの「探索的利益」の初めての理論的実証である。
論文 参考訳(メタデータ) (2024-03-03T22:57:44Z) - Generalization Performance of Transfer Learning: Overparameterized and
Underparameterized Regimes [61.22448274621503]
現実世界のアプリケーションでは、タスクは部分的な類似性を示し、あるアスペクトは似ているが、他のアスペクトは異なるか無関係である。
本研究は,パラメータ伝達の2つの選択肢を包含して,多種多様な移動学習について検討する。
一般化性能を向上させるために,共通部分とタスク特化部分の特徴数を決定するための実践的ガイドラインを提供する。
論文 参考訳(メタデータ) (2023-06-08T03:08:40Z) - Proto-Value Networks: Scaling Representation Learning with Auxiliary
Tasks [33.98624423578388]
補助的なタスクは、深層強化学習エージェントによって学習された表現を改善する。
我々は、後継措置に基づく新しい補助業務のファミリーを導出する。
プロト値ネットワークは、確立されたアルゴリズムに匹敵する性能を得るために、リッチな特徴を生み出すことを示す。
論文 参考訳(メタデータ) (2023-04-25T04:25:08Z) - Auxiliary Learning as an Asymmetric Bargaining Game [50.826710465264505]
補助学習におけるタスクのバランスをとるために,AuxiNashという新しい手法を提案する。
本報告では,主課題の性能に対する貢献に基づいて,タスクの獲得能力を学ぶための効率的な手順について述べる。
複数のマルチタスクベンチマークでAuxiNashを評価し、競合する手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-01-31T09:41:39Z) - Composite Learning for Robust and Effective Dense Predictions [81.2055761433725]
マルチタスク学習は、目標タスクを補助タスクと協調的に最適化することで、より優れたモデル一般化を約束する。
自己監督型(補助的)タスクと密接な予測(目標)タスクを共同でトレーニングすることで、目標タスクの性能を継続的に向上し、補助タスクのラベル付けの必要性を排除できることが判明した。
論文 参考訳(メタデータ) (2022-10-13T17:59:16Z) - Saliency-Regularized Deep Multi-Task Learning [7.3810864598379755]
マルチタスク学習は、知識を共有するために複数の学習タスクを強制し、一般化能力を改善する。
現代のディープマルチタスク学習は、潜在機能とタスク共有を共同で学習することができるが、それらはタスク関係において不明瞭である。
本稿では,潜在的特徴と明示的な課題関係を共同で学習するマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-03T20:26:44Z) - Leveraging convergence behavior to balance conflicting tasks in
multi-task learning [3.6212652499950138]
マルチタスク学習は、パフォーマンスの一般化を改善するために相関タスクを使用する。
タスクは互いに衝突することが多いため、複数のタスクの勾配をどのように組み合わせるべきかを定義するのは難しい。
バックプロパゲーション中の各タスクの重要度を調整する動的バイアスを生成するために,勾配の時間的挙動を考慮した手法を提案する。
論文 参考訳(メタデータ) (2022-04-14T01:52:34Z) - Reciprocal Feature Learning via Explicit and Implicit Tasks in Scene
Text Recognition [60.36540008537054]
本研究では,従来のテキスト認識における文字数カウントという暗黙のタスクを,追加的な注釈コストなしで発掘する。
両タスクの機能を適切に活用するために,2分岐の相反的特徴学習フレームワークを設計する。
7つのベンチマークの実験では、テキスト認識と新しい文字カウントタスクの両方において提案手法の利点が示されている。
論文 参考訳(メタデータ) (2021-05-13T12:27:35Z) - Efficient Reinforcement Learning in Resource Allocation Problems Through
Permutation Invariant Multi-task Learning [6.247939901619901]
特定の環境では、利用可能なデータはマルチタスク学習の形式で劇的に向上できることを示す。
我々は,この条件下でのサンプル効率の利得に結びついた理論的性能を提供する。
これは、適切なニューラルネットワークアーキテクチャの設計と優先順位付けされたタスクサンプリング戦略を含む、マルチタスク学習への新しいアプローチを動機付ける。
論文 参考訳(メタデータ) (2021-02-18T14:13:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。