論文の概要: On The Effect of Auxiliary Tasks on Representation Dynamics
- arxiv url: http://arxiv.org/abs/2102.13089v1
- Date: Thu, 25 Feb 2021 18:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-27 02:27:55.707635
- Title: On The Effect of Auxiliary Tasks on Representation Dynamics
- Title(参考訳): 補助タスクが表現ダイナミクスに及ぼす影響について
- Authors: Clare Lyle, Mark Rowland, Georg Ostrovski, Will Dabney
- Abstract要約: 本研究は,時間差アルゴリズムのダイナミクスを解析することにより,補助的タスク,環境構造,表現の関係の理解を深める。
次に,これらの理論結果から得られた知見を活用し,疎外環境における深層強化学習エージェントの補助タスクの選択を知らせる。
- 参考スコア(独自算出の注目度): 24.831523625402166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While auxiliary tasks play a key role in shaping the representations learnt
by reinforcement learning agents, much is still unknown about the mechanisms
through which this is achieved. This work develops our understanding of the
relationship between auxiliary tasks, environment structure, and
representations by analysing the dynamics of temporal difference algorithms.
Through this approach, we establish a connection between the spectral
decomposition of the transition operator and the representations induced by a
variety of auxiliary tasks. We then leverage insights from these theoretical
results to inform the selection of auxiliary tasks for deep reinforcement
learning agents in sparse-reward environments.
- Abstract(参考訳): 補助タスクは強化学習エージェントによって学習された表現を形成する上で重要な役割を果たしますが、これが達成されるメカニズムについてはまだ不明です。
本研究は,時間差アルゴリズムのダイナミクスを解析することにより,補助的タスク,環境構造,表現の関係の理解を深める。
このアプローチにより、遷移作用素のスペクトル分解と、様々な補助タスクによって誘導される表現との接続を確立します。
次に,これらの理論結果から得られた知見を活用し,疎外環境における深層強化学習エージェントの補助タスクの選択を知らせる。
関連論文リスト
- Contextual Pre-planning on Reward Machine Abstractions for Enhanced
Transfer in Deep Reinforcement Learning [20.272179949107514]
深層強化学習(DRL)エージェントは、訓練されたタスクに過度に適合し、小さな環境変化に適応できない傾向にある。
我々は、報酬機(RM)を用いた現在の課題を表現するための新しい手法を提案する。
提案手法は, エージェントに対して, 現在の抽象状態からの最適遷移の記号表現を提供し, それらの遷移を達成するための報酬を与える。
論文 参考訳(メタデータ) (2023-07-11T12:28:05Z) - Proto-Value Networks: Scaling Representation Learning with Auxiliary
Tasks [33.98624423578388]
補助的なタスクは、深層強化学習エージェントによって学習された表現を改善する。
我々は、後継措置に基づく新しい補助業務のファミリーを導出する。
プロト値ネットワークは、確立されたアルゴリズムに匹敵する性能を得るために、リッチな特徴を生み出すことを示す。
論文 参考訳(メタデータ) (2023-04-25T04:25:08Z) - Auxiliary Learning as an Asymmetric Bargaining Game [50.826710465264505]
補助学習におけるタスクのバランスをとるために,AuxiNashという新しい手法を提案する。
本報告では,主課題の性能に対する貢献に基づいて,タスクの獲得能力を学ぶための効率的な手順について述べる。
複数のマルチタスクベンチマークでAuxiNashを評価し、競合する手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-01-31T09:41:39Z) - Where's the Learning in Representation Learning for Compositional
Semantics and the Case of Thematic Fit [0.0]
意味的役割予測や主題的適合推定のような特定のNLPタスクに対して、ランダムな埋め込みは事前訓練された埋め込みと同様に機能することを観察する。
課題と学習目標との関係により, ニュアンスな回答が得られている。
論文 参考訳(メタデータ) (2022-08-09T12:37:46Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - Non-Stationary Representation Learning in Sequential Linear Bandits [22.16801879707937]
非定常環境におけるマルチタスク意思決定のための表現学習について検討する。
本研究では,非定常表現を適応的に学習し,伝達することにより,効率的な意思決定を容易にするオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-13T06:13:03Z) - On the relationship between disentanglement and multi-task learning [62.997667081978825]
ハードパラメータ共有に基づくマルチタスク学習と絡み合いの関係について,より詳しく検討する。
マルチタスクニューラルネットワークトレーニングの過程において, 絡み合いが自然に現れることを示す。
論文 参考訳(メタデータ) (2021-10-07T14:35:34Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Return-Based Contrastive Representation Learning for Reinforcement
Learning [126.7440353288838]
そこで本研究では,学習表現に異なる戻り値を持つ状態-動作ペアを判別させる新しい補助タスクを提案する。
アルゴリズムはatariゲームやdeepmindコントロールスイートの複雑なタスクのベースラインを上回っています。
論文 参考訳(メタデータ) (2021-02-22T13:04:18Z) - Auxiliary Learning by Implicit Differentiation [54.92146615836611]
補助的なタスクによるニューラルネットワークのトレーニングは、関心のあるメインタスクのパフォーマンスを改善するための一般的なプラクティスである。
そこで我々は,暗黙の識別に基づく両課題を対象とした新しいフレームワークAuxiLearnを提案する。
まず、有用な補助関数が知られている場合、全ての損失を1つのコヒーレントな目的関数に組み合わせたネットワークの学習を提案する。
第二に、有用な補助タスクが知られていない場合、意味のある新しい補助タスクを生成するネットワークの学習方法について述べる。
論文 参考訳(メタデータ) (2020-06-22T19:35:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。