論文の概要: Distributional Reinforcement Learning with Ensembles
- arxiv url: http://arxiv.org/abs/2003.10903v2
- Date: Fri, 22 May 2020 15:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 08:06:06.823344
- Title: Distributional Reinforcement Learning with Ensembles
- Title(参考訳): アンサンブルを用いた分布強化学習
- Authors: Bj\"orn Lindenberg, Jonas Nordqvist, Karl-Olof Lindahl
- Abstract要約: 本稿では,アンサンブルが収集した全情報に基づいて分布学習対象を暗黙的に求めるカテゴリー強化学習の拡張を提案する。
これは、より堅牢な初歩学習、より強い個々のパフォーマンスレベル、そしてサンプル単位での優れた効率をもたらす可能性があることを実証的に示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well known that ensemble methods often provide enhanced performance in
reinforcement learning. In this paper, we explore this concept further by using
group-aided training within the distributional reinforcement learning paradigm.
Specifically, we propose an extension to categorical reinforcement learning,
where distributional learning targets are implicitly based on the total
information gathered by an ensemble. We empirically show that this may lead to
much more robust initial learning, a stronger individual performance level, and
good efficiency on a per-sample basis.
- Abstract(参考訳): アンサンブル法は強化学習における性能を高めることがよく知られている。
本稿では,分散強化学習パラダイムにおけるグループ支援トレーニングを用いて,この概念をさらに探究する。
具体的には,アンサンブルが収集した全情報に基づいて分布学習対象を暗黙的に求めるカテゴリー強化学習の拡張を提案する。
経験的に、これはより堅牢な初期学習につながり、個々のパフォーマンスレベルが向上し、サンプル単位の効率が向上することを示している。
関連論文リスト
- Sharing Knowledge in Multi-Task Deep Reinforcement Learning [57.38874587065694]
マルチタスク強化学習において、ディープニューラルネットワークを効果的に活用するためのタスク間の表現の共有の利点について検討する。
我々は,タスク間で表現を共有するのに便利な条件を強調する理論的保証を提供することで,これを証明している。
論文 参考訳(メタデータ) (2024-01-17T19:31:21Z) - Relaxed Contrastive Learning for Federated Learning [53.48804883845343]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Distributional Bellman Operators over Mean Embeddings [37.5480897544168]
本研究では,帰還分布の有限次元平均埋め込みを学習し,分布強化学習のための新しい枠組みを提案する。
動的プログラミングと時間差学習のための新しいアルゴリズムをこのフレームワークに基づいて提案する。
論文 参考訳(メタデータ) (2023-12-09T11:36:14Z) - Multi-Agent Adversarial Training Using Diffusion Learning [55.28669771020857]
拡散学習を用いたマルチエージェントシステムのための汎用的な逆学習フレームワークを提案する。
凸最適化問題に対する提案手法の収束特性を解析し、敵攻撃に対する強靭性を示す。
論文 参考訳(メタデータ) (2023-03-03T14:05:59Z) - Joint Training of Deep Ensembles Fails Due to Learner Collusion [61.557412796012535]
機械学習モデルのアンサンブルは、単一のモデルよりもパフォーマンスを改善する強力な方法として確立されている。
伝統的に、アンサンブルアルゴリズムは、ジョイントパフォーマンスの最適化を目標として、ベースラーナーを独立または逐次訓練する。
アンサンブルの損失を最小化することは、実際にはほとんど適用されないことを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:07Z) - Isolation and Impartial Aggregation: A Paradigm of Incremental Learning
without Interference [61.11137714507445]
本稿では,インクリメンタルラーニングの段階におけるパフォーマンスの不均衡について論じる。
ステージアイソレーションに基づくインクリメンタルラーニングフレームワークを提案する。
提案手法を4つの大規模ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-11-29T06:57:48Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。