論文の概要: Distributional Reinforcement Learning with Ensembles
- arxiv url: http://arxiv.org/abs/2003.10903v2
- Date: Fri, 22 May 2020 15:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 08:06:06.823344
- Title: Distributional Reinforcement Learning with Ensembles
- Title(参考訳): アンサンブルを用いた分布強化学習
- Authors: Bj\"orn Lindenberg, Jonas Nordqvist, Karl-Olof Lindahl
- Abstract要約: 本稿では,アンサンブルが収集した全情報に基づいて分布学習対象を暗黙的に求めるカテゴリー強化学習の拡張を提案する。
これは、より堅牢な初歩学習、より強い個々のパフォーマンスレベル、そしてサンプル単位での優れた効率をもたらす可能性があることを実証的に示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well known that ensemble methods often provide enhanced performance in
reinforcement learning. In this paper, we explore this concept further by using
group-aided training within the distributional reinforcement learning paradigm.
Specifically, we propose an extension to categorical reinforcement learning,
where distributional learning targets are implicitly based on the total
information gathered by an ensemble. We empirically show that this may lead to
much more robust initial learning, a stronger individual performance level, and
good efficiency on a per-sample basis.
- Abstract(参考訳): アンサンブル法は強化学習における性能を高めることがよく知られている。
本稿では,分散強化学習パラダイムにおけるグループ支援トレーニングを用いて,この概念をさらに探究する。
具体的には,アンサンブルが収集した全情報に基づいて分布学習対象を暗黙的に求めるカテゴリー強化学習の拡張を提案する。
経験的に、これはより堅牢な初期学習につながり、個々のパフォーマンスレベルが向上し、サンプル単位の効率が向上することを示している。
関連論文リスト
- Federated Learning from Vision-Language Foundation Models: Theoretical Analysis and Method [7.261306002808739]
特徴学習理論を用いて,素早いフェデレーション学習のための理論的分析フレームワークを構築した。
具体的には,信号学習と雑音記憶の進化を,プロンプトに基づくフェデレーション学習で監視する。
本研究では,タスク関連係数とタスク関連係数の比率によって性能を評価することができることを示す。
論文 参考訳(メタデータ) (2024-09-29T08:31:26Z) - The Curse of Diversity in Ensemble-Based Exploration [7.209197316045156]
データ共有エージェントの多様なアンサンブルの訓練は、個々のアンサンブルメンバーのパフォーマンスを著しく損なう可能性がある。
私たちはこの現象を多様性の呪いと呼んでいる。
多様性の呪いに対処する表現学習の可能性を示す。
論文 参考訳(メタデータ) (2024-05-07T14:14:50Z) - A Unified and General Framework for Continual Learning [58.72671755989431]
継続学習(CL)は、以前取得した知識を維持しながら、動的かつ変化するデータ分布から学ぶことに焦点を当てている。
正規化ベース、ベイズベース、メモリ再生ベースなど、破滅的な忘れ込みの課題に対処する様々な手法が開発されている。
本研究の目的は,既存の方法論を包含し,整理する包括的かつ包括的な枠組みを導入することで,このギャップを埋めることである。
論文 参考訳(メタデータ) (2024-03-20T02:21:44Z) - Diversity-Aware Agnostic Ensemble of Sharpness Minimizers [24.160975100349376]
深層アンサンブルにおける多様性と平坦性を促進する学習アルゴリズムであるDASHを提案する。
我々は,本手法の理論的バックボーンと,アンサンブルの一般化性の向上を示す広範な実証的証拠を提供する。
論文 参考訳(メタデータ) (2024-03-19T23:50:11Z) - Sharing Knowledge in Multi-Task Deep Reinforcement Learning [57.38874587065694]
マルチタスク強化学習において、ディープニューラルネットワークを効果的に活用するためのタスク間の表現の共有の利点について検討する。
我々は,タスク間で表現を共有するのに便利な条件を強調する理論的保証を提供することで,これを証明している。
論文 参考訳(メタデータ) (2024-01-17T19:31:21Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Multi-Agent Adversarial Training Using Diffusion Learning [55.28669771020857]
拡散学習を用いたマルチエージェントシステムのための汎用的な逆学習フレームワークを提案する。
凸最適化問題に対する提案手法の収束特性を解析し、敵攻撃に対する強靭性を示す。
論文 参考訳(メタデータ) (2023-03-03T14:05:59Z) - Joint Training of Deep Ensembles Fails Due to Learner Collusion [61.557412796012535]
機械学習モデルのアンサンブルは、単一のモデルよりもパフォーマンスを改善する強力な方法として確立されている。
伝統的に、アンサンブルアルゴリズムは、ジョイントパフォーマンスの最適化を目標として、ベースラーナーを独立または逐次訓練する。
アンサンブルの損失を最小化することは、実際にはほとんど適用されないことを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:07Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。