論文の概要: Curriculum Learning with a Progression Function
- arxiv url: http://arxiv.org/abs/2008.00511v2
- Date: Sun, 31 Oct 2021 14:24:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:31:02.832418
- Title: Curriculum Learning with a Progression Function
- Title(参考訳): 進行関数を用いたカリキュラム学習
- Authors: Andrea Bassich, Francesco Foglino, Matteo Leonetti and Daniel Kudenko
- Abstract要約: 本稿では,プログレッシションとマッピング機能に基づくカリキュラム生成のための新しいパラダイムを提案する。
提案手法の利点と幅広い適用性は、その性能を2つの最先端のカリキュラム学習アルゴリズムと経験的に比較することによって示される。
- 参考スコア(独自算出の注目度): 6.212955085775758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Curriculum Learning for Reinforcement Learning is an increasingly popular
technique that involves training an agent on a sequence of intermediate tasks,
called a Curriculum, to increase the agent's performance and learning speed.
This paper introduces a novel paradigm for curriculum generation based on
progression and mapping functions. While progression functions specify the
complexity of the environment at any given time, mapping functions generate
environments of a specific complexity. Different progression functions are
introduced, including an autonomous online task progression based on the
agent's performance. Our approach's benefits and wide applicability are shown
by empirically comparing its performance to two state-of-the-art Curriculum
Learning algorithms on six domains.
- Abstract(参考訳): 強化学習のためのカリキュラム学習(英: Curriculum Learning for Reinforcement Learning)は、エージェントのパフォーマンスと学習速度を向上させるために、Curriculumと呼ばれる一連の中間タスクでエージェントを訓練する手法である。
本稿では,進化とマッピング機能に基づくカリキュラム生成のための新しいパラダイムを提案する。
進行関数はいつでも環境の複雑さを指定できるが、マッピング関数は特定の複雑さの環境を生成する。
エージェントのパフォーマンスに基づいた自律的なオンラインタスクプログレクションを含む、さまざまなプログレクション機能が導入される。
この手法の利点と幅広い適用性は、6つのドメインにおける2つの最先端カリキュラム学習アルゴリズムのパフォーマンスを実証的に比較することによって示される。
関連論文リスト
- REVEAL-IT: REinforcement learning with Visibility of Evolving Agent poLicy for InTerpretability [23.81322529587759]
REVEAL-ITは複雑な環境下でのエージェントの学習過程を説明するための新しいフレームワークである。
各種学習課題における政策構造とエージェントの学習過程を可視化する。
GNNベースの説明者は、ポリシーの最も重要な部分を強調することを学び、エージェントの学習プロセスについてより明確で堅牢な説明を提供する。
論文 参考訳(メタデータ) (2024-06-20T11:29:26Z) - Multi-Agent Transfer Learning via Temporal Contrastive Learning [8.487274986507922]
本稿では,深層多エージェント強化学習のための新しい伝達学習フレームワークを提案する。
このアプローチは、ゴール条件付きポリシーと時間的コントラスト学習を自動的に組み合わせて、意味のあるサブゴールを発見する。
論文 参考訳(メタデータ) (2024-06-03T14:42:14Z) - Functional Knowledge Transfer with Self-supervised Representation
Learning [11.566644244783305]
本研究では,機能的知識伝達の方向における自己指導型表現学習の未探索ユーザビリティについて検討する。
本研究では,自己教師型学習課題と教師型学習課題の協調最適化により,機能的知識伝達を実現する。
論文 参考訳(メタデータ) (2023-03-12T21:14:59Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Lifelong Learning Metrics [63.8376359764052]
DARPA Lifelong Learning Machines (L2M) プログラムは、人工知能(AI)システムの進歩を目指している。
本論文は、生涯学習シナリオを実行するエージェントのパフォーマンスの構築と特徴付けのためのフォーマリズムを概説する。
論文 参考訳(メタデータ) (2022-01-20T16:29:14Z) - Learning to Follow Language Instructions with Compositional Policies [22.778677208048475]
本稿では,目標達成タスクからなる環境下で自然言語命令を実行することを学習するフレームワークを提案する。
我々は強化学習エージェントを訓練し、その後ブール代数を通して構成できる値関数を学習する。
我々は、Webスケールコーパスで事前訓練されたSeq2seqモデルを微調整し、言語を論理式にマッピングする。
論文 参考訳(メタデータ) (2021-10-09T21:28:26Z) - Curriculum Learning: A Survey [65.31516318260759]
カリキュラム学習戦略は、機械学習のあらゆる分野で成功している。
我々は,様々な分類基準を考慮して,カリキュラム学習アプローチの分類を手作業で構築する。
集約型クラスタリングアルゴリズムを用いて,カリキュラム学習手法の階層木を構築する。
論文 参考訳(メタデータ) (2021-01-25T20:08:32Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。