論文の概要: Meta-World+: An Improved, Standardized, RL Benchmark
- arxiv url: http://arxiv.org/abs/2505.11289v1
- Date: Fri, 16 May 2025 14:24:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.26264
- Title: Meta-World+: An Improved, Standardized, RL Benchmark
- Title(参考訳): Meta-World+:改良された標準化されたRLベンチマーク
- Authors: Reginald McLean, Evangelos Chatzaroulas, Luc McCutcheon, Frank Röder, Tianhe Yu, Zhanpeng He, K. R. Zentner, Ryan Julian, J K Terry, Isaac Woungang, Nariman Farsad, Pablo Samuel Castro,
- Abstract要約: この研究は、メタワールドの過去のバージョンを活用しながら、これらの成果を文学から曖昧にすることを目指している。
私たちはMeta-Worldの新しいオープンソースバージョンをリリースし、過去の結果に満ちており、技術的には人間工学的であり、ユーザーはタスクセットに含まれるタスクをよりコントロールできるようになります。
- 参考スコア(独自算出の注目度): 19.608271357078245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meta-World is widely used for evaluating multi-task and meta-reinforcement learning agents, which are challenged to master diverse skills simultaneously. Since its introduction however, there have been numerous undocumented changes which inhibit a fair comparison of algorithms. This work strives to disambiguate these results from the literature, while also leveraging the past versions of Meta-World to provide insights into multi-task and meta-reinforcement learning benchmark design. Through this process we release a new open-source version of Meta-World (https://github.com/Farama-Foundation/Metaworld/) that has full reproducibility of past results, is more technically ergonomic, and gives users more control over the tasks that are included in a task set.
- Abstract(参考訳): メタワールドはマルチタスクとメタ強化学習エージェントの評価に広く用いられており、同時に多様なスキルを習得することが課題となっている。
しかし、導入以来、多くの文書化されていない変更があり、アルゴリズムの公正な比較を阻害している。
この研究は、メタワールドの過去のバージョンを活用し、マルチタスクおよびメタ強化学習ベンチマーク設計に関する洞察を提供するとともに、これらの成果を文献から曖昧にすることを目指している。
このプロセスを通じて私たちは,過去の成果を完全に再現可能なMeta-World(https://github.com/Farama-Foundation/Metaworld/)の新たなオープンソースバージョンをリリースし,技術的には人間工学的であり,タスクセットに含まれるタスクをよりコントロールできるようにします。
関連論文リスト
- AMAGO-2: Breaking the Multi-Task Barrier in Meta-Reinforcement Learning with Transformers [28.927809804613215]
我々はTransformerベースの(コンテキスト内での)メタRLの最近の進歩の上に構築する。
エージェントのアクターと批評家の目的の両方を分類項に変換する、単純でスケーラブルなソリューションを評価する。
この設計は、明示的なタスクラベルを使わずに、オンラインマルチタスク適応とメモリ問題に大きな進歩をもたらす。
論文 参考訳(メタデータ) (2024-11-17T22:25:40Z) - Dream to Adapt: Meta Reinforcement Learning by Latent Context
Imagination and MDP Imagination [15.599393996133715]
本稿では,実際のトレーニングタスクやデータが少ないメタRLアルゴリズムであるMetaDreamerを提案する。
我々は,学習した潜在コンテキスト空間と非絡み合い特性を補間することによりメタ想像を行い,生成世界モデルによるMDP想像を行う。
論文 参考訳(メタデータ) (2023-11-11T22:05:10Z) - Meta Omnium: A Benchmark for General-Purpose Learning-to-Learn [15.0841751679151]
複数のビジョンタスクにまたがるデータセットであるMeta Omniumを紹介する。
我々は、タスクをまたいで一般化し、それらの間の知識を伝達する能力を分析する。
論文 参考訳(メタデータ) (2023-05-12T17:25:19Z) - Learning Action Translator for Meta Reinforcement Learning on
Sparse-Reward Tasks [56.63855534940827]
本研究は,訓練作業中の行動伝達子を学習するための,新たな客観的機能を導入する。
理論的には、転送されたポリシーとアクショントランスレータの値が、ソースポリシーの値に近似可能であることを検証する。
本稿では,アクショントランスレータとコンテキストベースメタRLアルゴリズムを組み合わせることで,データ収集の効率化と,メタトレーニング時の効率的な探索を提案する。
論文 参考訳(メタデータ) (2022-07-19T04:58:06Z) - Crowdsourcing with Meta-Workers: A New Way to Save the Budget [50.04836252733443]
我々は,AIに適したタスクの種類をメタラーニングで学習したマシンアノテータであるEmphmeta-workerの概念を紹介した。
一般の群衆労働者とは異なり、メタワーカーは信頼性があり、安定しており、さらに重要なことはタイヤレスで自由である。
論文 参考訳(メタデータ) (2021-11-07T12:40:29Z) - MetaDelta: A Meta-Learning System for Few-shot Image Classification [71.06324527247423]
数ショット画像分類のための新しいメタ学習システムであるMetaDeltaを提案する。
MetaDeltaの各メタラーナーは、バッチトレーニングによって微調整された独自の事前訓練エンコーダと、予測に使用されるパラメータフリーデコーダで構成されている。
論文 参考訳(メタデータ) (2021-02-22T02:57:22Z) - Improving Generalization in Meta-learning via Task Augmentation [69.83677015207527]
本稿ではMetaMixとChannel Shuffleの2つのタスク拡張手法を提案する。
MetaMixとChannel Shuffleはどちらも、多くのデータセットにまたがる大きなマージンによって、最先端の結果を上回っている。
論文 参考訳(メタデータ) (2020-07-26T01:50:42Z) - Meta-Learning across Meta-Tasks for Few-Shot Learning [107.44950540552765]
我々は,メタ・ラーニングを支援するために,メタ・タスク間の関係を活用すべきであり,これらのタスクを戦略的にサンプリングするべきだと論じている。
2種類のメタタスクペアで定義された関係を考察し、それらを活用するための異なる戦略を提案する。
論文 参考訳(メタデータ) (2020-02-11T09:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。