論文の概要: C-Procgen: Empowering Procgen with Controllable Contexts
- arxiv url: http://arxiv.org/abs/2311.07312v1
- Date: Mon, 13 Nov 2023 13:07:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 14:25:09.520149
- Title: C-Procgen: Empowering Procgen with Controllable Contexts
- Title(参考訳): C-Procgen: 制御可能なコンテキストでProcgenを強化する
- Authors: Zhenxiong Tan, Kaixin Wang and Xinchao Wang
- Abstract要約: C-Procgenは、Procgenベンチマーク上に拡張された環境スイートである。
16のゲームで200以上のユニークなゲームコンテキストにアクセスすることができる。
- 参考スコア(独自算出の注目度): 62.84544720338002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present C-Procgen, an enhanced suite of environments on top of the Procgen
benchmark. C-Procgen provides access to over 200 unique game contexts across 16
games. It allows for detailed configuration of environments, ranging from game
mechanics to agent attributes. This makes the procedural generation process,
previously a black-box in Procgen, more transparent and adaptable for various
research needs.The upgrade enhances dynamic context management and
individualized assignments, while maintaining computational efficiency.
C-Procgen's controllable contexts make it applicable in diverse reinforcement
learning research areas, such as learning dynamics analysis, curriculum
learning, and transfer learning. We believe that C-Procgen will fill a gap in
the current literature and offer a valuable toolkit for future works.
- Abstract(参考訳): 本稿では,Procgenベンチマーク上に拡張された環境スイートであるC-Procgenを紹介する。
C-Procgenは16ゲームに200以上のユニークなゲームコンテキストを提供する。
ゲームメカニズムからエージェント属性まで、環境の詳細な設定が可能になる。
これにより、プロシージャ生成プロセス(以前はプロシージャーのブラックボックス)は、様々な研究ニーズに対してより透明で適応可能となり、このアップグレードは、計算効率を維持しつつ、動的コンテキスト管理と個別化割り当てを強化している。
c-procgenの制御可能なコンテキストは、学習ダイナミクス分析、カリキュラム学習、転校学習など、様々な強化学習研究分野に適用できる。
我々はC-Procgenが現在の文献のギャップを埋め、将来の研究に有用なツールキットを提供すると考えている。
関連論文リスト
- PCGRLLM: Large Language Model-Driven Reward Design for Procedural Content Generation Reinforcement Learning [4.173530949970536]
この研究はPCGRLLM(PCGRLLM)を導入し、フィードバック機構といくつかの推論に基づくプロンプトエンジニアリング技術を採用している。
2つの最先端LCMを用いた2次元環境におけるストーリー・ツー・リワード生成タスクにおける提案手法の評価を行った。
論文 参考訳(メタデータ) (2025-02-15T21:00:40Z) - clembench-2024: A Challenging, Dynamic, Complementary, Multilingual Benchmark and Underlying Flexible Framework for LLMs as Multi-Action Agents [19.989503513817095]
大きな言語モデルは、特定の能力を探索する会話ゲームに"セルフプレイ"するよう促すことができる。
本稿では,このようなゲームプレイ環境を構築するためのフレームワークの1つを取り上げ,その有効性を評価機器として検証する。
論文 参考訳(メタデータ) (2024-05-31T14:43:31Z) - RealGen: Retrieval Augmented Generation for Controllable Traffic Scenarios [58.62407014256686]
RealGenは、トラフィックシナリオ生成のための新しい検索ベースのコンテキスト内学習フレームワークである。
RealGenは、複数の検索されたサンプルの振る舞いを勾配のない方法で組み合わせることで、新しいシナリオを合成する。
このコンテキスト内学習フレームワークは、シナリオを編集する機能を含む多種多様な生成機能を提供する。
論文 参考訳(メタデータ) (2023-12-19T23:11:06Z) - CUDC: A Curiosity-Driven Unsupervised Data Collection Method with
Adaptive Temporal Distances for Offline Reinforcement Learning [62.58375643251612]
本稿では,Curiosity-driven Unsupervised Data Collection (CUDC)法を提案する。
この適応的な到達性機構により、特徴表現は多様化することができ、エージェントは、好奇心で高品質なデータを集めるために自分自身をナビゲートすることができる。
実験的に、CUDCはDeepMindコントロールスイートの様々なダウンストリームオフラインRLタスクにおいて、既存の教師なし手法よりも効率と学習性能が優れている。
論文 参考訳(メタデータ) (2023-12-19T14:26:23Z) - CITB: A Benchmark for Continual Instruction Tuning [44.40322919392584]
連続学習(英: Continual Learning, CL)は、人間の学習能力を再現し、継続的に知識を蓄積することを目的としたパラダイムである。
近年のインストラクションチューニング (IT) では, NLP タスクの解法に適応しやすくするための微調整モデルが提案されている。
各種CL手法を体系的に研究するための学習プロトコルと評価プロトコルからなるベンチマークを構築した。
論文 参考訳(メタデータ) (2023-10-23T02:42:32Z) - Cross-Episodic Curriculum for Transformer Agents [26.240903251696874]
我々は,トランスフォーマーエージェントの学習効率と一般化を促進するために,CEC(Cross-Episodic Curriculum)という新しいアルゴリズムを提案する。
CECの中心は、トランスフォーマーの文脈に異種体験を配置することである。
CECは、エピソード間での学習の進歩と習熟度の増加をカプセル化するカリキュラムを構築している。
論文 参考訳(メタデータ) (2023-10-12T17:45:05Z) - SimCS: Simulation for Domain Incremental Online Continual Segmentation [60.18777113752866]
既存の継続学習アプローチは、主にクラス増分設定における画像分類に焦点を当てている。
シミュレーションデータを用いて連続学習を規則化するパラメータフリー手法であるSimCSを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:17:33Z) - Realistic simulation of users for IT systems in cyber ranges [63.20765930558542]
ユーザアクティビティを生成するために,外部エージェントを用いて各マシンを計測する。
このエージェントは、決定論的および深層学習に基づく手法を組み合わせて、異なる環境に適応する。
また,会話や文書の作成を容易にする条件付きテキスト生成モデルを提案する。
論文 参考訳(メタデータ) (2021-11-23T10:53:29Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z) - Meta Automatic Curriculum Learning [35.13646854355393]
メタACLの概念を導入し,それをブラックボックスRL学習者の文脈で形式化する。
本稿では,メタACLの初回インスタンス化であるAGAINについて述べる。
論文 参考訳(メタデータ) (2020-11-16T14:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。