論文の概要: Terra Nova: A Comprehensive Challenge Environment for Intelligent Agents
- arxiv url: http://arxiv.org/abs/2511.15378v1
- Date: Wed, 19 Nov 2025 12:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.795398
- Title: Terra Nova: A Comprehensive Challenge Environment for Intelligent Agents
- Title(参考訳): Terra Nova: インテリジェントエージェントのための総合的なチャレンジ環境
- Authors: Trevor McInroe,
- Abstract要約: 文明Vに触発された強化学習(RL)研究のための,新しい総合的課題環境であるTerra Novaを紹介した。
CCEは、複数の標準RL課題が同時に発生する単一の環境である。
これらの集計マルチタスクベンチマークは、エージェントが無関係なポリシーをカタログ化して切り替えられるかどうかを主に評価する。
- 参考スコア(独自算出の注目度): 2.518870792757066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Terra Nova, a new comprehensive challenge environment (CCE) for reinforcement learning (RL) research inspired by Civilization V. A CCE is a single environment in which multiple canonical RL challenges (e.g., partial observability, credit assignment, representation learning, enormous action spaces, etc.) arise simultaneously. Mastery therefore demands integrated, long-horizon understanding across many interacting variables. We emphasize that this definition excludes challenges that only aggregate unrelated tasks in independent, parallel streams (e.g., learning to play all Atari games at once). These aggregated multitask benchmarks primarily asses whether an agent can catalog and switch among unrelated policies rather than test an agent's ability to perform deep reasoning across many interacting challenges.
- Abstract(参考訳): 文明Vに触発された強化学習(RL)研究のための新しい総合的課題環境であるTerra Novaを紹介した。
したがって、マスターは、多くの相互作用する変数をまたいだ統合された長い水平理解を要求する。
この定義は、無関係なタスクを独立した並列ストリーム(例えば、一度にすべてのAtariゲームをプレイすることを学ぶこと)でのみ集約する課題を除外することを強調する。
これらの集約マルチタスクベンチマークは、エージェントが多くの相互作用する課題に対して深い推論を行う能力をテストするよりも、エージェントが無関係なポリシーをカタログ化して切り替えられるかどうかを主に評価する。
関連論文リスト
- The Cell Must Go On: Agar.io for Continual Reinforcement Learning [9.034912115190034]
継続的な強化学習(RL)は、評価のために固定されたポリシーに収束するのではなく、継続的に学習することが期待されるエージェントに関するものである。
AgarCLは連続RLのための研究プラットフォームであり、より洗練された行動の進行を可能にする。
論文 参考訳(メタデータ) (2025-05-23T20:09:27Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - CivRealm: A Learning and Reasoning Odyssey in Civilization for
Decision-Making Agents [63.79739920174535]
文明ゲームに触発された環境であるCivRealmを紹介する。
CivRealmは、意思決定エージェントにとってユニークな学習と推論の課題である。
論文 参考訳(メタデータ) (2024-01-19T09:14:11Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Centralized control for multi-agent RL in a complex Real-Time-Strategy
game [0.0]
マルチエージェント強化学習(MARL)は、共有環境で共存する複数の学習エージェントの行動を研究する。
MARLはシングルエージェントRLよりも難しい。
このプロジェクトは、Lux AI v2 KaggleコンペティションにRLを適用したエンドツーエンドエクスペリエンスを提供する。
論文 参考訳(メタデータ) (2023-04-25T17:19:05Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。