論文の概要: Terra Nova: A Comprehensive Challenge Environment for Intelligent Agents
- arxiv url: http://arxiv.org/abs/2511.15378v1
- Date: Wed, 19 Nov 2025 12:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.795398
- Title: Terra Nova: A Comprehensive Challenge Environment for Intelligent Agents
- Title(参考訳): Terra Nova: インテリジェントエージェントのための総合的なチャレンジ環境
- Authors: Trevor McInroe,
- Abstract要約: 文明Vに触発された強化学習(RL)研究のための,新しい総合的課題環境であるTerra Novaを紹介した。
CCEは、複数の標準RL課題が同時に発生する単一の環境である。
これらの集計マルチタスクベンチマークは、エージェントが無関係なポリシーをカタログ化して切り替えられるかどうかを主に評価する。
- 参考スコア(独自算出の注目度): 2.518870792757066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Terra Nova, a new comprehensive challenge environment (CCE) for reinforcement learning (RL) research inspired by Civilization V. A CCE is a single environment in which multiple canonical RL challenges (e.g., partial observability, credit assignment, representation learning, enormous action spaces, etc.) arise simultaneously. Mastery therefore demands integrated, long-horizon understanding across many interacting variables. We emphasize that this definition excludes challenges that only aggregate unrelated tasks in independent, parallel streams (e.g., learning to play all Atari games at once). These aggregated multitask benchmarks primarily asses whether an agent can catalog and switch among unrelated policies rather than test an agent's ability to perform deep reasoning across many interacting challenges.
- Abstract(参考訳): 文明Vに触発された強化学習(RL)研究のための新しい総合的課題環境であるTerra Novaを紹介した。
したがって、マスターは、多くの相互作用する変数をまたいだ統合された長い水平理解を要求する。
この定義は、無関係なタスクを独立した並列ストリーム(例えば、一度にすべてのAtariゲームをプレイすることを学ぶこと)でのみ集約する課題を除外することを強調する。
これらの集約マルチタスクベンチマークは、エージェントが多くの相互作用する課題に対して深い推論を行う能力をテストするよりも、エージェントが無関係なポリシーをカタログ化して切り替えられるかどうかを主に評価する。
関連論文リスト
- The Cell Must Go On: Agar.io for Continual Reinforcement Learning [9.034912115190034]
継続的な強化学習(RL)は、評価のために固定されたポリシーに収束するのではなく、継続的に学習することが期待されるエージェントに関するものである。
AgarCLは連続RLのための研究プラットフォームであり、より洗練された行動の進行を可能にする。
論文 参考訳(メタデータ) (2025-05-23T20:09:27Z) - On Generalization Across Environments In Multi-Objective Reinforcement Learning [6.686583184622338]
我々は,多目的強化学習(MORL)における一般化の概念を定式化し,その評価方法について述べる。
パラメータ化された環境構成を持つ多目的ドメインを特徴とする新しいベンチマークを提案。
このベンチマークにおける最先端のMORLアルゴリズムのベースライン評価は、限定的な一般化能力を示し、改善の余地があることを示唆している。
論文 参考訳(メタデータ) (2025-03-02T08:50:14Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - CivRealm: A Learning and Reasoning Odyssey in Civilization for
Decision-Making Agents [63.79739920174535]
文明ゲームに触発された環境であるCivRealmを紹介する。
CivRealmは、意思決定エージェントにとってユニークな学習と推論の課題である。
論文 参考訳(メタデータ) (2024-01-19T09:14:11Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - Centralized control for multi-agent RL in a complex Real-Time-Strategy
game [0.0]
マルチエージェント強化学習(MARL)は、共有環境で共存する複数の学習エージェントの行動を研究する。
MARLはシングルエージェントRLよりも難しい。
このプロジェクトは、Lux AI v2 KaggleコンペティションにRLを適用したエンドツーエンドエクスペリエンスを提供する。
論文 参考訳(メタデータ) (2023-04-25T17:19:05Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - NeurIPS 2021 Competition IGLU: Interactive Grounded Language
Understanding in a Collaborative Environment [71.11505407453072]
協調環境における対話型接地言語理解(IGLU: Interactive Grounded Language Understanding)を提案する。
競争の主目的は、対話型エージェントをいかにして構築するかという問題にアプローチすることであり、協調環境において、接地された自然言語命令を提供しながらタスクの解決を学ぶことである。
この研究課題は、自然言語理解・生成(NLU/G)と強化学習(RL)という、NeurIPSコミュニティと密接に関連している2つの分野に自然に関連している。
論文 参考訳(メタデータ) (2021-10-13T07:13:44Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。