論文の概要: Benchmarking the Spectrum of Agent Capabilities
- arxiv url: http://arxiv.org/abs/2109.06780v1
- Date: Tue, 14 Sep 2021 15:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:49:26.800688
- Title: Benchmarking the Spectrum of Agent Capabilities
- Title(参考訳): エージェント能力のスペクトルのベンチマーク
- Authors: Danijar Hafner
- Abstract要約: 本稿では,1つの環境における幅広い汎用能力を評価する視覚入力を備えたオープンワールドサバイバルゲームであるCrafterを紹介する。
エージェントは提供された報酬信号や本質的な目的を通じて学習し、意味的に意味のある成果によって評価される。
我々は、Crafterが将来の研究を推進するのに適切な困難であることを実験的に検証し、報酬エージェントと教師なしエージェントのベースラインスコアを提供する。
- 参考スコア(独自算出の注目度): 7.088856621650764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating the general abilities of intelligent agents requires complex
simulation environments. Existing benchmarks typically evaluate only one narrow
task per environment, requiring researchers to perform expensive training runs
on many different environments. We introduce Crafter, an open world survival
game with visual inputs that evaluates a wide range of general abilities within
a single environment. Agents either learn from the provided reward signal or
through intrinsic objectives and are evaluated by semantically meaningful
achievements that can be unlocked during each episode, such as discovering
resources and crafting tools. Consistently unlocking all achievements requires
strong generalization, deep exploration, and long-term reasoning. We
experimentally verify that Crafter is of appropriate difficulty to drive future
research and provide baselines scores of reward agents and unsupervised agents.
Furthermore, we observe sophisticated behaviors emerging from maximizing the
reward signal, such as building tunnel systems, bridges, houses, and
plantations. We hope that Crafter will accelerate research progress by quickly
evaluating a wide spectrum of abilities.
- Abstract(参考訳): 知的エージェントの汎用能力を評価するには複雑なシミュレーション環境が必要である。
既存のベンチマークは通常、環境ごとに1つの狭いタスクしか評価せず、研究者は様々な環境で高価なトレーニングを実行する必要がある。
本稿では,1つの環境における幅広い汎用能力を評価する視覚入力を備えたオープンワールドサバイバルゲームであるCrafterを紹介する。
エージェントは、与えられた報酬信号から学ぶか、本質的な目的を通じて学習し、リソースの発見や工作ツールなど、各エピソードでアンロックできる意味的に有意義な成果によって評価される。
一貫してすべての成果を解き放つには、強力な一般化、深い探究、長期的推論が必要です。
我々は,今後の研究の推進が困難であること,報酬エージェントや教師なしエージェントのベースラインスコアを提供することを実験的に検証した。
さらに,トンネルシステム,橋梁,住宅,プランテーションなど,報酬信号の最大化から生じる洗練された挙動を観察する。
Crafterが幅広い能力を迅速に評価することで、研究の進展を加速することを期待しています。
関連論文リスト
- OpenWebVoyager: Building Multimodal Web Agents via Iterative Real-World Exploration, Feedback and Optimization [66.22117723598872]
マルチモーダルWebエージェントの開発を容易にするために設計されたオープンソースフレームワークを紹介する。
まず、基本モデルを模倣学習で訓練し、基礎能力を得る。
次に、エージェントにオープンウェブを探索させ、その軌道に関するフィードバックを収集する。
論文 参考訳(メタデータ) (2024-10-25T15:01:27Z) - Evaluating Environments Using Exploratory Agents [0.0]
探索エージェントを用いてプロシージャ生成ゲームレベルの設計に対するフィードバックを提供する。
本研究は,我々の探索エージェントがエンゲージメントレベルとアンエンゲージメントレベルを明確に区別できることを示した。
論文 参考訳(メタデータ) (2024-09-04T11:51:26Z) - Learning to Generalize with Object-centric Agents in the Open World
Survival Game Crafter [72.80855376702746]
強化学習エージェントは、訓練経験以上の一般化をしなければならない。
エージェントの一般化能力を評価するのに適した,新しい環境を提案する。
現在のエージェントは一般化に苦慮しており、強力なベースラインよりも優れた新しいオブジェクト中心エージェントを導入している。
論文 参考訳(メタデータ) (2022-08-05T20:05:46Z) - Long-Term Exploration in Persistent MDPs [68.8204255655161]
RbExplore (Rollback-Explore) と呼ばれる探査手法を提案する。
本稿では,マルコフ決定過程を永続的に決定する手法であるロールバック・エクスロア (RbExplore) を提案する。
我々は,ペルシャのプリンス・オブ・ペルシャゲームにおいて,報酬やドメイン知識を伴わずに,我々のアルゴリズムを検証した。
論文 参考訳(メタデータ) (2021-09-21T13:47:04Z) - Open-Ended Learning Leads to Generally Capable Agents [12.079718607356178]
環境領域内のタスクの宇宙を定義し、この広大な空間をまたいだエージェントを訓練する能力を示す。
結果として生じる空間は、エージェントがもたらす課題に関して非常に多様であり、エージェントの学習の進捗を測定することさえも、オープンな研究課題である。
オープンエンド学習プロセスの構築により,エージェントが学習を止めないようなトレーニングタスク分布や訓練目標を動的に変化させることで,新しい行動の一貫性のある学習が可能になることを示す。
論文 参考訳(メタデータ) (2021-07-27T13:30:07Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Self-Supervised Exploration via Latent Bayesian Surprise [4.088019409160893]
本研究では,強化学習に固有の報酬として,好奇心に基づくボーナスを提案する。
環境調査の観点から、エージェントの性能を計測し、モデルを幅広く評価します。
我々のモデルは安価で経験的にいくつかの問題に対して最先端の性能を示す。
論文 参考訳(メタデータ) (2021-04-15T14:40:16Z) - Fast active learning for pure exploration in reinforcement learning [48.98199700043158]
1/n$でスケールしたボーナスはより高速な学習率をもたらし、地平線への依存に関して既知の上限を改善します。
また, 停止時間の解析を改良することにより, 最良政体識別設定におけるサンプルの複雑さを$H$で改善できることも示している。
論文 参考訳(メタデータ) (2020-07-27T11:28:32Z) - Never Give Up: Learning Directed Exploration Strategies [63.19616370038824]
そこで我々は,多岐にわたる探索政策を学習し,ハード・サーベイ・ゲームを解決するための強化学習エージェントを提案する。
エージェントの最近の経験に基づいて,k-アネレスト隣人を用いたエピソード記憶に基づく本質的な報酬を構築し,探索政策を訓練する。
自己教師付き逆動力学モデルを用いて、近くのルックアップの埋め込みを訓練し、エージェントが制御できる新しい信号をバイアスする。
論文 参考訳(メタデータ) (2020-02-14T13:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。