論文の概要: CivRealm: A Learning and Reasoning Odyssey in Civilization for
Decision-Making Agents
- arxiv url: http://arxiv.org/abs/2401.10568v2
- Date: Tue, 12 Mar 2024 08:24:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 00:54:18.222325
- Title: CivRealm: A Learning and Reasoning Odyssey in Civilization for
Decision-Making Agents
- Title(参考訳): CivRealm: 意思決定エージェントの文明化における学習と推論
- Authors: Siyuan Qi, Shuo Chen, Yexin Li, Xiangyu Kong, Junqi Wang, Bangcheng
Yang, Pring Wong, Yifan Zhong, Xiaoyuan Zhang, Zhaowei Zhang, Nian Liu, Wei
Wang, Yaodong Yang, Song-Chun Zhu
- Abstract要約: 文明ゲームに触発された環境であるCivRealmを紹介する。
CivRealmは、意思決定エージェントにとってユニークな学習と推論の課題である。
- 参考スコア(独自算出の注目度): 63.79739920174535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The generalization of decision-making agents encompasses two fundamental
elements: learning from past experiences and reasoning in novel contexts.
However, the predominant emphasis in most interactive environments is on
learning, often at the expense of complexity in reasoning. In this paper, we
introduce CivRealm, an environment inspired by the Civilization game.
Civilization's profound alignment with human history and society necessitates
sophisticated learning, while its ever-changing situations demand strong
reasoning to generalize. Particularly, CivRealm sets up an
imperfect-information general-sum game with a changing number of players; it
presents a plethora of complex features, challenging the agent to deal with
open-ended stochastic environments that require diplomacy and negotiation
skills. Within CivRealm, we provide interfaces for two typical agent types:
tensor-based agents that focus on learning, and language-based agents that
emphasize reasoning. To catalyze further research, we present initial results
for both paradigms. The canonical RL-based agents exhibit reasonable
performance in mini-games, whereas both RL- and LLM-based agents struggle to
make substantial progress in the full game. Overall, CivRealm stands as a
unique learning and reasoning challenge for decision-making agents. The code is
available at https://github.com/bigai-ai/civrealm.
- Abstract(参考訳): 意思決定エージェントの一般化は、過去の経験から学ぶことと、新しい文脈における推論という2つの基本的な要素を含んでいる。
しかし、ほとんどのインタラクティブな環境では、しばしば推論の複雑さを犠牲にして、学習に重点を置いている。
本稿では,文明ゲームに触発された環境であるCivRealmを紹介する。
文明と人類の歴史と社会との深い連携は高度な学習を必要とし、その変化を続ける状況は、一般化を強く要求する。
特に、CivRealmはプレイヤー数の変化する不完全情報汎用ゲームを設置し、外交と交渉のスキルを必要とするオープンエンドの確率的環境に対処するようエージェントに挑戦する複雑な特徴を多数提示する。
CivRealm内では、学習に焦点を当てたテンソルベースのエージェントと推論を重視した言語ベースのエージェントの2つの典型的なエージェントタイプのインターフェースを提供する。
さらなる研究を促進するために,両パラダイムの初期結果を示す。
標準的RLベースのエージェントはミニゲームにおいて合理的なパフォーマンスを示すが、RLベースのエージェントとLLMベースのエージェントはゲーム全体においてかなりの進歩を遂げることができない。
全体として、CivRealmは意思決定エージェントにとってユニークな学習と推論の課題である。
コードはhttps://github.com/bigai-ai/civrealmで入手できる。
関連論文リスト
- Toward Human-AI Alignment in Large-Scale Multi-Player Games [24.784173202415687]
我々はXboxのBleeding Edge(100K+ゲーム)から広範囲にわたる人間のゲームプレイデータを解析する。
人間のプレイヤーは、戦闘飛行や探索飛行行動において多様性を示す一方で、AIプレイヤーは均一性に向かう傾向にある。
これらの大きな違いは、ヒューマンアラインアプリケーションにおけるAIの解釈可能な評価、設計、統合の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-05T22:55:33Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - Generalization in Text-based Games via Hierarchical Reinforcement
Learning [42.70991837415775]
本稿では,知識グラフに基づくRLエージェントを基盤とした階層型フレームワークを提案する。
高いレベルでは、メタポリシーが実行され、ゲーム全体をテキストゴールによって指定されたサブタスクのセットに分解する。
低レベルにおいては、目標条件付き強化学習を行うためにサブ政治が実行される。
論文 参考訳(メタデータ) (2021-09-21T05:27:33Z) - Learning Monopoly Gameplay: A Hybrid Model-Free Deep Reinforcement
Learning and Imitation Learning Approach [31.066718635447746]
強化学習(RL)は、環境と相互作用するエージェントに依存し、それによって受け取った報酬の累積合計を最大化します。
マルチプレイヤーのモノポリーゲームでは、プレイヤーは取引など複雑なアクションを含む毎ターンに複数の決定をしなければならない。
本稿では,モノポリーの勝利戦略を再生および学習できるハイブリッドモデルフリーディープRL(DRL)アプローチについて紹介する。
論文 参考訳(メタデータ) (2021-03-01T01:40:02Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Playing Text-Based Games with Common Sense [12.561548311885671]
エージェントに常識知識を組み込むための2つの手法を探索する。
コモンセンス推論モデルCOMETまたは言語モデルBERTで世界状態の潜在的隠れた側面を推測する。
我々は,コモンセンス推論によって世界国家に対する信念を補強するエージェントは,テキスト記述から共通要素の観察上の誤りや省略に対してより堅牢である,と結論付けた。
論文 参考訳(メタデータ) (2020-12-04T18:22:59Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。