論文の概要: Keep CALM and Explore: Language Models for Action Generation in
Text-based Games
- arxiv url: http://arxiv.org/abs/2010.02903v1
- Date: Tue, 6 Oct 2020 17:36:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:14:57.308412
- Title: Keep CALM and Explore: Language Models for Action Generation in
Text-based Games
- Title(参考訳): 落ち着きと探索: テキストベースのゲームにおけるアクション生成のための言語モデル
- Authors: Shunyu Yao, Rohan Rao, Matthew Hausknecht, Karthik Narasimhan
- Abstract要約: 本研究では,各ゲーム状態におけるアクション候補のコンパクトなセットを生成するために,文脈行動言語モデル(CALM)を提案する。
我々はCALMと強化学習エージェントを組み合わせることで、生成したアクション候補を再ランクし、ゲーム内報酬を最大化する。
- 参考スコア(独自算出の注目度): 27.00685301984832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-based games present a unique challenge for autonomous agents to operate
in natural language and handle enormous action spaces. In this paper, we
propose the Contextual Action Language Model (CALM) to generate a compact set
of action candidates at each game state. Our key insight is to train language
models on human gameplay, where people demonstrate linguistic priors and a
general game sense for promising actions conditioned on game history. We
combine CALM with a reinforcement learning agent which re-ranks the generated
action candidates to maximize in-game rewards. We evaluate our approach using
the Jericho benchmark, on games unseen by CALM during training. Our method
obtains a 69% relative improvement in average game score over the previous
state-of-the-art model. Surprisingly, on half of these games, CALM is
competitive with or better than other models that have access to ground truth
admissible actions. Code and data are available at
https://github.com/princeton-nlp/calm-textgame.
- Abstract(参考訳): テキストベースのゲームは、自然言語で操作し、巨大なアクション空間を扱う自律エージェントにとって、ユニークな課題である。
本稿では,各ゲーム状態におけるアクション候補のコンパクトなセットを生成するための文脈行動言語モデル(CALM)を提案する。
我々の重要な洞察は、人間のゲームプレイ上で言語モデルを訓練することであり、そこでは、人々が言語的先行性を示し、ゲーム履歴に規定された有望なアクションに対する一般的なゲームセンスを示す。
我々はCALMと強化学習エージェントを組み合わせて、生成したアクション候補を再ランクしてゲーム内報酬を最大化する。
トレーニング中,落ち着きのないゲームにおいて,jerichoベンチマークを用いたアプローチを評価した。
本手法は,従来の最先端モデルと比較して平均ゲームスコアを69%向上させた。
驚くべきことに、これらのゲームの半分でCALMは、真実を許容できるアクションにアクセスできる他のモデルと競争している。
コードとデータはhttps://github.com/princeton-nlp/calm-textgameで入手できる。
関連論文リスト
- Understanding Players as if They Are Talking to the Game in a Customized Language: A Pilot Study [3.4333699338998693]
本研究は,ゲームイベントシーケンスのモデル化における言語モデル(LM)の適用について検討する。
生イベントデータをテキストシーケンスに変換し、このデータ上でLongformerモデルを事前学習する。
これらの結果から,ゲームデザインやパーソナライズにおける自己監督型LMの可能性を示す。
論文 参考訳(メタデータ) (2024-10-24T09:59:10Z) - AMONGAGENTS: Evaluating Large Language Models in the Interactive Text-Based Social Deduction Game [12.384945632524424]
本稿では,シミュレーション環境における人間行動のプロキシの作成に焦点をあてる。
我々の研究は、最先端の大規模言語モデル(LLM)がゲームルールを効果的に把握し、現在の状況に基づいて意思決定できることを示した。
論文 参考訳(メタデータ) (2024-07-23T14:34:38Z) - Efficacy of Language Model Self-Play in Non-Zero-Sum Games [38.644991461153275]
AlphaGoのようなゲームプレイングエージェントは、自己プレイを通じて超人的なパフォーマンスを実現している。
言語モデルを改善するために,自己演奏のような手法を効果的に活用できるかどうかを実証的に検討する。
言語モデルによる自己表現は,人間との協調や競争において,大きなパフォーマンス向上をもたらすことがわかった。
論文 参考訳(メタデータ) (2024-06-27T03:52:35Z) - Palm: Predicting Actions through Language Models @ Ego4D Long-Term
Action Anticipation Challenge 2023 [100.32802766127776]
Palmは、視覚言語と大規模言語モデルを利用した長期的な行動予測タスクのソリューションである。
入力ビデオから抽出したフレーム記述とアクションラベルに基づいて、将来のアクションを予測する。
論文 参考訳(メタデータ) (2023-06-28T20:33:52Z) - A Minimal Approach for Natural Language Action Space in Text-based Games [103.21433712630953]
本稿では,テキストベースのゲーム(TG)におけるアクション空間の探索という課題を再考する。
我々は,許容行動を利用する最小限のアプローチである$epsilon$-admissible Exploringをトレーニングフェーズに提案する。
本稿では,テキストベースのアクタ・クリティカル(TAC)エージェントを提案する。
論文 参考訳(メタデータ) (2023-05-06T16:05:27Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Infusing Commonsense World Models with Graph Knowledge [89.27044249858332]
オープンワールドテキストアドベンチャーゲームにおける物語生成の設定について検討する。
基礎となるゲーム状態のグラフ表現は、接地グラフ表現と自然言語記述とアクションの両方を消費し出力するモデルを訓練するために使用することができる。
論文 参考訳(メタデータ) (2023-01-13T19:58:27Z) - Pre-trained Language Models as Prior Knowledge for Playing Text-based
Games [2.423547527175808]
本稿では,LMフレームワークを用いたシンプルなRLを提案することにより,エージェントの意味的理解を改善する。
我々は,この人気ゲームであるZolk1において,我々のモデルがどのように既存のエージェントよりも優れているかを実証するために,我々のフレームワークの詳細な研究を行う。
提案手法は,テキストゲームの他のセットにおける最先端モデルに対して,コンパレントに機能する。
論文 参考訳(メタデータ) (2021-07-18T10:28:48Z) - Learning Dynamic Belief Graphs to Generalize on Text-Based Games [55.59741414135887]
テキストベースのゲームをプレイするには、自然言語処理とシーケンシャルな意思決定のスキルが必要である。
本研究では,原文からエンドツーエンドに学習したグラフ構造化表現を用いて,エージェントがテキストベースのゲームでどのように計画・一般化できるかを検討する。
論文 参考訳(メタデータ) (2020-02-21T04:38:37Z) - Exploration Based Language Learning for Text-Based Games [72.30525050367216]
本研究は,テキストベースのコンピュータゲームにおいて,最先端の性能を発揮できる探索・模倣学習型エージェントを提案する。
テキストベースのコンピュータゲームは、自然言語でプレイヤーの世界を記述し、プレイヤーがテキストを使ってゲームと対話することを期待する。
これらのゲームは、言語理解、問題解決、および人工エージェントによる言語生成のためのテストベッドと見なすことができるため、興味がある。
論文 参考訳(メタデータ) (2020-01-24T03:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。