論文の概要: From Natural Language to Extensive-Form Game Representations
- arxiv url: http://arxiv.org/abs/2501.17282v3
- Date: Fri, 31 Jan 2025 17:26:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:03:15.022454
- Title: From Natural Language to Extensive-Form Game Representations
- Title(参考訳): 自然言語から拡張型ゲーム表現へ
- Authors: Shilong Deng, Yongzhao Wang, Rahul Savani,
- Abstract要約: 本稿では,自然言語によるゲーム記述をゲーム理論の広範な形式表現に変換するフレームワークを提案する。
完全情報や不完全情報など、ゲームにおける戦略的な複雑さのレベルが変化していることを考えると、文脈内学習を直接適用することは不十分である。
そこで本研究では,コンテキスト内学習を強化し,問題を分割し,効果的に克服することのできる,特殊なモジュールを備えた2段階のフレームワークを開発した。
- 参考スコア(独自算出の注目度): 2.4988368806526675
- License:
- Abstract: We introduce a framework for translating game descriptions in natural language into extensive-form representations in game theory, leveraging Large Language Models (LLMs) and in-context learning. Given the varying levels of strategic complexity in games, such as perfect versus imperfect information, directly applying in-context learning would be insufficient. To address this, we introduce a two-stage framework with specialized modules to enhance in-context learning, enabling it to divide and conquer the problem effectively. In the first stage, we tackle the challenge of imperfect information by developing a module that identifies information sets along and the corresponding partial tree structure. With this information, the second stage leverages in-context learning alongside a self-debugging module to produce a complete extensive-form game tree represented using pygambit, the Python API of a recognized game-theoretic analysis tool called Gambit. Using this python representation enables the automation of tasks such as computing Nash equilibria directly from natural language descriptions. We evaluate the performance of the full framework, as well as its individual components, using various LLMs on games with different levels of strategic complexity. Our experimental results show that the framework significantly outperforms baseline models in generating accurate extensive-form games, with each module playing a critical role in its success.
- Abstract(参考訳): 本稿では,自然言語によるゲーム記述をゲーム理論の広範な形式表現に翻訳するフレームワークを提案し,LLM(Large Language Models)と文脈内学習を活用する。
完全情報や不完全情報など、ゲームにおける戦略的な複雑さのレベルが変化していることを考えると、文脈内学習を直接適用することは不十分である。
そこで本研究では,テキスト内学習を効果的に分割し,効果的に克服することのできる,特殊なモジュールを備えた2段階のフレームワークを提案する。
第1段階では、情報セットと対応する部分木構造を識別するモジュールを開発することにより、不完全情報の課題に取り組む。
この情報により、第2ステージでは、自己デバッグモジュールとともにコンテキスト内学習を活用して、ゲーム理論解析ツールであるGambitのPython APIであるpygambitを使用して、完全な広義のゲームツリーを生成する。
このピソン表現を使用することで、自然言語記述から直接ナッシュ平衡を計算するなどのタスクの自動化が可能になる。
戦略的な複雑さの異なるゲームにおいて、様々なLSMを用いて、フルフレームワークとその個々のコンポーネントの性能を評価する。
実験の結果,本フレームワークは,正確な広角ゲームの生成において,ベースラインモデルよりも有意に優れており,各モジュールが成功に重要な役割を果たしていることがわかった。
関連論文リスト
- Language-Model-Assisted Bi-Level Programming for Reward Learning from Internet Videos [48.2044649011213]
我々は、強化学習エージェントがインターネットビデオから報酬を学べるように、言語モデル支援のバイレベルプログラミングフレームワークを導入する。
このフレームワークは、視覚言語モデル(VLM)が学習者の振る舞いをエキスパートビデオと比較することでフィードバックを提供する上位レベルと、このフィードバックを報酬更新に変換する大規模言語モデル(LLM)の下位レベルである。
そこで本研究では,YouTubeビデオから報酬を学習する手法を検証するとともに,提案手法が生物エージェントのエキスパートビデオから効率的に報酬をデザインできることを示した。
論文 参考訳(メタデータ) (2024-10-11T22:31:39Z) - Adapting Large Language Models to Domains via Reading Comprehension [86.24451681746676]
ドメイン固有コーパスの事前学習が大規模言語モデルに与える影響について検討する。
生のコーパスでのトレーニングはドメイン知識でモデルを養うが、問合せ能力を大幅に損なう。
生コーパスを可読テキストに変換する簡単な方法を提案する。
論文 参考訳(メタデータ) (2023-09-18T07:17:52Z) - Pre-Training to Learn in Context [138.0745138788142]
言語モデルが文脈で学習するために明示的に訓練されていないため、コンテキスト内学習の能力は十分に活用されていない。
In-Context Learning のための PICL (Pre-training for In-Context Learning) を提案する。
実験の結果,PICLはベースラインよりも効率が高く,タスクの汎用性が高く,約4倍のパラメータを持つ言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-05-16T03:38:06Z) - Knowledge-enhanced Agents for Interactive Text Games [16.055119735473017]
テキストベースのゲームにおいてエージェントの機能的接地を改善するための知識注入フレームワークを提案する。
学習に基づくエージェントに注入するドメイン知識の2つの形態について考察する。
我々のフレームワークは、強化学習エージェントと言語モデルエージェントの2つの代表的なモデルクラスをサポートしている。
論文 参考訳(メタデータ) (2023-05-08T23:31:39Z) - Compositional Generalization in Grounded Language Learning via Induced
Model Sparsity [81.38804205212425]
グリッド環境における単純な言語条件のナビゲーション問題について考察する。
本研究では,オブジェクトの指示文と属性のスパース相関を助長するエージェントを設計し,それらを組み合わせて目的を導出する。
我々のエージェントは、少数のデモンストレーションから学習した場合でも、新しいプロパティの組み合わせを含む目標に対して高いレベルのパフォーマンスを維持している。
論文 参考訳(メタデータ) (2022-07-06T08:46:27Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - GroupBERT: Enhanced Transformer Architecture with Efficient Grouped
Structures [57.46093180685175]
トランスフォーマー層の構造を改良し,より効率的なアーキテクチャを実現する。
自己認識モジュールを補完する畳み込みモジュールを追加し、局所的およびグローバルな相互作用の学習を分離する。
得られたアーキテクチャを言語表現学習に適用し、異なるスケールのBERTモデルと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-10T15:41:53Z) - JAKET: Joint Pre-training of Knowledge Graph and Language Understanding [73.43768772121985]
本稿では,知識グラフと言語の両方をモデル化する新しい事前学習フレームワークであるJAKETを提案する。
知識モジュールと言語モジュールは相互に支援するための重要な情報を提供する。
我々の設計により、事前学習されたモデルは、新しいドメインの見知らぬ知識グラフに容易に適応できる。
論文 参考訳(メタデータ) (2020-10-02T05:53:36Z) - A Simple Joint Model for Improved Contextual Neural Lemmatization [60.802451210656805]
本稿では,20言語で最先端の成果を得られる,単純結合型ニューラルモデルを提案する。
本論文では,トレーニングと復号化に加えて,本モデルについて述べる。
論文 参考訳(メタデータ) (2019-04-04T02:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。