論文の概要: LinguaGame: A Linguistically Grounded Game-Theoretic Paradigm for Multi-Agent Dialogue Generation
- arxiv url: http://arxiv.org/abs/2601.04516v1
- Date: Thu, 08 Jan 2026 02:30:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.994537
- Title: LinguaGame: A Linguistically Grounded Game-Theoretic Paradigm for Multi-Agent Dialogue Generation
- Title(参考訳): LinguaGame:多言語対話生成のための言語論的ゲーム理論パラダイム
- Authors: Yuxiao Ye, Yiming Zhang, Yiran Ma, Huiyuan Xie, Huining Zhu, Zhiyuan Liu,
- Abstract要約: 本稿では,多エージェント対話生成のための言語論的ゲーム理論パラダイムを提案する。
我々のフレームワークは、最小限のタスク固有結合を伴う言語情報推論に依存している。
我々は,模擬法廷手続と議論における枠組みを評価し,コミュニケーション効率の大幅な向上を示す人間専門家の評価を行った。
- 参考スコア(独自算出の注目度): 17.584631586928815
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) have enabled Multi-Agent Systems (MASs) where agents interact through natural language to solve complex tasks or simulate multi-party dialogues. Recent work on LLM-based MASs has mainly focused on architecture design, such as role assignment and workflow orchestration. In contrast, this paper targets the interaction process itself, aiming to improve agents' communication efficiency by helping them convey their intended meaning more effectively through language. To this end, we propose LinguaGame, a linguistically-grounded game-theoretic paradigm for multi-agent dialogue generation. Our approach models dialogue as a signalling game over communicative intents and strategies, solved with a training-free equilibrium approximation algorithm for inference-time decision adjustment. Unlike prior game-theoretic MASs, whose game designs are often tightly coupled with task-specific objectives, our framework relies on linguistically informed reasoning with minimal task-specific coupling. Specifically, it treats dialogue as intentional and strategic communication, requiring agents to infer what others aim to achieve (intents) and how they pursue those goals (strategies). We evaluate our framework in simulated courtroom proceedings and debates, with human expert assessments showing significant gains in communication efficiency.
- Abstract(参考訳): 大規模言語モデル(LLM)によりマルチエージェントシステム(MAS)が実現され、エージェントが自然言語を介して対話して複雑なタスクを解決したり、多人数対話をシミュレートしたりすることができる。
LLMベースのMASに関する最近の研究は、主に役割割り当てやワークフローオーケストレーションといったアーキテクチャ設計に焦点を当てている。
対照的に,本論文は対話プロセス自体をターゲットとしており,エージェントが意図した意味を言語を通してより効果的に伝達することを支援することによって,エージェントのコミュニケーション効率を向上させることを目的としている。
この目的のために,多エージェント対話生成のための言語論的ゲーム理論パラダイムであるLinguaGameを提案する。
提案手法は,推論時間決定調整のための学習自由均衡近似アルゴリズムを用いて,対話をコミュニケーション意図と戦略上のシグナリングゲームとしてモデル化する。
ゲーム設計がタスク固有の目的と密接に結びついている従来のゲーム理論のMASとは異なり、我々のフレームワークは最小限のタスク固有結合を持つ言語情報推論に依存している。
具体的には、対話を意図的かつ戦略的コミュニケーションとして扱い、エージェントは他者が達成しようとする目的(インテント)と、それらの目標(戦略)をどう追求するかを推測する必要がある。
我々は,模擬法廷手続と議論における枠組みを評価し,コミュニケーション効率の大幅な向上を示す人間専門家の評価を行った。
関連論文リスト
- Grounding Natural Language for Multi-agent Decision-Making with Multi-agentic LLMs [10.186029242664931]
大規模言語モデル(LLM)の能力を多エージェント意思決定アルゴリズムに組み込むことにより拡張する。
本稿では,多言語大言語モデル (LLM) の設計のための体系的フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-10T19:53:23Z) - Language-Driven Coordination and Learning in Multi-Agent Simulation Environments [5.139001420948807]
本稿では,大規模言語モデル(LLM)をマルチエージェント強化学習(MARL)に組み込んだ統合フレームワークを提案する。
フレームワークにはCoordinator、Communicator、Memoryの3つのモジュールコンポーネントがあり、サブゴールを動的に生成する。
Google Research Football、Magent Battle、StarCraft IIで評価されている。
論文 参考訳(メタデータ) (2025-06-01T06:46:49Z) - Steering Language Models with Game-Theoretic Solvers [43.023261136434876]
大規模言語モデル(LLM)によって生成される自然言語対話の空間上で平衡解法が機能するフレームワークを導入する。
具体的には、対話の「ゲーム」におけるプレイヤー、戦略、ペイオフをモデル化することにより、自然言語の相互作用から従来のゲーム理論の記号論理への結合を生成する。
我々は,会議のスケジューリング,果物の取引,討論など,異なる交渉戦略を必要とする3つの領域に注目し,解決者によって指導されたLLMの言語を評価する。
論文 参考訳(メタデータ) (2024-01-24T22:22:00Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Context-Aware Language Modeling for Goal-Oriented Dialogue Systems [84.65707332816353]
我々は、部分的に観察されたマルコフ決定過程としてゴール指向対話を定式化する。
目的を意識して言語モデルを微調整する,シンプルで効果的な手法を考案する。
本研究では,AirDialogue を用いた実践的なフライト予約タスクについて評価する。
論文 参考訳(メタデータ) (2022-04-18T17:23:11Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。