論文の概要: Communication and Verification in LLM Agents towards Collaboration under Information Asymmetry
- arxiv url: http://arxiv.org/abs/2510.25595v1
- Date: Wed, 29 Oct 2025 15:03:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.779445
- Title: Communication and Verification in LLM Agents towards Collaboration under Information Asymmetry
- Title(参考訳): 情報非対称性下におけるLLMエージェントの協調に向けたコミュニケーションと検証
- Authors: Run Peng, Ziqiao Ma, Amy Pang, Sikai Li, Zhang Xi-Jia, Yingzhuo Yu, Cristian-Paul Bara, Joyce Chai,
- Abstract要約: 本稿では,タスクコラボレーションにおけるLarge Language Model (LLM)エージェントについて検討する。
シンボリックパズルであるアインシュタインパズルをテーブルトップゲームに拡張する。
実証的な結果から,コミュニケーションの整合性の重要性が浮き彫りになる。
- 参考スコア(独自算出の注目度): 17.472005826931127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Large Language Model (LLM) agents are often approached from the angle of action planning/generation to accomplish a goal (e.g., given by language descriptions), their abilities to collaborate with each other to achieve a joint goal are not well explored. To address this limitation, this paper studies LLM agents in task collaboration, particularly under the condition of information asymmetry, where agents have disparities in their knowledge and skills and need to work together to complete a shared task. We extend Einstein Puzzles, a classical symbolic puzzle, to a table-top game. In this game, two LLM agents must reason, communicate, and act to satisfy spatial and relational constraints required to solve the puzzle. We apply a fine-tuning-plus-verifier framework in which LLM agents are equipped with various communication strategies and verification signals from the environment. Empirical results highlight the critical importance of aligned communication, especially when agents possess both information-seeking and -providing capabilities. Interestingly, agents without communication can still achieve high task performance; however, further analysis reveals a lack of true rule understanding and lower trust from human evaluators. Instead, by integrating an environment-based verifier, we enhance agents' ability to comprehend task rules and complete tasks, promoting both safer and more interpretable collaboration in AI systems. https://github.com/Roihn/EinsteinPuzzles
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、目標を達成するためにアクションプランニング/ジェネレーションの角度からアプローチされることが多いが(例えば、言語記述によって与えられるような)、共同目標を達成するために互いに協力する能力は十分に調査されていない。
この制限に対処するために,LLMエージェントのタスクコラボレーション,特に情報非対称性の条件において,エージェントは知識とスキルに相違があり,共有タスクを完了するために協力する必要があることを考察する。
古典的な記号パズルであるアインシュタインパズルをテーブルトップゲームに拡張する。
このゲームでは、2つのLLMエージェントが、パズルを解くのに必要な空間的および関係的な制約を満たすために、推論し、コミュニケーションし、行動しなければならない。
LLMエージェントに様々な通信戦略と環境からの検証信号が組み込まれている微調整+検証フレームワークを適用した。
実証的な結果は、特にエージェントが情報探索能力と情報提供能力の両方を持っている場合において、アライメント・コミュニケーションの重要さを浮き彫りにする。
興味深いことに、コミュニケーションのないエージェントは依然として高いタスクパフォーマンスを達成することができるが、さらなる分析により、真のルール理解の欠如と人間の評価者からの信頼の低下が明らかになる。
代わりに、環境ベースの検証装置を統合することで、エージェントのタスクルールと完了タスクを理解する能力を強化し、AIシステムにおけるより安全かつより解釈可能なコラボレーションを促進する。
https://github.com/Roihn/EinsteinPuzzles
関連論文リスト
- Learning to Interact in World Latent for Team Coordination [53.51290193631586]
本研究は,多エージェント強化学習(MARL)におけるチーム協調を支援するために,対話型ワールドラテント(IWoL)という新しい表現学習フレームワークを提案する。
コミュニケーションプロトコルを直接モデル化することにより,エージェント間関係とタスク固有の世界情報とを協調的にキャプチャする学習可能な表現空間を構築する。
私たちの表現は、各エージェントの暗黙のラテントとしてだけでなく、コミュニケーションのための明示的なメッセージとしても使用できます。
論文 参考訳(メタデータ) (2025-09-29T22:13:39Z) - Can LLM Agents Solve Collaborative Tasks? A Study on Urgency-Aware Planning and Coordination [4.511923587827302]
大規模言語モデル(LLM)は、コミュニケーション、計画、推論において強力な能力を示している。
本研究は,マルチエージェント協調作業におけるLCMの強みと失敗モードに関する新たな知見を提供する。
論文 参考訳(メタデータ) (2025-08-20T11:44:10Z) - Contextual Knowledge Sharing in Multi-Agent Reinforcement Learning with Decentralized Communication and Coordination [0.9776703963093367]
マルチエージェント強化学習(Dec-MARL)は、動的環境における複雑なタスクに対処するための重要なアプローチとして登場した。
本稿では,エージェントの知識共有プロセスに目標認識とタイムアウェアネスを取り入れ,ピアツーピアコミュニケーションとコーディネーションを統合した新しいDec-MARLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-26T22:49:50Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Multi-Agent Consensus Seeking via Large Language Models [6.336670103502898]
大規模言語モデル(LLM)によって駆動されるマルチエージェントシステムは、複雑なタスクを協調的に解決する有望な能力を示している。
この研究は、マルチエージェントコラボレーションにおける根本的な問題であるコンセンサス探索について考察する。
論文 参考訳(メタデータ) (2023-10-31T03:37:11Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。