論文の概要: AsymPuzl: An Asymmetric Puzzle for multi-agent cooperation
- arxiv url: http://arxiv.org/abs/2512.03466v1
- Date: Wed, 03 Dec 2025 05:42:01 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:04:29.249656
- Title: AsymPuzl: An Asymmetric Puzzle for multi-agent cooperation
- Title(参考訳): AsymPuzl:マルチエージェント協調のための非対称パズル
- Authors: Xavier Cadet, Edward Koh, Peter Chin,
- Abstract要約: 大規模言語モデル(LLM)エージェントは、マルチターン、マルチエージェントのシナリオでますます研究されている。
AsymPuzlは,情報非対称性下でのコミュニケーションを分離するように設計された,最小かつ表現力に富んだ2エージェントパズル環境である。
- 参考スコア(独自算出の注目度): 3.992018836888768
- License:
- Abstract: Large Language Model (LLM) agents are increasingly studied in multi-turn, multi-agent scenarios, yet most existing setups emphasize open-ended role-play rather than controlled evaluation. We introduce AsymPuzl, a minimal but expressive two-agent puzzle environment designed to isolate communication under information asymmetry. Each agent observes complementary but incomplete views of a symbolic puzzle and must exchange messages to solve it cooperatively. Using a diverse set of current-generation and open-source LLMs, we show that (i) strong models such as GPT-5 and Claude-4.0 reliably converge across puzzle sizes on the solution by sharing complete information in two turns, (ii) weaker models often ignore partner messages or over-correct their hypotheses, and (iii) feedback design is non-trivial: simple self-feedback improves success rates, while detailed joint feedback can hurt performance. These findings show that even in simple cooperative tasks, LLM communication strategies diverge and depend on the granularity of feedback signals. AsymPuzl thus provides a testbed for probing the limits of multi-turn cooperation and opens avenues for studying coordination mechanisms.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、マルチターン、マルチエージェントシナリオでますます研究されているが、既存のほとんどの設定では、制御された評価よりもオープンなロールプレイを強調している。
AsymPuzlは,情報非対称性下でのコミュニケーションを分離するように設計された,最小かつ表現力に富んだ2エージェントパズル環境である。
各エージェントは、シンボルパズルの補完的だが不完全なビューを観察し、それを協調的に解決するためにメッセージを交換する必要がある。
現在およびオープンソースLLMの多種多様なセットを用いて、その有効性を示す。
i) GPT-5 や Claude-4.0 のような強いモデルは、2つのターンで完全な情報を共有することによって、解上のパズルサイズに確実に収束する。
(二)弱いモデルは、しばしばパートナーのメッセージを無視したり、仮説を過度に修正したりする。
単純な自己フィードバックは成功率を改善するが、詳細な共同フィードバックはパフォーマンスを損なう。
これらの結果は, 単純な協調作業においても, LLM通信戦略は分散し, フィードバック信号の粒度に依存することを示している。
したがって、AsymPuzlは多ターン協調の限界を探索するためのテストベッドを提供し、調整機構を研究するための道を開く。
関連論文リスト
- Communication and Verification in LLM Agents towards Collaboration under Information Asymmetry [17.472005826931127]
本稿では,タスクコラボレーションにおけるLarge Language Model (LLM)エージェントについて検討する。
シンボリックパズルであるアインシュタインパズルをテーブルトップゲームに拡張する。
実証的な結果から,コミュニケーションの整合性の重要性が浮き彫りになる。
論文 参考訳(メタデータ) (2025-10-29T15:03:53Z) - Silence is Not Consensus: Disrupting Agreement Bias in Multi-Agent LLMs via Catfish Agent for Clinical Decision Making [80.94208848596215]
提案する概念は「Catfish Agent」である。これは、構造的不満を注入し、無声な合意に反するように設計された役割特化LDMである。
組織心理学において「ナマズ・エフェクト」にインスパイアされたカマズ・エージェントは、より深い推論を促進するために、新たなコンセンサスに挑戦するように設計されている。
論文 参考訳(メタデータ) (2025-05-27T17:59:50Z) - Collective Reasoning Among LLMs: A Framework for Answer Validation Without Ground Truth [0.0]
いくつかの先進的な大規模言語モデルが複雑で博士レベルの確率問題を生成・解き出す新しいアプローチを導入する。
本研究は, 多様なモデル間の合意が, アウトプットの信頼性を如何に示すかに焦点を当てる。
論文 参考訳(メタデータ) (2025-02-28T06:20:52Z) - When Disagreements Elicit Robustness: Investigating Self-Repair Capabilities under LLM Multi-Agent Disagreements [56.29265568399648]
我々は、不一致が早期のコンセンサスを防ぎ、探索されたソリューション空間を拡張することを主張する。
タスククリティカルなステップの相違は、ソリューションパスのトポロジによってコラボレーションを損なう可能性がある。
論文 参考訳(メタデータ) (2025-02-21T02:24:43Z) - Enhancing Multi-Agent Consensus through Third-Party LLM Integration: Analyzing Uncertainty and Mitigating Hallucinations in Large Language Models [1.4582633500696451]
大きな言語モデル(LLM)は、複雑な推論タスクを扱う際にも問題に直面します。
本稿では,知識境界を拡張するために異なるLSMを統合する新しい手法を提案する。
算術的データセットの実験により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-11-25T08:42:33Z) - Textualized Agent-Style Reasoning for Complex Tasks by Multiple Round LLM Generation [49.27250832754313]
我々は、llmベースの自律エージェントフレームワークであるAgentCOTを紹介する。
それぞれのステップで、AgentCOTはアクションを選択し、それを実行して、証拠を裏付ける中間結果を得る。
エージェントCOTの性能を高めるための2つの新しい戦略を導入する。
論文 参考訳(メタデータ) (2024-09-19T02:20:06Z) - Exchange-of-Thought: Enhancing Large Language Model Capabilities through
Cross-Model Communication [76.04373033082948]
大規模言語モデル(LLM)は、最近、Chain-of-Thoughtテクニックによる複雑な推論タスクにおいて大きな進歩を遂げました。
本稿では,問題解決時のクロスモデル通信を可能にする新しいフレームワークであるExchange-of-Thought (EoT)を提案する。
論文 参考訳(メタデータ) (2023-12-04T11:53:56Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Multi-Grained Multimodal Interaction Network for Entity Linking [65.30260033700338]
マルチモーダルエンティティリンクタスクは、マルチモーダル知識グラフへの曖昧な言及を解決することを目的としている。
MELタスクを解決するための新しいMulti-Grained Multimodal InteraCtion Network $textbf(MIMIC)$ frameworkを提案する。
論文 参考訳(メタデータ) (2023-07-19T02:11:19Z) - PooL: Pheromone-inspired Communication Framework forLarge Scale
Multi-Agent Reinforcement Learning [0.0]
textbfPooLは、大規模マルチエージェント強化の textbfl に適用される間接通信フレームワークである。
PooLはフェロモンの放出と利用機構を利用して、大規模なエージェント調整を制御する。
PooLは効果的な情報を取り込み、通信コストの低い他の最先端手法よりも高い報酬を得ることができる。
論文 参考訳(メタデータ) (2022-02-20T03:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。