論文の概要: Context Learning for Multi-Agent Discussion
- arxiv url: http://arxiv.org/abs/2602.02350v1
- Date: Mon, 02 Feb 2026 17:15:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.316111
- Title: Context Learning for Multi-Agent Discussion
- Title(参考訳): マルチエージェント討論のための文脈学習
- Authors: Xingyuan Hua, Sheng Yue, Xinyi Li, Yizhe Zhao, Jinrui Zhang, Ju Ren,
- Abstract要約: マルチエージェント・ディスカッション(MAD)は近年注目を集めており、複数のLLMインスタンスが構造化された議論を通じて協調して問題を解決している。
本稿では,M2CL(Multi-LLM context learning method)を提案する。
- 参考スコア(独自算出の注目度): 24.667220504610693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Agent Discussion (MAD) has garnered increasing attention very recently, where multiple LLM instances collaboratively solve problems via structured discussion. However, we find that current MAD methods easily suffer from discussion inconsistency, LLMs fail to reach a coherent solution, due to the misalignment between their individual contexts.In this paper, we introduce a multi-LLM context learning method (M2CL) that learns a context generator for each agent, capable of dynamically generating context instructions per discussion round via automatic information organization and refinement. Specifically, inspired by our theoretical insights on the context instruction, M2CL train the generators to control context coherence and output discrepancies via a carefully crafted self-adaptive mechanism.It enables LLMs to avoid premature convergence on majority noise and progressively reach the correct consensus. We evaluate M2CL on challenging tasks, including academic reasoning, embodied tasks, and mobile control. The results show that the performance of M2CL significantly surpasses existing methods by 20%--50%, while enjoying favorable transferability and computational efficiency.
- Abstract(参考訳): マルチエージェント・ディスカッション(MAD)は近年注目を集めており、複数のLLMインスタンスが構造化された議論を通じて協調して問題を解決している。
しかし,従来のMAD手法は議論の不整合に容易に悩まされ,個々のコンテキスト間の不整合によりLLMが一貫性のある解に到達できないことが判明した。この記事では,各エージェントのコンテキスト生成を学習するマルチLLMコンテキスト学習法(M2CL)を提案する。
具体的には、文脈指示に関する理論的知見に触発され、M2CLは、文脈コヒーレンスと出力の相違を慎重に構築した自己適応機構によって制御するようにジェネレータを訓練し、LLMが多数雑音の早期収束を回避し、徐々に正しいコンセンサスに達することを可能にした。
学術的推論,具体的タスク,移動制御などの課題に対して,M2CLを評価した。
その結果,M2CLの性能は既存の手法を20%-50%上回り,転送性や計算効率は良好であった。
関連論文リスト
- Prepare Reasoning Language Models for Multi-Agent Debate with Self-Debate Reinforcement Learning [49.99694105650486]
自己決定強化学習(Self-Debate Reinforcement Learning, SDRL)は、強力な問題解決能力を持つ単一の大規模言語モデルを備えたトレーニングフレームワークである。
我々は,SDRLが単一モデル推論を同時に強化しつつ,総合的マルチエージェント議論(MAD)性能を向上させることを示す。
論文 参考訳(メタデータ) (2026-01-29T20:21:44Z) - WISE: Weighted Iterative Society-of-Experts for Robust Multimodal Multi-Agent Debate [31.549907845278327]
マルチエージェントの議論(MAD)は、これらの強みを堅牢な推論に活用するための一般的な方法として現れている。
本稿では,単一・多モード機能を持つ異種専門家による議論プロトコルの一般化を図っている。
WISEは最先端のMADセットアップやアグリゲーション手法よりも精度を2-7%向上することを示す。
論文 参考訳(メタデータ) (2025-12-02T04:31:52Z) - SID: Multi-LLM Debate Driven by Self Signals [17.45752619450614]
SID(Self-Signals-Driven Multi-LLM Debate)
SID(Self-Signals-Driven Multi-LLM Debate)を導入する。
提案手法は,高信頼エージェントをモデルレベルで早期に退避させ,注意機構に基づく冗長な議論内容の圧縮を可能にする。
論文 参考訳(メタデータ) (2025-10-08T10:10:11Z) - Modeling Response Consistency in Multi-Agent LLM Systems: A Comparative Analysis of Shared and Separate Context Approaches [0.0]
本稿では,文脈制約,ノイズ,エージェント間の依存性がシステム性能に与える影響を評価する指標として,応答一貫性指数(RCI)を導入する。
提案手法は,メモリ制約とノイズ管理の相互作用に着目した既存研究と異なる。
論文 参考訳(メタデータ) (2025-04-09T21:54:21Z) - Multimodal Contrastive In-Context Learning [0.9120312014267044]
本稿では,Large Language Models (LLMs) における勾配なしインコンテキスト学習 (ICL) の理解を高めるために,新しいマルチモーダルコントラスト型インコンテキスト学習フレームワークを提案する。
まず、実世界におけるICLの対照的な解釈を示し、ICLの差別化要因としてキー値表現の距離を示す。
第2に、実世界のデータセットに対するマルチモーダル入力フォーマットにおけるバイアスに対処する分析フレームワークを開発する。
第3に、ヘイトフルミームの検出の有効性を示すICLのオンザフライアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-23T10:10:01Z) - Prompt Highlighter: Interactive Control for Multi-Modal LLMs [50.830448437285355]
本研究では,マルチモーダル LLM (LLMs&VLMs) 推論における重要な側面として,明示的な制御可能なテキスト生成を目標とする。
本稿では,新しい推論手法であるPrompt Highlighterを導入し,ユーザが特定のプロンプトスパンをハイライトし,生成中のフォーカスをインタラクティブに制御できるようにする。
推論中、注意重みを通して強調されたトークンでモデルを導くことで、より望ましい出力が得られます。
論文 参考訳(メタデータ) (2023-12-07T13:53:29Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。