論文の概要: The Geometry of Dialogue: Graphing Language Models to Reveal Synergistic Teams for Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2510.26352v1
- Date: Thu, 30 Oct 2025 11:04:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.770182
- Title: The Geometry of Dialogue: Graphing Language Models to Reveal Synergistic Teams for Multi-Agent Collaboration
- Title(参考訳): 対話の幾何学:多言語協調のための相乗的チームを探索するグラフ言語モデル
- Authors: Kotaro Furuya, Yuichi Kitagawa,
- Abstract要約: 大規模言語モデル(LLM)に基づくマルチエージェントチームは、単一モデルの能力を超える有望な戦略である。
しかしながら、ほとんどのモデルの本質的な不透明さは、効果的なコラボレーションに必要な内部特性を曖昧にしているため、最適なチームを作ることは重要な課題である。
事前知識を必要としない自動チーム構成のためのインタラクション中心のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While a multi-agent approach based on large language models (LLMs) represents a promising strategy to surpass the capabilities of single models, its success is critically dependent on synergistic team composition. However, forming optimal teams is a significant challenge, as the inherent opacity of most models obscures the internal characteristics necessary for effective collaboration. In this paper, we propose an interaction-centric framework for automatic team composition that does not require any prior knowledge including their internal architectures, training data, or task performances. Our method constructs a "language model graph" that maps relationships between models from the semantic coherence of pairwise conversations, and then applies community detection to identify synergistic model clusters. Our experiments with diverse LLMs demonstrate that the proposed method discovers functionally coherent groups that reflect their latent specializations. Priming conversations with specific topics identified synergistic teams which outperform random baselines on downstream benchmarks and achieve comparable accuracy to that of manually-curated teams based on known model specializations. Our findings provide a new basis for the automated design of collaborative multi-agent LLM teams.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づくマルチエージェントアプローチは単一モデルの能力を超える有望な戦略であるが、その成功は相乗的チーム構成に大きく依存している。
しかしながら、ほとんどのモデルの本質的な不透明さは、効果的なコラボレーションに必要な内部特性を曖昧にしているため、最適なチームを作ることは重要な課題である。
本稿では、内部アーキテクチャ、トレーニングデータ、タスクパフォーマンスなどの事前知識を必要としない、チーム構成自動作成のためのインタラクション中心のフレームワークを提案する。
本手法は,2対の会話のセマンティックコヒーレンスからモデル間の関係をマッピングする「言語モデルグラフ」を構築し,コミュニティ検出を用いて相乗的モデルクラスタを同定する。
種々のLSMを用いた実験により,提案手法は潜在特殊化を反映した機能的コヒーレントな群を発見できることを示した。
特定のトピックとのプライシングでは、ダウンストリームベンチマークでランダムなベースラインを上回り、既知のモデル特殊化に基づいて手作業で計算したチームと同等の精度を達成する、シナジスティックなチームを特定した。
本研究は,協調型多エージェントLLMチームの自動設計の新たな基盤を提供する。
関連論文リスト
- Comparative Analysis of AI Agent Architectures for Entity Relationship Classification [1.6887793771613606]
本研究では,3つの異なるAIエージェントアーキテクチャの比較分析を行い,関係分類を行う。
エージェントアーキテクチャは,(1)反射的自己評価,(2)階層的タスク分解,(3)新しいマルチエージェント動的サンプル生成機構を含む。
実験により,マルチエージェントの協調が標準のショットプロンプトより一貫して優れていることが実証された。
論文 参考訳(メタデータ) (2025-06-03T04:19:47Z) - Synergistic Weak-Strong Collaboration by Aligning Preferences [53.47675666475273]
現在のLarge Language Models (LLMs) は、プロプライエタリな知識やドメイン固有の知識を必要とする特別なタスクに苦戦する一般的な推論において優れている。
本稿では、特殊な弱いモデルと一般的な強いモデルとを組み合わせた協調的なフレームワークを提案する。
相補的な強みを活用することで、コラボレーションが各モデルを単独で著しく上回っていることが分かりました。
論文 参考訳(メタデータ) (2025-04-21T15:57:33Z) - New Dataset and Methods for Fine-Grained Compositional Referring Expression Comprehension via Specialist-MLLM Collaboration [49.180693704510006]
Referring Expression (REC) は、言語理解、画像理解、言語と画像の接点の相互作用を評価するためのクロスモーダルなタスクである。
MLLM(Multimodal Large Language Models)の試験場として機能する。
論文 参考訳(メタデータ) (2025-02-27T13:58:44Z) - A Large-Scale Evaluation of Speech Foundation Models [110.95827399522204]
音声処理ユニバーサルパフォーマンスベンチマーク(SUPERB)を構築し,基礎モデルパラダイムの有効性について検討する。
凍結基盤モデルを用いてSUPERBにおける音声処理タスクに対処する統合マルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T00:03:16Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Learning to Decode Collaboratively with Multiple Language Models [37.31339648499042]
本稿では,複数の大規模言語モデル (LLM) に,トークンレベルで世代間をインターリーブすることで協調する手法を提案する。
復号化中のトークンレベルのコラボレーションは、各モデルの専門知識を、手元にある特定のタスクに合わせて統合することを可能にする。
論文 参考訳(メタデータ) (2024-03-06T17:23:28Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。