論文の概要: LLM Chemistry Estimation for Multi-LLM Recommendation
- arxiv url: http://arxiv.org/abs/2510.03930v1
- Date: Sat, 04 Oct 2025 20:21:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.349215
- Title: LLM Chemistry Estimation for Multi-LLM Recommendation
- Title(参考訳): マルチLLMレコメンデーションのためのLCM化学推定
- Authors: Huascar Sanchez, Briland Hitaj,
- Abstract要約: LLM 化学 - LLM の組み合わせが相乗的あるいは対角的な振る舞いを示す場合を測定するフレームワーク。
理論解析により,LLM間の化学は異種モデルプロファイルにおいて最も顕著であることが示された。
LLM化学はマルチLLMシステムの診断因子であり、アンサンブルレコメンデーションの基礎でもある。
- 参考スコア(独自算出の注目度): 0.4740962650068887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-LLM collaboration promises accurate, robust, and context-aware solutions, yet existing approaches rely on implicit selection and output assessment without analyzing whether collaborating models truly complement or conflict. We introduce LLM Chemistry -- a framework that measures when LLM combinations exhibit synergistic or antagonistic behaviors that shape collective performance beyond individual capabilities. We formalize the notion of chemistry among LLMs, propose algorithms that quantify it by analyzing interaction dependencies, and recommend optimal model ensembles accordingly. Our theoretical analysis shows that chemistry among collaborating LLMs is most evident under heterogeneous model profiles, with its outcome impact shaped by task type, group size, and complexity. Evaluation on classification, summarization, and program repair tasks provides initial evidence for these task-dependent effects, thereby reinforcing our theoretical results. This establishes LLM Chemistry as both a diagnostic factor in multi-LLM systems and a foundation for ensemble recommendation.
- Abstract(参考訳): マルチLLMコラボレーションは、正確で堅牢でコンテキスト対応のソリューションを約束するが、既存のアプローチでは、コラボレーションモデルが真に補完するかどうかを分析することなく、暗黙の選択と出力アセスメントに依存している。
LLM Chemistry - LLMの組み合わせが、個々の能力を超えた集団的パフォーマンスを形成する相乗的あるいは対角的な振る舞いを示す場合を測定するフレームワーク。
LLM間の化学の概念を形式化し、相互作用依存を分析してそれを定量化するアルゴリズムを提案し、それに応じて最適なモデルアンサンブルを推奨する。
理論解析により,LLM間の化学は,タスクタイプ,グループサイズ,複雑度による結果の影響で,異種モデルプロファイルにおいて最も顕著であることが示された。
分類、要約、プログラム修復タスクの評価は、これらのタスク依存効果の最初の証拠となり、理論的結果を補強する。
LLM化学はマルチLLMシステムの診断因子であり、アンサンブルレコメンデーションの基礎でもある。
関連論文リスト
- MALT: Improving Reasoning with Multi-Agent LLM Training [67.76186488361685]
MALT(Multi-Agent LLM Training)は、推論プロセスを生成、検証、改善ステップに分割する、新しいポストトレーニング戦略である。
MATH、GSM8K、CSQAでは、MALTは、それぞれ15.66%、7.42%、9.40%の相対的な改善で同じベースラインLLMを上回っている。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - Comparative Analysis of Pooling Mechanisms in LLMs: A Sentiment Analysis Perspective [0.0]
BERTやGPTのようなトランスフォーマーベースのモデルは、トークンレベルの埋め込みを文レベルの表現に集約するためにプール層に依存している。
Mean、Max、Weighted Sumといった一般的なプール機構は、この集約プロセスにおいて重要な役割を果たす。
本稿では,これらのプール機構が文レベル感情分析の文脈における2つの著名なLCMファミリー(BERTとGPT)に与える影響について検討する。
論文 参考訳(メタデータ) (2024-11-22T00:59:25Z) - CoMMIT: Coordinated Multimodal Instruction Tuning [90.1532838391285]
マルチモーダル大言語モデル(MLLM)は一般に、バックボーンLLMと非テキスト入力モードの特徴エンコーダ間の協調学習を含む。
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
本稿では,学習のバランスを定量的に測定できるマルチモーダルバランス係数を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Ensemble Learning for Heterogeneous Large Language Models with Deep Parallel Collaboration [39.35476224845088]
大規模言語モデル(LLM)は様々なタスクにおいて補完的な強みを示し、LLMアンサンブルの研究を動機付けている。
本稿では,各復号ステップで異なるLLMから得られる情報的確率分布を融合した学習自由アンサンブルフレームワークDeePEnを提案する。
論文 参考訳(メタデータ) (2024-04-19T08:52:22Z) - What Makes Quantization for Large Language Models Hard? An Empirical
Study from the Lens of Perturbation [55.153595212571375]
量子化は、大規模言語モデル(LLM)のメモリと計算効率を改善する技術である。
本稿では,LLMの重みと活性化に付加される摂動として,量子化の新しい視点を提案する。
各種人工摂動実験を行い,LLMの性能への影響について検討する。
論文 参考訳(メタデータ) (2024-03-11T03:42:51Z) - From Words to Molecules: A Survey of Large Language Models in Chemistry [8.129759559674968]
本稿では,Large Language Models (LLM) を化学分野に組み込む際に用いられるニュアンスド方法論について考察する。
化学LLMを,その入力データのドメインとモダリティに基づいて3つの異なるグループに分類し,これらをLCMに組み込むアプローチについて議論する。
最後に,化学知識のさらなる統合,継続学習の進歩,モデル解釈可能性の向上など,有望な研究方向性を明らかにした。
論文 参考訳(メタデータ) (2024-02-02T14:30:48Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。