論文の概要: Power and Limitations of Aggregation in Compound AI Systems
- arxiv url: http://arxiv.org/abs/2602.21556v1
- Date: Wed, 25 Feb 2026 04:23:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.702859
- Title: Power and Limitations of Aggregation in Compound AI Systems
- Title(参考訳): 複合AIシステムにおける集約のパワーと限界
- Authors: Nivasini Ananthakrishnan, Meena Jagadeesan,
- Abstract要約: スタイル化された主エージェントフレームワークにおけるアグリゲーションのパワーと制限について検討する。
我々の分析では、実現可能性の拡大、サポート拡張、バインディングセットの収縮という3つの自然なメカニズムが明らかになった。
我々の結果は、複合AIシステムがモデル能力と迅速なエンジニアリングの限界を克服できる時を特徴付けるための一歩を踏み出した。
- 参考スコア(独自算出の注目度): 10.867699486308197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When designing compound AI systems, a common approach is to query multiple copies of the same model and aggregate the responses to produce a synthesized output. Given the homogeneity of these models, this raises the question of whether aggregation unlocks access to a greater set of outputs than querying a single model. In this work, we investigate the power and limitations of aggregation within a stylized principal-agent framework. This framework models how the system designer can partially steer each agent's output through its reward function specification, but still faces limitations due to prompt engineering ability and model capabilities. Our analysis uncovers three natural mechanisms -- feasibility expansion, support expansion, and binding set contraction -- through which aggregation expands the set of outputs that are elicitable by the system designer. We prove that any aggregation operation must implement one of these mechanisms in order to be elicitability-expanding, and that strengthened versions of these mechanisms provide necessary and sufficient conditions that fully characterize elicitability-expansion. Finally, we provide an empirical illustration of our findings for LLMs deployed in a toy reference-generation task. Altogether, our results take a step towards characterizing when compound AI systems can overcome limitations in model capabilities and in prompt engineering.
- Abstract(参考訳): 複合AIシステムを設計する場合、一般的なアプローチは、同じモデルの複数のコピーをクエリして、レスポンスを集約して、合成された出力を生成することである。
これらのモデルの均一性を考えると、アグリゲーションが単一のモデルに問い合わせるよりも大きなアウトプットへのアクセスを解放するかどうかという疑問が提起される。
本研究では,形式化された主エージェントフレームワークにおけるアグリゲーションのパワーと限界について検討する。
このフレームワークは、システムデザイナが報酬関数仕様を通じて各エージェントの出力を部分的に管理する方法をモデル化するが、迅速なエンジニアリング能力とモデル機能のために制限に直面している。
我々の分析では、システムデザイナが要求するアウトプットのセットを集約することによって、実現可能性の拡大、サポート拡張、バインディングセットの収縮という3つの自然なメカニズムを明らかにしました。
我々は,どのアグリゲーション操作でも,これらのメカニズムの1つを実装する必要があることを証明し,これらのメカニズムの強化されたバージョンは,有効性拡張を完全に特徴づける必要十分条件を提供する。
最後に,おもちゃの参照生成タスクに展開したLSMについて,実験的な考察を行った。
いずれにせよ、私たちの結果は、複雑なAIシステムがモデル能力や迅速なエンジニアリングの限界を克服できる時を特徴付けるための一歩を踏み出した。
関連論文リスト
- The Law of Multi-Model Collaboration: Scaling Limits of Model Ensembling for Large Language Models [54.51795784459866]
マルチモデル協調のための性能スケーリングの理論的枠組みを提案する。
本稿では,マルチモデルシステムにおいて,パラメータの総数に関して,パワー則のスケーリングが従うことを示す。
不均一なモデルファミリのアンサンブルは、単一のモデルファミリ内で形成されたものよりも優れたパフォーマンスのスケーリングを実現する。
論文 参考訳(メタデータ) (2025-12-29T09:55:12Z) - Experts are all you need: A Composable Framework for Large Language Model Inference [8.747592414164687]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて最先端の精度を達成した。
MoEは、パラメータや"専門家"のサブセットのみを活性化することによって、モデルキャパシティを計算から切り離すことで、このボトルネックを克服する。
論文 参考訳(メタデータ) (2025-11-28T08:00:16Z) - An Integrated Fusion Framework for Ensemble Learning Leveraging Gradient Boosting and Fuzzy Rule-Based Models [59.13182819190547]
ファジィ規則に基づくモデルは解釈可能性に優れ、様々な分野に広く応用されている。
複雑な設計仕様や大規模データセットのスケーラビリティといった課題に直面している。
本稿では,モデル性能と解釈可能性を高めるために,両パラダイムの強みを融合した統合統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T10:28:23Z) - Tractable Asymmetric Verification for Large Language Models via Deterministic Replicability [0.6117371161379209]
大規模言語モデル(LLM)の展望は、動的でマルチエージェントなシステムへと急速にシフトします。
本稿では, トラクタブルな非対称な作業を実現するための検証フレームワークを提案する。
対象検定は全再生の12倍以上の速さで行うことができる。
論文 参考訳(メタデータ) (2025-09-14T03:30:06Z) - Assemble Your Crew: Automatic Multi-agent Communication Topology Design via Autoregressive Graph Generation [91.17994756436259]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)は、多様な領域にわたる複雑な問題を扱うための強力なソリューションとして登場した。
既存のアプローチは、事前に定義されたエージェントセットとハードコードされた相互作用構造を持つテンプレートグラフ修正パラダイムに依存しているため、基本的に制限されている。
協調グラフをスクラッチから構築することで、このパラダイムを運用する新しい自己回帰モデルであるARG-Designerを提案する。
論文 参考訳(メタデータ) (2025-07-24T09:17:41Z) - SE-Merging: A Self-Enhanced Approach for Dynamic Model Merging [60.83635006372403]
textttSE-Mergingは自己拡張型モデルマージフレームワークである。
textttSE-Mergingは、追加のトレーニングなしで動的モデルのマージを実現することを示す。
論文 参考訳(メタデータ) (2025-06-22T18:38:41Z) - HeterRec: Heterogeneous Information Transformer for Scalable Sequential Recommendation [21.435064492654494]
HeterRecは、アイテム側の異種機能を統合するシーケンシャルレコメンデーションモデルである。
HeterRecはHTFLと階層型因果変圧器層(HCT)を組み込んでいる
オフラインとオンライン両方のデータセットに対する大規模な実験は、HeterRecモデルが優れたパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2025-03-03T12:23:54Z) - Attention Mechanisms Don't Learn Additive Models: Rethinking Feature Importance for Transformers [12.986126243018452]
変換器は、特徴属性に使用される線形または付加的な代理モデルを表現することができず、構造的に不可能である。
我々は,変圧器フレームワークに特化して設計された新しい代理モデルであるSoftmax-Linked Additive Log Odds Model (SLALOM)を紹介する。
SLALOMが競合する代理モデルよりもはるかに高い忠実さで説明できることを示すことで、SLALOMの独特な効率品質曲線を強調した。
論文 参考訳(メタデータ) (2024-05-22T11:14:00Z) - Probabilistic ML Verification via Weighted Model Integration [11.812078181471634]
機械学習モデルの確率形式検証(PFV)はその初期段階にある。
重み付きモデル統合(WMI)に基づくMLシステムのPFV統合フレームワークを提案する。
ML検証文献におけるスケーリング手法が,本来の範囲を超えていかに一般化できるかを示す。
論文 参考訳(メタデータ) (2024-02-07T14:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。