論文の概要: MALBO: Optimizing LLM-Based Multi-Agent Teams via Multi-Objective Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2511.11788v1
- Date: Fri, 14 Nov 2025 18:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.311723
- Title: MALBO: Optimizing LLM-Based Multi-Agent Teams via Multi-Objective Bayesian Optimization
- Title(参考訳): MALBO:多目的ベイズ最適化によるLLMベースのマルチエージェントチームの最適化
- Authors: Antonio Sabbatella,
- Abstract要約: この論文では、マルチエージェントAIチームの効率的な構成を自動化するように設計された、体系的なフレームワークであるMALBOを紹介している。
タスクの精度と推論コストの間の設定の前面を特定することを目的として,多目的最適化問題として代入課題を定式化する。
その結果、ベイズ最適化フェーズは、初期ランダム検索と比較して、平均構成コストを45%以上削減しつつ、同等な平均性能を維持した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The optimal assignment of Large Language Models (LLMs) to specialized roles in multi-agent systems is a significant challenge, defined by a vast combinatorial search space, expensive black-box evaluations, and an inherent trade-off between performance and cost. Current optimization methods focus on single-agent settings and lack a principled framework for this multi-agent, multi-objective problem. This thesis introduces MALBO (Multi-Agent LLM Bayesian Optimization), a systematic framework designed to automate the efficient composition of LLM-based agent teams. We formalize the assignment challenge as a multi-objective optimization problem, aiming to identify the Pareto front of configurations between task accuracy and inference cost. The methodology employs multi-objective Bayesian Optimization (MOBO) with independent Gaussian Process surrogate models. By searching over a continuous feature-space representation of the LLMs, this approach performs a sample-efficient exploration guided by the expected hypervolume improvement. The primary contribution is a principled and automated methodology that yields a Pareto front of optimal team configurations. Our results demonstrate that the Bayesian optimization phase, compared to an initial random search, maintained a comparable average performance while reducing the average configuration cost by over 45%. Furthermore, MALBO identified specialized, heterogeneous teams that achieve cost reductions of up to 65.8% compared to homogeneous baselines, all while maintaining maximum performance. The framework thus provides a data-driven tool for deploying cost-effective and highly specialized multi-agent AI systems.
- Abstract(参考訳): 大規模言語モデル(LLM)の多エージェントシステムにおける特殊機能への最適割り当ては、膨大な組合せ探索空間、高価なブラックボックス評価、性能とコストのトレードオフによって定義される重要な課題である。
現在の最適化手法は単一エージェント設定に重点を置いており、このマルチエージェント・多目的問題に対する原則的な枠組みが欠如している。
MALBO(Multi-Agent LLM Bayesian Optimization)は、LLMベースのエージェントチームの効率的な構成を自動化するための体系的なフレームワークである。
タスク精度と推論コストの間の構成のParetoフロントを特定することを目的として,多目的最適化問題として代入課題を定式化する。
この手法は、多目的ベイズ最適化(MOBO)と独立したガウスプロセスサロゲートモデルを用いている。
LLMの連続的な特徴空間表現を探索することにより、期待される超体積改善によって導かれる標本効率の高い探索を行う。
主な貢献は、最適なチーム構成をパレートする原則と自動化された方法論である。
その結果、ベイズ最適化フェーズは、初期ランダム検索と比較して、平均構成コストを45%以上削減しつつ、同等な平均性能を維持した。
さらに、MALBOは、最大性能を維持しながら、均一なベースラインに比べて最大65.8%のコスト削減を達成する、特殊で異質なチームを特定した。
このフレームワークは、コスト効率が高く、高度に専門化されたマルチエージェントAIシステムをデプロイするための、データ駆動ツールを提供する。
関連論文リスト
- Parametric Expensive Multi-Objective Optimization via Generative Solution Modeling [34.344228998247225]
本稿では,この逆モデルについて,獲得駆動探索モデルと生成モデルとの交互に学習した最初のパラメトリック多目的ベイズモデルを提案する。
我々はタスク対応ガウス過程を通じてタスク間シナジーを活用することにより、より高速な収束を理論的に正当化する。
論文 参考訳(メタデータ) (2025-11-12T15:13:27Z) - Controlling Performance and Budget of a Centralized Multi-agent LLM System with Reinforcement Learning [53.57360296655208]
大規模言語モデル(LLM)は、ドメイン間で補完的な強みを示し、様々な推論コストが伴う。
既存のアプローチは分散化されたフレームワークに依存しており、入力毎に複数のLSMを呼び出すため、実質的で制御されていない推論コストが発生する。
我々は,LLMコントローラが,コスト効率とコスト制御が可能な方法で,専門家モデルのプールを選択的にコーディネートする,集中型マルチLLMフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-04T17:35:17Z) - Multi-Agent Tool-Integrated Policy Optimization [67.12841355267678]
大規模言語モデル(LLM)は、知識集約的かつ複雑な推論タスクに対して、多ターンツール統合計画にますます依存している。
既存の実装は通常、単一のエージェントに依存するが、コンテキスト長とノイズの多いツールレスポンスに悩まされる。
ツール統合マルチエージェントフレームワークの効果的な強化学習をサポートする方法はない。
論文 参考訳(メタデータ) (2025-10-06T10:44:04Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - Faster, Cheaper, Better: Multi-Objective Hyperparameter Optimization for LLM and RAG Systems [8.438382004567961]
本稿では,LLMおよびRAGシステム全体に対するコスト,レイテンシ,安全性,アライメントの多目的パラメータ最適化のための最初のアプローチを提案する。
ベイジアン最適化法はベースライン法よりも有意に優れていた。
我々は,多目的RAGシステムを設計している実践者に対する重要な配慮で研究を締めくくっている。
論文 参考訳(メタデータ) (2025-02-25T20:52:06Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - BOtied: Multi-objective Bayesian optimization with tied multivariate ranks [33.414682601242006]
本稿では,非支配解と結合累積分布関数の極端量子化との自然な関係を示す。
このリンクにより、我々はPareto対応CDFインジケータと関連する取得関数BOtiedを提案する。
種々の合成および実世界の問題に対する実験により,BOtied は最先端MOBO 取得関数より優れていることが示された。
論文 参考訳(メタデータ) (2023-06-01T04:50:06Z) - Leveraging Trust for Joint Multi-Objective and Multi-Fidelity
Optimization [0.0]
本稿では,ベイズ的多目的・多忠実度最適化(MOMF)に対する新しいアプローチについて検討する。
複数目的とデータソースの同時最適化を支援するために,信頼度基準の革新的利用を提案する。
本手法はプラズマ物理学や流体力学などの分野におけるシミュレーション問題の解法に適用可能である。
論文 参考訳(メタデータ) (2021-12-27T20:55:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。