論文の概要: Verified Multi-Agent Orchestration: A Plan-Execute-Verify-Replan Framework for Complex Query Resolution
- arxiv url: http://arxiv.org/abs/2603.11445v1
- Date: Thu, 12 Mar 2026 02:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.816784
- Title: Verified Multi-Agent Orchestration: A Plan-Execute-Verify-Replan Framework for Complex Query Resolution
- Title(参考訳): Verified Multi-Agent Orchestration: 複雑なクエリ解決のためのプラン-エグゼクティブ-検証-リプランフレームワーク
- Authors: Xing Zhang, Yanwei Cui, Guanghui Wang, Qucy Wei Qiu, Ziyuan Li, Fangwei Han, Yajing Huang, Hengzhi Qiu, Bin Zhu, Peiyang He,
- Abstract要約: We present Verified Multi-Agent Orchestration (VMAO) a framework that coordinates special LLM-based agent through a verification-driven iterative loop。
専門家による25の市場調査クエリでは、VMAOは回答完全性を3.1から4.2に改善し、ソース品質はシングルエージェントベースラインに比べて2.6から4.1(5スケール)に改善した。
- 参考スコア(独自算出の注目度): 12.354608127688925
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Verified Multi-Agent Orchestration (VMAO), a framework that coordinates specialized LLM-based agents through a verification-driven iterative loop. Given a complex query, our system decomposes it into a directed acyclic graph (DAG) of sub-questions, executes them through domain-specific agents in parallel, verifies result completeness via LLM-based evaluation, and adaptively replans to address gaps. The key contributions are: (1) dependency-aware parallel execution over a DAG of sub-questions with automatic context propagation, (2) verification-driven adaptive replanning that uses an LLM-based verifier as an orchestration-level coordination signal, and (3) configurable stop conditions that balance answer quality against resource usage. On 25 expert-curated market research queries, VMAO improves answer completeness from 3.1 to 4.2 and source quality from 2.6 to 4.1 (1-5 scale) compared to a single-agent baseline, demonstrating that orchestration-level verification is an effective mechanism for multi-agent quality assurance.
- Abstract(参考訳): We present Verified Multi-Agent Orchestration (VMAO) a framework that coordinates special LLM-based agent through a verification-driven iterative loop。
複雑なクエリを条件として,サブクエストの有向非巡回グラフ(DAG)に分解し,ドメイン固有のエージェントを並列に実行し,LCMによる評価により結果の完全性を検証し,ギャップに適応的に対処する。
主なコントリビューションは,(1)自動コンテキスト伝搬を伴うサブクエリのDAG上での依存性を意識した並列実行,(2) LLMベースの検証器をオーケストレーションレベルの調整信号として使用する検証駆動適応リプランニング,(3)応答品質とリソース使用量のバランスをとる構成可能な停止条件である。
専門家による25の市場調査クエリでは、VMAOは回答完全性を3.1から4.2に改善し、ソース品質はシングルエージェントベースラインに比べて2.6から4.1(5スケール)に改善し、オーケストレーションレベルの検証がマルチエージェント品質保証の効果的なメカニズムであることを実証している。
関連論文リスト
- MC-Search: Evaluating and Enhancing Multimodal Agentic Search with Structured Long Reasoning Chains [79.14584837105808]
MC-Searchは5つの代表的推論構造にまたがる長いステップワイドなアノテート推論チェーンを持つエージェントMM-RAGの最初のベンチマークである。
回答精度以外にも、MC-Searchは、品質、段階的検索、計画精度を推論するための新しいプロセスレベルメトリクスを導入している。
エージェントMM-RAGパイプラインを統一的に開発することにより、6つのMLLMをベンチマークし、過剰検索や過度検索、モダリティミスアライメント計画などの体系的な問題を明らかにする。
論文 参考訳(メタデータ) (2026-03-01T02:25:57Z) - AdaptOrch: Task-Adaptive Multi-Agent Orchestration in the Era of LLM Performance Convergence [0.0]
AdaptOrchはタスク適応型マルチエージェントオーケストレーションのための正式なフレームワークである。
トポロジ対応オーケストレーションは、静的シングルトポロジベースラインよりも12~23%改善されている。
論文 参考訳(メタデータ) (2026-02-18T21:00:05Z) - ORCH: many analyses, one merge-a deterministic multi-agent orchestrator for discrete-choice reasoning with EMA-guided routing [0.6445605125467574]
ORCHは異種言語モデルを編成する離散選択推論のためのフレームワークである。
タスクの分解と回答の集約に固定されたルールを使用し、パイプラインを予測可能、再現可能、トレーニング不要にする。
MMLU、MMLU-Pro、GSM8Kの実験では、ORCHは単一モデルベースラインと多数投票アンサンブルを一貫して上回っている。
論文 参考訳(メタデータ) (2026-02-02T08:27:58Z) - Multi-Agent LLM Orchestration Achieves Deterministic, High-Quality Decision Support for Incident Response [0.0]
大規模言語モデル(LLM)は、本番システムにおけるインシデント応答を加速することを約束する。
しかし、単一エージェントアプローチは曖昧で使用不能なレコメンデーションを生成する。
コンテナ化されたフレームワークであるMyAntFarm.aiを紹介し、マルチエージェントオーケストレーションがインシデント応答の品質を変えることを示す。
論文 参考訳(メタデータ) (2025-11-19T06:06:11Z) - Learning to Route: A Rule-Driven Agent Framework for Hybrid-Source Retrieval-Augmented Generation [55.47971671635531]
大言語モデル(LLM)は、一般質問回答(QA)において顕著な性能を示した。
Retrieval-Augmented Generation (RAG)は、LLMを外部知識で強化することで、この制限に対処する。
既存のシステムは、主に構造化されていないドキュメントに依存しているが、主にリレーショナルデータベースを見下ろしている。
論文 参考訳(メタデータ) (2025-09-30T22:19:44Z) - Diagnose, Localize, Align: A Full-Stack Framework for Reliable LLM Multi-Agent Systems under Instruction Conflicts [75.20929587906228]
LLM(Large Language Model)を利用したマルチエージェントシステム(MAS)は、複雑なタスクにおける協調推論、ツールの使用、役割特化調整を急速に進めている。
しかし、信頼性クリティカルなデプロイメントは、体系的な障害モード、すなわち命令の競合による階層的コンプライアンスによって妨げられている。
論文 参考訳(メタデータ) (2025-09-27T08:43:34Z) - CompassVerifier: A Unified and Robust Verifier for LLMs Evaluation and Outcome Reward [50.97588334916863]
評価と結果報酬のための正確で堅牢な軽量検証モデルであるCompassVerifierを開発した。
数学、知識、多種多様な推論タスクにまたがる多分野の能力を示し、様々な答えの型を処理する能力を示す。
我々は,複数のデータソースから収集したモデル出力からなるVerifierBenchベンチマークを導入し,メタエラーパターンを手動で解析してCompassVerifierを強化する。
論文 参考訳(メタデータ) (2025-08-05T17:55:24Z) - PrismRAG: Boosting RAG Factuality with Distractor Resilience and Strategized Reasoning [57.89188317734747]
PrismRAGはこのモデルを、イントラクタを意識したQAペアで訓練し、金の証拠と微妙なイントラクタパスを混合する。
LLMを計画し、合理化し、人間工学的な指示に頼らずに合成する推論中心の習慣を取り入れている。
論文 参考訳(メタデータ) (2025-07-25T00:15:31Z) - SPARE: Single-Pass Annotation with Reference-Guided Evaluation for Automatic Process Supervision and Reward Modelling [58.05959902776133]
私たちはSingle-Passを紹介します。
Reference-Guided Evaluation (SPARE)は、効率的なステップごとのアノテーションを可能にする新しい構造化フレームワークである。
数学的推論(GSM8K, MATH)、マルチホップ質問応答(MuSiQue-Ans)、空間推論(SpaRP)にまたがる4つの多様なデータセットにおけるSPAREの有効性を実証する。
ProcessBenchでは、SPAREがデータ効率のよいアウト・オブ・ディストリビューションの一般化を実証し、トレーニングサンプルの$sim$16%しか使用していない。
論文 参考訳(メタデータ) (2025-06-18T14:37:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。