論文の概要: ROMA: Recursive Open Meta-Agent Framework for Long-Horizon Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2602.01848v1
- Date: Mon, 02 Feb 2026 09:20:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.035603
- Title: ROMA: Recursive Open Meta-Agent Framework for Long-Horizon Multi-Agent Systems
- Title(参考訳): ROMA: 長期マルチエージェントシステムのための再帰的オープンメタエージェントフレームワーク
- Authors: Salaheddin Alzu'bi, Baran Nama, Arda Kaz, Anushri Eswaran, Weiyuan Chen, Sarvesh Khetan, Rishab Bala, Tu Vu, Sewoong Oh,
- Abstract要約: 現在のエージェントフレームワークは、ロングホライゾンタスクでパフォーマンスが低い。
これらの制限に対処するドメインに依存しないフレームワークであるROMAを紹介します。
ROMAとGEPA+が組み合わさって、推論と長文生成のベンチマークにおいて、システムレベルの主要な性能を提供することを示す。
- 参考スコア(独自算出の注目度): 25.131570054560353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current agentic frameworks underperform on long-horizon tasks. As reasoning depth increases, sequential orchestration becomes brittle, context windows impose hard limits that degrade performance, and opaque execution traces make failures difficult to localize or debug. We introduce ROMA (Recursive Open Meta-Agents), a domain-agnostic framework that addresses these limitations through recursive task decomposition and structured aggregation. ROMA decomposes goals into dependency-aware subtask trees that can be executed in parallel, while aggregation compresses and validates intermediate results to control context growth. Our framework standardizes agent construction around four modular roles --Atomizer (which decides whether a task should be decomposed), Planner, Executor, and Aggregator -- which cleanly separate orchestration from model selection and enable transparent, hierarchical execution traces. This design supports heterogeneous multi-agent systems that mix models and tools according to cost, latency, and capability. To adapt ROMA to specific tasks without fine-tuning, we further introduce GEPA$+$, an improved Genetic-Pareto prompt proposer that searches over prompts within ROMA's component hierarchy while preserving interface contracts. We show that ROMA, combined with GEPA+, delivers leading system-level performance on reasoning and long-form generation benchmarks. On SEAL-0, which evaluates reasoning over conflicting web evidence, ROMA instantiated with GLM-4.6 improves accuracy by 9.9\% over Kimi-Researcher. On EQ-Bench, a long-form writing benchmark, ROMA enables DeepSeek-V3 to match the performance of leading closed-source models such as Claude Sonnet 4.5. Our results demonstrate that recursive, modular agent architectures can scale reasoning depth while remaining interpretable, flexible, and model-agnostic.
- Abstract(参考訳): 現在のエージェントフレームワークは、ロングホライゾンタスクでパフォーマンスが低い。
推論の深さが大きくなると、シーケンシャルなオーケストレーションは不安定になり、コンテキストウィンドウはパフォーマンスを低下させる厳しい制限を課し、不透明な実行トレースは障害のローカライズやデバッグを困難にする。
ROMA(Recursive Open Meta-Agents)はドメインに依存しないフレームワークで、再帰的なタスク分解と構造化された集約を通じてこれらの制限に対処する。
ROMAは、目標を並列に実行できる依存性対応のサブタスクツリーに分解し、アグリゲーションは圧縮し、中間結果を検証してコンテキストの成長を制御する。
当社のフレームワークでは,4つのモジュールロール – Atomizer(タスクの分解を判断する),Planner,Executor,Aggregator – に関するエージェント構築を標準化しています。
この設計は、コスト、レイテンシ、能力に応じてモデルとツールを混合する異種マルチエージェントシステムをサポートしている。
さらに,ROMAのコンポーネント階層内のプロンプトを検索する改良されたジェネティック・パレート・プロンプトプロジェクタであるGEPA$+$を導入し,インタフェースのコントラクトを保ちながら,ROMAのコンポーネント階層内でのプロンプトを検索する。
ROMAとGEPA+が組み合わさって、推論と長文生成のベンチマークにおいて、システムレベルの主要な性能を提供することを示す。
矛盾するWebエビデンスに対する推論を評価するSEAL-0では、GLM-4.6でインスタンス化されたROMAは、Kimi-Researcherよりも9.9%精度が向上する。
長期の書き込みベンチマークであるEQ-Benchでは、ROMAはDeepSeek-V3がClaude Sonnet 4.5のような主要なクローズドソースモデルのパフォーマンスに匹敵することを可能にする。
この結果から,再帰的,モジュール型エージェントアーキテクチャは解釈可能,柔軟,モデルに依存しないまま,推論深度を拡張可能であることが示された。
関連論文リスト
- AIConfigurator: Lightning-Fast Configuration Optimization for Multi-Framework LLM Serving [16.664502126572856]
AIConfiguratorは、Large Language Model(LLM)推論のための統一されたパフォーマンスモデリングシステムである。
GPUベースのプロファイリングを必要とせずに、迅速なフレームワークベースの構成検索を可能にする。
これは、高密度モデルのパフォーマンスを最大40%向上させる優れたサービス構成を特定する。
論文 参考訳(メタデータ) (2026-01-09T20:03:57Z) - Beyond Monolithic Architectures: A Multi-Agent Search and Knowledge Optimization Framework for Agentic Search [56.78490647843876]
エージェント検索は、大規模言語モデル(LLM)が推論とツールの使用をインターリーブできるようにすることによって、複雑な情報を探すための有望なパラダイムとして登場した。
本稿では,bfM-ASKを提案する。bfM-ASK,bfM-ASK,bfM-ASK,bfM-ASK,bfM-ASK,bfM-ASK,bfM-ASK,bfM-ASK。
論文 参考訳(メタデータ) (2026-01-08T08:13:27Z) - Monadic Context Engineering [59.95390010097654]
本稿では,エージェント設計の正式な基盤を提供するために,モナディックコンテキストエンジニアリング(MCE)を紹介する。
我々は、モナドがロバストなコンポジションをどのように実現し、Applicativesが並列実行に原則化された構造を提供し、また、モナドトランスフォーマーがこれらの機能の体系的なコンポジションをどのように可能にしているかを実証する。
この階層化されたアプローチにより、開発者は、単純で独立した検証可能なコンポーネントから、複雑でレジリエントで効率的なAIエージェントを構築することができる。
論文 参考訳(メタデータ) (2025-12-27T01:52:06Z) - Resolving Evidence Sparsity: Agentic Context Engineering for Long-Document Understanding [49.26132236798123]
視覚言語モデル(VLM)は、文書理解における主要なアプローチになりつつある。
本稿では,粗いプロセスにおいて,検索者と4つの協調エージェントを編成するマルチエージェントフレームワークSLEUTHを提案する。
このフレームワークは、検索したページ内の重要なテキストおよび視覚的手がかりを特定し、テーブルやチャートなどの健全な視覚的エビデンスをフィルタし、クエリを分析して推論戦略を考案する。
論文 参考訳(メタデータ) (2025-11-28T03:09:40Z) - AgentGit: A Version Control Framework for Reliable and Scalable LLM-Powered Multi-Agent Systems [7.408263799616532]
AgentGitはGitライクなロールバックとブランチをマルチエージェントシステム(MAS)にもたらすフレームワークです。
AgentGitは冗長、ランタイム、トークンの使用を著しく削減し、複数のブランチをまたいだ並列探索をサポートしています。
この作業は、より堅牢なMAS設計への実践的なパスを提供し、コラボレーティブAIシステムにおけるエラー回復、安全な探索、計算、A/Bテストを可能にする。
論文 参考訳(メタデータ) (2025-11-01T17:11:31Z) - MSC-Bench: A Rigorous Benchmark for Multi-Server Tool Orchestration [0.0]
MSC-Benchは、LLMエージェントによるマルチホップ、エンドツーエンドのツールオーケストレーションを評価するための大規模なベンチマークである。
これは「等式集合」を通じて基底真理を構築することでギャップに対処し、F1スコアのような客観的なメトリクスを可能にする。
シングルツールオーケストレーションから複雑なクロスサーバ計画、スコープ外要求に対する堅牢性まで、エージェント機能を体系的にテストする。
論文 参考訳(メタデータ) (2025-10-22T09:45:11Z) - AGENTIQL: An Agent-Inspired Multi-Expert Framework for Text-to-SQL Generation [0.509780930114934]
AgentIQLはエージェントにインスパイアされたフレームワークで、質問分解のための推論エージェント、サブクエリ生成のためのコーディングエージェント、列選択のための洗練ステップを組み合わせたものだ。
我々は、Planner&Executorのマージ戦略を用いて、14Bモデルで最大86.07%のEXを達成し、Spiderベンチマークで AgentIQLを評価した。
正確性を超えて、AgentIQLは、中間的推論ステップを公開することによって透明性を高め、セマンティック解析に対する堅牢でスケーラブルで解釈可能なアプローチを提供する。
論文 参考訳(メタデータ) (2025-10-12T15:35:05Z) - Flash-Searcher: Fast and Effective Web Agents via DAG-Based Parallel Execution [48.7788770680643]
Flash-Searcherは、新しい並列エージェント推論フレームワークである。
複雑なタスクを明示的な依存関係でサブタスクに分解し、独立した推論パスの同時実行を可能にする。
BrowseCompでは67.7%の精度で、xbench-DeepSearchでは83%、エージェントの実行手順は現在のフレームワークに比べて最大35%削減されている。
論文 参考訳(メタデータ) (2025-09-29T17:39:30Z) - Maestro: Joint Graph & Config Optimization for Reliable AI Agents [53.71882250666667]
Maestro は LLM エージェントのための全体論的に依存しないフレームワークであり、エージェントの品質を最大化するためにグラフや構成を共同で検索する。
IFBenchとHotpotQAのベンチマークでは、MIPROv2、GEPA、GEPA+といった主要なプロンプトを平均12%--4.9%、それぞれ4.86%上回っている。
論文 参考訳(メタデータ) (2025-09-04T20:00:37Z) - Visual Document Understanding and Question Answering: A Multi-Agent Collaboration Framework with Test-Time Scaling [83.78874399606379]
テスト時間スケーリングを備えたマルチエージェント協調フレームワークであるMACTを提案する。
4つの異なる小規模エージェントから構成され、明確に定義された役割と効果的なコラボレーションがある。
一般および数学的タスクの能力を犠牲にすることなく、より小さなパラメータスケールで優れた性能を示す。
論文 参考訳(メタデータ) (2025-08-05T12:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。