論文の概要: A-MapReduce: Executing Wide Search via Agentic MapReduce
- arxiv url: http://arxiv.org/abs/2602.01331v1
- Date: Sun, 01 Feb 2026 16:53:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.719073
- Title: A-MapReduce: Executing Wide Search via Agentic MapReduce
- Title(参考訳): A-MapReduce: Agentic MapReduceによるワイド検索の実行
- Authors: Mingju Chen, Guibin Zhang, Heng Chang, Yuchen Guo, Shiji Zhou,
- Abstract要約: A-MapReduceはパラダイムにインスパイアされたマルチエージェント実行フレームワークである。
ワイドサーチを水平構造検索問題として再放送する。
A-MapReduceはハイパフォーマンスで、最先端のパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 29.20827525190302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary large language model (LLM)-based multi-agent systems exhibit systematic advantages in deep research tasks, which emphasize iterative, vertically structured information seeking. However, when confronted with wide search tasks characterized by large-scale, breadth-oriented retrieval, existing agentic frameworks, primarily designed around sequential, vertically structured reasoning, remain stuck in expansive search objectives and inefficient long-horizon execution. To bridge this gap, we propose A-MapReduce, a MapReduce paradigm-inspired multi-agent execution framework that recasts wide search as a horizontally structured retrieval problem. Concretely, A-MapReduce implements parallel processing of massive retrieval targets through task-adaptive decomposition and structured result aggregation. Meanwhile, it leverages experiential memory to drive the continual evolution of query-conditioned task allocation and recomposition, enabling progressive improvement in large-scale wide-search regimes. Extensive experiments on five agentic benchmarks demonstrate that A-MapReduce is (i) high-performing, achieving state-of-the-art performance on WideSearch and DeepWideSearch, and delivering 5.11% - 17.50% average Item F1 improvements compared with strong baselines with OpenAI o3 or Gemini 2.5 Pro backbones; (ii) cost-effective and efficient, delivering superior cost-performance trade-offs and reducing running time by 45.8\% compared to representative multi-agent baselines. The code is available at https://github.com/mingju-c/AMapReduce.
- Abstract(参考訳): 現代大規模言語モデル(LLM)に基づくマルチエージェントシステムは、反復的かつ垂直に構造化された情報探索を強調する深層研究課題において、体系的な優位性を示す。
しかし、大規模で広義の検索を特徴とする広い探索課題に直面した場合、従来のエージェント・フレームワークは、主にシーケンシャルで垂直に構造化された推論を主眼として設計され、拡張探索目的と非効率な長距離実行に留まったままである。
このギャップを埋めるため、我々はMapReduceパラダイムに着想を得たマルチエージェント実行フレームワークであるA-MapReduceを提案し、ワイド検索を水平構造検索問題として再キャストする。
具体的には、A-MapReduceはタスク適応分解と構造化結果アグリゲーションによって、巨大な検索対象の並列処理を実装している。
一方、実験メモリを活用して、クエリ条件付きタスク割り当てと再コンパイルの継続的な進化を促進し、大規模ワイドサーベイ体制の進歩的な改善を可能にする。
5つのエージェントベンチマークの大規模な実験により、A-MapReduceが証明される
(i)高性能で、WideSearchとDeepWideSearchで最先端のパフォーマンスを実現し、OpenAI o3やGemini 2.5 Proのバックボーンによる強力なベースラインと比較して、5.11%から17.50%の平均アイテムF1の改善を提供する。
(二)コスト効率と効率性、コストパフォーマンスのトレードオフに優れ、代表的マルチエージェントベースラインと比較してランニング時間を45.8\%削減する。
コードはhttps://github.com/mingju-c/AMapReduceで入手できる。
関連論文リスト
- FastLane: Efficient Routed Systems for Late-Interaction Retrieval [58.060096779432094]
FastLaneは、クエリを最も情報的な表現に動的にルーティングする新しい検索フレームワークである。
Approximate Nearest Neighbor Search (ANNS)で遅延処理モデルをブリッジすることで、FastLaneはスケーラブルで低レイテンシな検索を可能にする。
論文 参考訳(メタデータ) (2026-01-10T02:22:01Z) - FlashResearch: Real-time Agent Orchestration for Efficient Deep Research [62.03819662340356]
FlashResearchは効率的なディープリサーチのための新しいフレームワークです。
シーケンシャル処理を並列なランタイムオーケストレーションに変換する。
同等のクオリティを維持しつつ、最大5倍のスピードアップを提供できる。
論文 参考訳(メタデータ) (2025-10-02T00:15:39Z) - AceSearcher: Bootstrapping Reasoning and Search for LLMs via Reinforced Self-Play [45.02121903138421]
AceSearcherは1つの大きな言語モデル(LLM)をトレーニングし、複雑なクエリを分解するデコンポスタと、検索したコンテキストを統合して回答生成するソルバという2つの役割を交互に行う。
10データセットにわたる3つの推論集約タスクの実験は、AceSearcherが最先端のベースラインを上回り、平均的な正確なマッチング改善を7.6%達成していることを示している。
論文 参考訳(メタデータ) (2025-09-29T02:14:30Z) - MMSearch-R1: Incentivizing LMMs to Search [49.889749277236376]
MMSearch-R1は,実世界のインターネット環境において,オンデマンドでマルチターン検索が可能な,初のエンドツーエンド強化学習フレームワークである。
本フレームワークは画像検索とテキスト検索の両方を統合し,検索ペナルティによる結果に基づく報酬によって,モデルがいつ,どのように呼び出すかの判断を可能にする。
論文 参考訳(メタデータ) (2025-06-25T17:59:42Z) - AgentSwift: Efficient LLM Agent Design via Value-guided Hierarchical Search [58.98450205734779]
大規模言語モデル(LLM)エージェントは、多様なドメインにまたがる強力な機能を示している。
既存のエージェントサーチ手法には3つの大きな制限がある。
これらの課題に対処するための包括的なフレームワークを導入します。
論文 参考訳(メタデータ) (2025-06-06T12:07:23Z) - Demystifying and Enhancing the Efficiency of Large Language Model Based Search Agents [9.862334188345791]
大規模言語モデル(LLM)に基づく検索エージェントは,複雑なタスクを解く際,顕著な能力を示した。
LLMベースの検索エージェントのための高効率推論フレームワークであるSearchAgent-Xを紹介する。
SearchAgent-Xは、vLLMやHNSWベースの検索のような最先端システムよりも一貫して優れている。
論文 参考訳(メタデータ) (2025-05-17T16:07:01Z) - Dynamic Parallel Tree Search for Efficient LLM Reasoning [102.16694475391665]
Tree of Thoughts (ToT) は大規模言語モデル(LLM)推論を強化し、分散木としての問題解決を構造化する。
推論における推論経路を動的に最適化することを目的とした,新しい並列化フレームワークであるDynamic Parallel Tree Search (DPTS)を提案する。
Qwen-2.5とLlama-3のMath500とGSM8Kデータセットによる実験では、DPTSは平均で2-4倍効率が向上した。
論文 参考訳(メタデータ) (2025-02-22T14:13:37Z) - CART: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
クロスモーダル検索は、異なるモーダルデータの相互作用を通じて、クエリと意味的に関連するインスタンスを検索することを目的としている。
従来のソリューションでは、クエリと候補の間のスコアを明示的に計算するために、シングルトウワーまたはデュアルトウワーのフレームワークを使用している。
粗大なセマンティックモデリングに基づく生成的クロスモーダル検索フレームワーク(CART)を提案する。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - Constructing Tree-based Index for Efficient and Effective Dense
Retrieval [26.706985694158384]
JTRは、TReeベースのインデックスとクエリエンコーディングの合同最適化の略である。
我々は、木に基づくインデックスとクエリエンコーダをエンドツーエンドにトレーニングするために、新しい統合されたコントラスト学習損失を設計する。
実験結果から,JTRは高いシステム効率を維持しつつ,検索性能が向上することが示された。
論文 参考訳(メタデータ) (2023-04-24T09:25:39Z) - DASS: Differentiable Architecture Search for Sparse neural networks [0.5735035463793009]
識別可能なアーキテクチャ探索手法により高密度ネットワーク用に設計されたアーキテクチャは,プルーニング機構を適用した場合,有効ではないことがわかった。
本稿では,スパシティフレンドリなニューラルアーキテクチャを探索する新しい手法を提案する。
検索空間に2つの新しいスパース操作を追加し、探索目的を変更することでこれを行う。
論文 参考訳(メタデータ) (2022-07-14T14:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。