論文の概要: ParallelMuse: Agentic Parallel Thinking for Deep Information Seeking
- arxiv url: http://arxiv.org/abs/2510.24698v1
- Date: Tue, 28 Oct 2025 17:51:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.324832
- Title: ParallelMuse: Agentic Parallel Thinking for Deep Information Seeking
- Title(参考訳): ParallelMuse: 深層情報検索のためのエージェント並列思考
- Authors: Baixuan Li, Dingchu Zhang, Jialong Wu, Wenbiao Yin, Zhengwei Tao, Yida Zhao, Liwen Zhang, Haiyang Shen, Runnan Fang, Pengjun Xie, Jingren Zhou, Yong Jiang,
- Abstract要約: 並列思考は探索範囲を広げ、情報探索(IS)エージェントの深い探索を補完する。
ディープISエージェント用に設計された2段階パラダイムであるParallelMuseを提案する。
複数のオープンソースエージェントとベンチマークの実験では、最大62%のパフォーマンス改善が示されている。
- 参考スコア(独自算出の注目度): 59.65564262588308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parallel thinking expands exploration breadth, complementing the deep exploration of information-seeking (IS) agents to further enhance problem-solving capability. However, conventional parallel thinking faces two key challenges in this setting: inefficiency from repeatedly rolling out from scratch, and difficulty in integrating long-horizon reasoning trajectories during answer generation, as limited context capacity prevents full consideration of the reasoning process. To address these issues, we propose ParallelMuse, a two-stage paradigm designed for deep IS agents. The first stage, Functionality-Specified Partial Rollout, partitions generated sequences into functional regions and performs uncertainty-guided path reuse and branching to enhance exploration efficiency. The second stage, Compressed Reasoning Aggregation, exploits reasoning redundancy to losslessly compress information relevant to answer derivation and synthesize a coherent final answer. Experiments across multiple open-source agents and benchmarks demonstrate up to 62% performance improvement with a 10--30% reduction in exploratory token consumption.
- Abstract(参考訳): 並列思考は探索範囲を広げ、情報探索(IS)エージェントの深い探索を補完し、問題解決能力をさらに強化する。
しかしながら、従来の並列思考は、スクラッチから繰り返しロールアウトすることの非効率性と、応答生成中に長い水平推論軌跡を統合することの難しさという2つの主要な課題に直面している。
これらの問題に対処するために,深層ISエージェント用に設計された2段階パラダイムであるParallelMuseを提案する。
第1段階、機能特定部分ロールアウトは、生成されたシーケンスを機能領域に分割し、探索効率を高めるために、不確実性誘導経路の再利用と分岐を行う。
第2段階であるCompressed Reasoning Aggregationは、解答の導出に関連する情報を無作為に圧縮し、コヒーレントな最終解答を合成する。
複数のオープンソースエージェントとベンチマークによる実験では、探索トークンの消費を10~30%削減することで、最大62%のパフォーマンス改善が示されている。
関連論文リスト
- Improving LLM Reasoning via Dependency-Aware Query Decomposition and Logic-Parallel Content Expansion [29.45427036598799]
AIによる検索や会話エージェントなどのリアルタイムWebアプリケーションへのLarge Language Modelsの統合は、Webインフラストラクチャの基本的な課題である。
そこで我々は,依存性を意識したクエリの分解と論理並列コンテンツの拡張を可能にする,新規で効率的な推論フレームワークOrionを提案する。
多様なベンチマークの実験によると、Orionはトークン生成速度を最大4.33倍、応答遅延を3.42倍まで削減するだけでなく、推論品質を最大18.75%向上させる。
論文 参考訳(メタデータ) (2025-10-28T13:05:23Z) - DeepPrune: Parallel Scaling without Inter-trace Redundancy [53.62015294143274]
並列推論トレースの80%以上は、実質的な無駄な計算を代表して、同じ最終回答をもたらす。
動的プルーニングによる効率的な並列スケーリングを実現する新しいフレームワークであるDeepPruneを提案する。
我々の研究は並列推論のための新しい標準を確立し、高性能推論をより効率的にする。
論文 参考訳(メタデータ) (2025-10-09T17:24:54Z) - FlashResearch: Real-time Agent Orchestration for Efficient Deep Research [62.03819662340356]
FlashResearchは効率的なディープリサーチのための新しいフレームワークです。
シーケンシャル処理を並列なランタイムオーケストレーションに変換する。
同等のクオリティを維持しつつ、最大5倍のスピードアップを提供できる。
論文 参考訳(メタデータ) (2025-10-02T00:15:39Z) - Hybrid Deep Searcher: Integrating Parallel and Sequential Search Reasoning [57.78245296980122]
本稿では,自然質問から自動生成されるデータセットであるHDS-QA(Hybrid Deep Search QA)を紹介する。
並列化可能な独立サブクエリ(同時に実行可能)と逐次依存サブクエリ(ステップバイステップの解決を必要とする)を組み合わせたハイブリッドホップ質問を含む。
モデルの名称はHybridDeepSearcherで、複数のベンチマークで最先端のベースラインを上回っています。
論文 参考訳(メタデータ) (2025-08-26T15:15:17Z) - BrowseMaster: Towards Scalable Web Browsing via Tool-Augmented Programmatic Agent Pair [28.052062258597225]
現在の大規模言語モデル(M)ベースのエージェントは,探索幅の制限や推論深度によるバランスの達成に苦慮している。
拡張プランナー-実行エージェントペアを中心に構築されたBrowseMasterフレームワークを提案する。
英語と中国語のテストでは、BrowseMasterはオープンなベンチマークとプロプライエタリなベースラインを一貫して上回り、BrowseComp-enで3点、BrowseComp-zhで46.5点を記録している。
論文 参考訳(メタデータ) (2025-08-12T17:56:25Z) - Reasoning on Multiple Needles In A Haystack [9.765859280987053]
直接質問をフィルタリングすることで,メモリベースの回答問題に対処する。
この知見に基づいて,マルチラウンド拡張のためのリフレクション機構を導入する。
生成した反復的思考プロセスを使用してモデルをトレーニングし、パフォーマンスの劣化を軽減する。
論文 参考訳(メタデータ) (2025-04-05T11:58:08Z) - Dynamic Parallel Tree Search for Efficient LLM Reasoning [102.16694475391665]
Tree of Thoughts (ToT) は大規模言語モデル(LLM)推論を強化し、分散木としての問題解決を構造化する。
推論における推論経路を動的に最適化することを目的とした,新しい並列化フレームワークであるDynamic Parallel Tree Search (DPTS)を提案する。
Qwen-2.5とLlama-3のMath500とGSM8Kデータセットによる実験では、DPTSは平均で2-4倍効率が向上した。
論文 参考訳(メタデータ) (2025-02-22T14:13:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。