論文の概要: Deep Researcher with Test-Time Diffusion
- arxiv url: http://arxiv.org/abs/2507.16075v1
- Date: Mon, 21 Jul 2025 21:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.896061
- Title: Deep Researcher with Test-Time Diffusion
- Title(参考訳): 試験時間拡散による深層研究
- Authors: Rujun Han, Yanfei Chen, Zoey CuiZhu, Lesly Miculicich, Guan Sun, Yuanjun Bi, Weiming Wen, Hui Wan, Chunfeng Wen, Solène Maître, George Lee, Vishy Tirumalashetty, Emily Xue, Zizhao Zhang, Salem Haykal, Burak Gokturk, Tomas Pfister, Chen-Yu Lee,
- Abstract要約: 実験時間拡散深層研究者は拡散過程として研究報告の生成を概念化する。
ドラフト中心のデザインは、レポート作成プロセスをよりタイムリーで一貫性のあるものにします。
我々のTTD-DRは、幅広いベンチマークで最先端の結果が得られることを実証する。
- 参考スコア(独自算出の注目度): 32.375428487905104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep research agents, powered by Large Language Models (LLMs), are rapidly advancing; yet, their performance often plateaus when generating complex, long-form research reports using generic test-time scaling algorithms. Drawing inspiration from the iterative nature of human research, which involves cycles of searching, reasoning, and revision, we propose the Test-Time Diffusion Deep Researcher (TTD-DR). This novel framework conceptualizes research report generation as a diffusion process. TTD-DR initiates this process with a preliminary draft, an updatable skeleton that serves as an evolving foundation to guide the research direction. The draft is then iteratively refined through a "denoising" process, which is dynamically informed by a retrieval mechanism that incorporates external information at each step. The core process is further enhanced by a self-evolutionary algorithm applied to each component of the agentic workflow, ensuring the generation of high-quality context for the diffusion process. This draft-centric design makes the report writing process more timely and coherent while reducing information loss during the iterative search process. We demonstrate that our TTD-DR achieves state-of-the-art results on a wide array of benchmarks that require intensive search and multi-hop reasoning, significantly outperforming existing deep research agents.
- Abstract(参考訳): LLM(Large Language Models)を利用したディープリサーチエージェントは急速に進歩しているが、汎用的なテスト時間スケーリングアルゴリズムを使用して複雑な長期研究レポートを生成する場合、そのパフォーマンスは低下することが多い。
探索・推論・修正のサイクルを含む人間研究の反復的な性質からインスピレーションを得たテスト時間拡散深層研究(TTD-DR)を提案する。
このフレームワークは拡散過程として研究報告の生成を概念化する。
TTD-DRはこのプロセスを、研究の方向性を導くための進化的基盤として機能する、事前の草案で開始する。
プロセスによって反復的に洗練され、各ステップに外部情報を組み込んだ検索メカニズムによって動的に通知される。
コアプロセスはエージェントワークフローの各コンポーネントに適用された自己進化アルゴリズムによってさらに強化され、拡散プロセスの高品質なコンテキストの生成が保証される。
このドラフト中心の設計により、レポート作成プロセスは、反復探索プロセスにおける情報損失を低減しつつ、よりタイムリーでコヒーレントなものになる。
我々のTTD-DRは、検索とマルチホップ推論を必要とする幅広いベンチマークにおいて、最先端の結果を達成し、既存のディープリサーチエージェントを著しく上回っていることを実証する。
関連論文リスト
- Characterizing Deep Research: A Benchmark and Formal Definition [24.523394260858822]
本稿では,Deep Research (DR) タスクの形式的特徴付けと,DRシステムの性能評価のためのベンチマークを提案する。
ディープリサーチのコアとなる特徴は、レポートスタイルのアウトプットの生成ではなく、検索プロセスで必要となる概念に対する高いファンアウトである、と我々は主張する。
論文 参考訳(メタデータ) (2025-08-06T08:09:28Z) - From Web Search towards Agentic Deep Research: Incentivizing Search with Reasoning Agents [96.65646344634524]
推論とエージェント能力を備えた大規模言語モデル(LLM)は、エージェントディープリサーチ(Agenic Deep Research)と呼ばれる新しいパラダイムを取り入れている。
静的なWeb検索から,計画,探索,学習を行う対話型エージェントベースのシステムへの進化を辿ります。
我々はエージェントディープリサーチが既存のアプローチを著しく上回るだけでなく、将来の情報探索において支配的なパラダイムになることを実証する。
論文 参考訳(メタデータ) (2025-06-23T17:27:19Z) - Deep Research Agents: A Systematic Examination And Roadmap [79.04813794804377]
Deep Research (DR) エージェントは複雑な多ターン情報研究タスクに取り組むように設計されている。
本稿では,DRエージェントを構成する基礎技術とアーキテクチャコンポーネントの詳細な分析を行う。
論文 参考訳(メタデータ) (2025-06-22T16:52:48Z) - DeepResearch Bench: A Comprehensive Benchmark for Deep Research Agents [30.768405850755602]
DeepResearch Benchは100のPhDレベルの研究タスクからなるベンチマークである。
ディープリサーチエージェントの評価は本質的に複雑で、労働集約的である。
本稿では,人間の判断に強く適合する2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2025-06-13T13:17:32Z) - Reinforcement Fine-Tuning for Reasoning towards Multi-Step Multi-Source Search in Large Language Models [7.719379471690927]
Reasoning-Search (R-Search)は、マルチステップ計画、複数ソース検索の実行、回答合成を統一するシングルLLM検索フレームワークである。
R-Searchは、検索プロセスを導く推論ステップを含む、明示的に定義された4つのコンポーネントに出力を構造化する。
論文 参考訳(メタデータ) (2025-06-10T02:09:57Z) - EvolveSearch: An Iterative Self-Evolving Search Agent [98.18686493123785]
大規模言語モデル(LLM)は、検索エンジンやWebブラウザなどのツールを統合することで、エージェント情報検索機能を変革した。
本研究では,SFTとRLを組み合わせた新たな反復的自己進化フレームワークであるEvolveSearchを提案する。
論文 参考訳(メタデータ) (2025-05-28T15:50:48Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - State-Space Modeling in Long Sequence Processing: A Survey on Recurrence in the Transformer Era [59.279784235147254]
このサーベイは、シーケンシャルなデータ処理の反復モデルに基づく最新のアプローチの詳細な概要を提供する。
新たなイメージは、標準のバックプロパゲーション・オブ・タイムから外れた学習アルゴリズムによって構成される、新しいルートを考える余地があることを示唆している。
論文 参考訳(メタデータ) (2024-06-13T12:51:22Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。