論文の概要: OpenSeeker: Democratizing Frontier Search Agents by Fully Open-Sourcing Training Data
- arxiv url: http://arxiv.org/abs/2603.15594v1
- Date: Mon, 16 Mar 2026 17:52:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.713382
- Title: OpenSeeker: Democratizing Frontier Search Agents by Fully Open-Sourcing Training Data
- Title(参考訳): OpenSeeker: 完全オープンサーシングトレーニングデータによるフロンティア検索エージェントの民主化
- Authors: Yuwen Du, Rui Ye, Shuo Tang, Xinyu Zhu, Yijun Lu, Yuzhu Cai, Siheng Chen,
- Abstract要約: OpenSeekerは、フロンティアレベルのパフォーマンスを実現する最初の完全オープンソース検索エージェント(モデルとデータ)である。
OpenSeekerはBrowseComp, BrowseComp-ZH, xbench-DeepSearch, WideSearchなど,複数のベンチマークで最先端のパフォーマンスを実現している。
私たちは、フロンティア検索エージェントの研究を民主化し、より透明で協力的なエコシステムを育むために、完全なトレーニングデータセットとモデルウェイトを完全にオープンソースにしています。
- 参考スコア(独自算出の注目度): 43.955144962666196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep search capabilities have become an indispensable competency for frontier Large Language Model (LLM) agents, yet the development of high-performance search agents remains dominated by industrial giants due to a lack of transparent, high-quality training data. This persistent data scarcity has fundamentally hindered the progress of the broader research community in developing and innovating within this domain. To bridge this gap, we introduce OpenSeeker, the first fully open-source search agent (i.e., model and data) that achieves frontier-level performance through two core technical innovations: (1) Fact-grounded scalable controllable QA synthesis, which reverse-engineers the web graph via topological expansion and entity obfuscation to generate complex, multi-hop reasoning tasks with controllable coverage and complexity. (2) Denoised trajectory synthesis, which employs a retrospective summarization mechanism to denoise the trajectory, therefore promoting the teacher LLMs to generate high-quality actions. Experimental results demonstrate that OpenSeeker, trained (a single training run) on only 11.7k synthesized samples, achieves state-of-the-art performance across multiple benchmarks including BrowseComp, BrowseComp-ZH, xbench-DeepSearch, and WideSearch. Notably, trained with simple SFT, OpenSeeker significantly outperforms the second-best fully open-source agent DeepDive (e.g., 29.5% v.s. 15.3% on BrowseComp), and even surpasses industrial competitors such as Tongyi DeepResearch (trained via extensive continual pre-training, SFT, and RL) on BrowseComp-ZH (48.4% v.s. 46.7%). We fully open-source the complete training dataset and the model weights to democratize frontier search agent research and foster a more transparent, collaborative ecosystem.
- Abstract(参考訳): 深層検索能力は、フロンティア大言語モデル(LLM)エージェントにとって必須の能力となっているが、透明で高品質な訓練データがないため、高性能検索エージェントの開発は産業巨人に支配されている。
この永続的なデータ不足は、この領域内での開発と革新において、幅広い研究コミュニティの進歩を根本的に妨げている。
このギャップを埋めるために,1) トポロジ的拡張とエンティティ難読化によってWebグラフをリバースエンジニアリングし,制御可能なカバレッジと複雑性を備えた複雑なマルチホップ推論タスクを生成する,Fact-grounded scalable controllable QA synthesisという,2つの技術革新を通じてフロンティアレベルのパフォーマンスを実現する,最初の完全オープンソース検索エージェント(モデルとデータ)であるOpenSeekerを紹介した。
2) トラジェクトリ合成は, 振り返りの要約機構を用いて, トラジェクトリを識別し, 教師のLCMに高品質な行動を起こさせるよう促す。
実験の結果、たった1.7kのサンプルでトレーニングされた(単一のトレーニング実行)OpenSeekerは、BrowseComp、BrowseComp-ZH、xbench-DeepSearch、WideSearchを含む複数のベンチマークで最先端のパフォーマンスを達成した。
特に、単純なSFTで訓練されたOpenSeekerは、BrowseCompのDeepDive(例:29.5%対15.3%、BrowseCompのDeepDive)を2番目に上回り、BrowseComp-ZH(48.4%対46.7%)のTongyi DeepResearch(大規模な継続事前トレーニング、SFT、RL)のような産業ライバルを抜いた。
私たちは、フロンティア検索エージェントの研究を民主化し、より透明で協力的なエコシステムを育むために、完全なトレーニングデータセットとモデルウェイトを完全にオープンソースにしています。
関連論文リスト
- AgentIR: Reasoning-Aware Retrieval for Deep Research Agents [76.29382561831105]
ディープリサーチエージェントは、各検索の前に明示的な自然言語推論を生成する。
Reasoning-Aware Retrievalは、クエリと一緒にエージェントの推論トレースを埋め込む。
DR-Synthは、標準的なQAデータセットからDeep Researchレトリバーのトレーニングデータを生成する。
AgentIR-4Bは、オープンウェイトエージェントであるTongyi-DeepResearchで68%の精度を達成する。
論文 参考訳(メタデータ) (2026-03-04T18:47:26Z) - O-Researcher: An Open Ended Deep Research Model via Multi-Agent Distillation and Agentic RL [28.10102994309489]
本稿では,高度で研究段階の指導データの自動合成のための新しいフレームワークを提案する。
当社のアプローチは、複雑なツール統合推論をシミュレートするマルチエージェントワークフローに重点を置いています。
そこで我々は,教師付き微調整と新たな強化学習を融合した2段階学習戦略を開発した。
論文 参考訳(メタデータ) (2026-01-07T09:31:10Z) - Step-DeepResearch Technical Report [90.50586290399683]
コスト効率のよいエンドツーエンドエージェントである Step-DeepResearch を紹介する。
我々は、計画とレポート作成を強化するために、アトミック能力に基づくデータ合成戦略を提案する。
中国における評価ギャップを埋めるため,現実的な深層研究シナリオのためのADR-Benchを構築した。
論文 参考訳(メタデータ) (2025-12-23T16:32:27Z) - WebSailor-V2: Bridging the Chasm to Proprietary Agents via Synthetic Data and Scalable Reinforcement Learning [73.91893534088798]
WebSailorは、この重要な機能を組み込むように設計された、完全なポストトレーニング方法論である。
我々のアプローチは、構造化サンプリングと情報難読化によって、新しい、不確実なタスクを生成することである。
WebSailorは複雑な情報検索タスクにおいて、すべてのオープンソースエージェントを著しく上回る。
論文 参考訳(メタデータ) (2025-09-16T17:57:03Z) - DeepDive: Advancing Deep Search Agents with Knowledge Graphs and Multi-Turn RL [60.47878242100153]
我々は、ディープサーチエージェントを進化させるためにDeepDiveを提示する。
オープンな知識グラフから複雑で難解な質問を自動的に合成する戦略を提案する。
深層探索によるLLMの長距離推論を強化するために, エンドツーエンドのマルチターン強化学習を適用した。
論文 参考訳(メタデータ) (2025-09-12T17:52:35Z) - Beyond Ten Turns: Unlocking Long-Horizon Agentic Search with Large-Scale Asynchronous RL [22.8456317506762]
ASearcherは、検索エージェントの大規模RLトレーニングのためのオープンソースプロジェクトである。
ASearcher-Web-QwQは、xBenchで51.1、GAIAで58.7のAvg@4スコアを獲得し、既存のオープンソース32Bエージェントを上回っている。
論文 参考訳(メタデータ) (2025-08-11T13:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。