論文の概要: Agentic Search in the Wild: Intents and Trajectory Dynamics from 14M+ Real Search Requests
- arxiv url: http://arxiv.org/abs/2601.17617v1
- Date: Sat, 24 Jan 2026 22:42:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.096043
- Title: Agentic Search in the Wild: Intents and Trajectory Dynamics from 14M+ Real Search Requests
- Title(参考訳): 野生におけるエージェントサーチ:14M以上の実検索要求からのインテントと軌道ダイナミクス
- Authors: Jingjie Ning, João Coelho, Yibo Kong, Yunfan Long, Bruno Martins, João Magalhães, Jamie Callan, Chenyan Xiong,
- Abstract要約: 本稿では,DeepResearchから収集した14.44Mの検索要求(3.97Mセッション)に基づいて,エージェント検索の大規模ログ解析を行う。
まず,各セッションの90%以上が少なくとも10ステップ,89%が1分以内である。
エージェント検索は、繰り返しを意識した早期停止、意図適応型検索予算、明示的なクロスステップコンテキストトラッキングの恩恵を受ける可能性がある。
- 参考スコア(独自算出の注目度): 28.788329427390455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-powered search agents are increasingly being used for multi-step information seeking tasks, yet the IR community lacks empirical understanding of how agentic search sessions unfold and how retrieved evidence is used. This paper presents a large-scale log analysis of agentic search based on 14.44M search requests (3.97M sessions) collected from DeepResearchGym, i.e. an open-source search API accessed by external agentic clients. We sessionize the logs, assign session-level intents and step-wise query-reformulation labels using LLM-based annotation, and propose Context-driven Term Adoption Rate (CTAR) to quantify whether newly introduced query terms are traceable to previously retrieved evidence. Our analyses reveal distinctive behavioral patterns. First, over 90% of multi-turn sessions contain at most ten steps, and 89% of inter-step intervals fall under one minute. Second, behavior varies by intent. Fact-seeking sessions exhibit high repetition that increases over time, while sessions requiring reasoning sustain broader exploration. Third, agents reuse evidence across steps. On average, 54% of newly introduced query terms appear in the accumulated evidence context, with contributions from earlier steps beyond the most recent retrieval. The findings suggest that agentic search may benefit from repetition-aware early stopping, intent-adaptive retrieval budgets, and explicit cross-step context tracking. We plan to release the anonymized logs to support future research.
- Abstract(参考訳): LLMを利用した検索エージェントは、多段階の情報探索にますます利用されているが、IRコミュニティでは、エージェント検索セッションの展開方法や、検索された証拠の活用方法に関する実証的な理解が欠如している。
本稿では,DeepResearchGymから収集した14.44Mの検索要求(3.97Mセッション)に基づくエージェント検索の大規模ログ解析,すなわち外部エージェントクライアントがアクセスするオープンソースの検索APIを提案する。
LLM ベースのアノテーションを用いて,ログのセッション化,セッションレベルインテントの割り当て,ステップワイドなクエリ変換ラベルの割り当てを行うとともに,新たに導入されたクエリ用語が以前検索された証拠にトレース可能であるかどうかを定量化するためのコンテキスト駆動型用語導入率 (CTAR) を提案する。
分析の結果,特徴ある行動パターンが明らかになった。
第一に、マルチターンセッションの90%以上は少なくとも10ステップを含み、ステップ間間隔の89%は1分以内である。
第二に、行動は意図によって異なる。
Fact-seeking セッションは、時間とともに増加する高い繰り返しを示す一方で、より広範な探索を継続する理由を必要とするセッションである。
第3に、エージェントは各ステップにまたがって証拠を再利用する。
平均して、新しく導入されたクエリ用語の54%が蓄積されたエビデンスコンテキストに現れ、最新の検索以上の初期のステップからのコントリビューションがある。
その結果, エージェント検索は, 早期停止, 意図適応型検索予算, 明示的な横断的コンテキストトラッキングの恩恵を受ける可能性が示唆された。
今後の研究を支援するために匿名化されたログをリリースする予定です。
関連論文リスト
- Over-Searching in Search-Augmented Large Language Models [22.821710825732563]
検索強化された大言語モデル(LLM)は、外部検索を統合することで知識集約的なタスクに優れる。
過剰探索は、無関係な文脈を取り入れることで、計算の非効率性と幻覚をもたらす。
以上の結果から, (i) 解答可能な問合せに対する解答精度は向上するが, 解答不可能な問合せに対する棄却を損なうこと, (ii) 過剰探索が複雑な推論モデルや深層研究システムにおいてより顕著であること, (iii) 否定的証拠の存在が棄却を改善していることが示唆された。
論文 参考訳(メタデータ) (2026-01-09T03:24:46Z) - Beyond the limitation of a single query: Train your LLM for query expansion with Reinforcement Learning [23.104182075898297]
Reasoning-augmented search agent, such as Search-R1, are trained to reason, search, and generate the final answer repeateratively。
我々は、強化学習によるクエリ拡張のネイティブ機能を備えたLLMベースの検索エージェントを訓練する。
シュレッシャーモデルの助けを借りて,小型の3B LLMでもクエリ拡張の強力な能力を実証できることが判明した。
論文 参考訳(メタデータ) (2025-10-11T04:23:30Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - MMSearch-R1: Incentivizing LMMs to Search [49.889749277236376]
MMSearch-R1は,実世界のインターネット環境において,オンデマンドでマルチターン検索が可能な,初のエンドツーエンド強化学習フレームワークである。
本フレームワークは画像検索とテキスト検索の両方を統合し,検索ペナルティによる結果に基づく報酬によって,モデルがいつ,どのように呼び出すかの判断を可能にする。
論文 参考訳(メタデータ) (2025-06-25T17:59:42Z) - Query-oriented Data Augmentation for Session Search [71.84678750612754]
本稿では,検索ログの強化とモデリングの強化を目的としたクエリ指向データ拡張を提案する。
検索コンテキストの最も重要な部分を変更することで補足的なトレーニングペアを生成する。
我々は、現在のクエリを変更するためのいくつかの戦略を開発し、その結果、様々な難易度で新しいトレーニングデータを得る。
論文 参考訳(メタデータ) (2024-07-04T08:08:33Z) - LightPAL: Lightweight Passage Retrieval for Open Domain Multi-Document Summarization [9.739781953744606]
Open-Domain Multi-Document Summarization (ODMDS)は、ユーザクエリに応答して巨大なドキュメントコレクションから要約を生成するタスクである。
ODMDSタスクのオープンエンドクエリでは、従来の検索列サマリズアプローチは不足している。
ODMDSの軽量パス検索手法であるLightPALを提案する。
論文 参考訳(メタデータ) (2024-06-18T10:57:27Z) - Lexically-Accelerated Dense Retrieval [29.327878974130055]
LADR (Lexically-Accelerated Dense Retrieval) は, 既存の高密度検索モデルの効率を向上する, 簡便な手法である。
LADRは、標準ベンチマークでの徹底的な検索と同等の精度とリコールの両方を一貫して達成する。
論文 参考訳(メタデータ) (2023-07-31T15:44:26Z) - Graph Enhanced BERT for Query Understanding [55.90334539898102]
クエリ理解は、ユーザの検索意図を探索し、ユーザが最も望まれる情報を発見できるようにする上で、重要な役割を果たす。
近年、プレトレーニング言語モデル (PLM) は様々な自然言語処理タスクを進歩させてきた。
本稿では,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
論文 参考訳(メタデータ) (2022-04-03T16:50:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。