論文の概要: SAGE: Strategy-Adaptive Generation Engine for Query Rewriting
- arxiv url: http://arxiv.org/abs/2506.19783v1
- Date: Tue, 24 Jun 2025 16:50:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.731912
- Title: SAGE: Strategy-Adaptive Generation Engine for Query Rewriting
- Title(参考訳): SAGE: クエリ書き換えのための戦略適応型生成エンジン
- Authors: Teng Wang, Hailei Gong, Changwang Zhang, Jun Wang,
- Abstract要約: 本稿では,SAGE(Strategy-Adaptive Generation Engine)について紹介する。
SAGEは、最先端のNDCG@10の結果を新たに達成すると同時に、魅力的な創発的行動も明らかにする。
この結果から, 戦略誘導型RLは, よりスケーラブルで, 効率的で, 解釈可能なパラダイムを, 次世代の堅牢な情報検索システム開発に役立てることが示唆された。
- 参考スコア(独自算出の注目度): 8.941793732446856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query rewriting is pivotal for enhancing dense retrieval, yet current methods demand large-scale supervised data or suffer from inefficient reinforcement learning (RL) exploration. In this work, we first establish that guiding Large Language Models (LLMs) with a concise set of expert-crafted strategies, such as semantic expansion and entity disambiguation, substantially improves retrieval effectiveness on challenging benchmarks, including HotpotQA, FEVER, NFCorpus, and SciFact. Building on this insight, we introduce the Strategy-Adaptive Generation Engine (SAGE), which operationalizes these strategies in an RL framework. SAGE introduces two novel reward shaping mechanisms-Strategic Credit Shaping (SCS) and Contrastive Reward Shaping (CRS)-to deliver more informative learning signals. This strategy-guided approach not only achieves new state-of-the-art NDCG@10 results, but also uncovers a compelling emergent behavior: the agent learns to select optimal strategies, reduces unnecessary exploration, and generates concise rewrites, lowering inference cost without sacrificing performance. Our findings demonstrate that strategy-guided RL, enhanced with nuanced reward shaping, offers a scalable, efficient, and more interpretable paradigm for developing the next generation of robust information retrieval systems.
- Abstract(参考訳): クエリ書き換えは、高密度検索の強化に重要であるが、現在の手法では、大規模な教師付きデータを必要とするか、非効率強化学習(RL)探索に苦しむ。
本研究では,まず,意味拡張やエンティティの曖昧さといった,専門家が構築した簡潔な戦略を導くことで,HotpotQA,FEVER,NFCorpus,SciFactなど,困難なベンチマーク上での検索効率を大幅に向上させる。
この知見に基づいて、我々はこれらの戦略をRLフレームワークで運用する戦略適応生成エンジン(SAGE)を紹介します。
SAGEは2つの新しい報酬形成メカニズム、Strategic Credit Shaping(SCS)とContrastive Reward Shaping(CRS)を導入し、より情報的な学習信号を提供する。
エージェントは最適な戦略を選択し、不要な探索を減らし、簡潔な書き換えを生成し、性能を犠牲にすることなく推論コストを下げる。
この結果から, 戦略誘導型RLは, よりスケーラブルで, 効率的で, より解釈可能なパラダイムを, 次世代の堅牢な情報検索システム開発に提供できることが示唆された。
関連論文リスト
- Process vs. Outcome Reward: Which is Better for Agentic RAG Reinforcement Learning [45.10424242207931]
Retrieval-augmented Generation (RAG)は大規模言語モデル(LLM)のテキスト生成能力を向上する
RAG-ProGuideは,クエリ生成,エビデンス抽出,回答生成のためのプロセスレベルの報酬を提供する高品質なデータセットである。
プロセスレベルのポリシー最適化により、提案フレームワークはLLMに対して、検索を自律的に実行し、クエリを生成し、関連する証拠を抽出し、最終的な回答を生成する権限を与える。
論文 参考訳(メタデータ) (2025-05-20T08:21:00Z) - Lightweight and Direct Document Relevance Optimization for Generative Information Retrieval [49.669503570350166]
生成情報検索(GenIR)は、文書識別子(ドシデント)生成タスクとして文書検索を定式化する有望なニューラル検索パラダイムである。
既存のGenIRモデルはトークンレベルのミスアライメントに悩まされており、次のトークンを予測するためにトレーニングされたモデルは、ドキュメントレベルの関連性を効果的にキャプチャできないことが多い。
本稿では,トークンレベルのドシデント生成と文書レベルのドシデンス推定をペアのランク付けによる直接最適化により整合するダイレクトドキュメントレバレンス最適化(DDRO)を提案する。
論文 参考訳(メタデータ) (2025-04-07T15:27:37Z) - RAG-RL: Advancing Retrieval-Augmented Generation via RL and Curriculum Learning [24.648819770922515]
本稿では,回答生成モデルであるRAG-RLを紹介する。
私たちのアプローチはカリキュラム学習を使用し、モデルがまず、関連するコンテキストのみを含む簡単な例に基づいて訓練される。
実験により,これらのトレーニングサンプルにより,より優れたサンプル効率と一般化性を有する引用・推論能力が得られることが示された。
論文 参考訳(メタデータ) (2025-03-17T02:53:42Z) - Revisiting Robust RAG: Do We Still Need Complex Robust Training in the Era of Powerful LLMs? [69.38149239733994]
モデル容量が増大するにつれて、複雑な堅牢なトレーニング戦略が必要かどうかを検討する。
モデルがより強力になるにつれて、複雑な堅牢なトレーニングメソッドによってもたらされるパフォーマンス向上が劇的に減少することがわかった。
この結果から,RAGシステムはモデルがより強力になるにつれて,よりシンプルなアーキテクチャやトレーニング戦略の恩恵を受けることが示唆された。
論文 参考訳(メタデータ) (2025-02-17T03:34:31Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Learning to Rank in Generative Retrieval [62.91492903161522]
生成的検索は、検索対象として関連する通路の識別子文字列を生成することを目的としている。
我々はLTRGRと呼ばれる生成検索のための学習 torankフレームワークを提案する。
このフレームワークは、現在の生成的検索システムを強化するために、追加の学習からランクまでのトレーニングフェーズのみを必要とする。
論文 参考訳(メタデータ) (2023-06-27T05:48:14Z) - Reinforcement Learning in Credit Scoring and Underwriting [7.356954349107956]
我々は、行動空間の更新と複数選択のアクションを取り入れて、クレジットスコアリングに強化学習原則を適用した。
より情報的な意思決定を可能にするために,新たに2つのRLベースのクレジットカード代入アルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-12-15T06:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。