論文の概要: QUESTER: Query Specification for Generative Retrieval
- arxiv url: http://arxiv.org/abs/2511.05301v1
- Date: Fri, 07 Nov 2025 15:01:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.804787
- Title: QUESTER: Query Specification for Generative Retrieval
- Title(参考訳): QUESTER: 生成検索のためのクエリ仕様
- Authors: Arthur Satouf, Yuxuan Zong, Habiboulaye Amadou-Boubacar, Pablo Piantanida, Benjamin Piwowarski,
- Abstract要約: Generative Retrieval (GR) は、モデルパラメータの関連性を保持することで、従来のインデックス-then-retrieveパイプラインとは異なる。
本稿ではQUESTER(QUEry SpecificaTion gEnerative Retrieval)を紹介し,GRをクエリ仕様生成として再設計する。
- 参考スコア(独自算出の注目度): 28.47849228972565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Retrieval (GR) differs from the traditional index-then-retrieve pipeline by storing relevance in model parameters and directly generating document identifiers. However, GR often struggles to generalize and is costly to scale. We introduce QUESTER (QUEry SpecificaTion gEnerative Retrieval), which reframes GR as query specification generation - in this work, a simple keyword query handled by BM25 - using a (small) LLM. The policy is trained using reinforcement learning techniques (GRPO). Across in- and out-of-domain evaluations, we show that our model is more effective than BM25, and competitive with neural IR models, while maintaining a good efficiency
- Abstract(参考訳): Generative Retrieval (GR) は、モデルパラメータの関連性を格納し、直接文書識別子を生成することで、従来のインデックス-then-retrieveパイプラインとは異なる。
しかし、GRは一般化に苦しむことが多く、スケールするのにコストがかかる。
我々はQUESTER(QUEry SpecificaTion gEnerative Retrieval)を導入し、GRをクエリ仕様生成として再設計する。
政策は強化学習技術(GRPO)を用いて訓練される。
ドメイン内および外部評価を通じて、我々のモデルはBM25よりも効果的であり、優れた効率を維持しつつ、ニューラルIRモデルと競合することを示す。
関連論文リスト
- Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - Retrieval-in-the-Chain: Bootstrapping Large Language Models for Generative Retrieval [40.35703097974511]
生成検索のための推論強化フレームワークであるReason-for-Retrieval(R4R)を提案する。
R4Rは、自由形式のチェーン・オブ・シークレット(CoT)推論をコンパクトで構造化されたフォーマットに変換し、検索プロセス中の推論を反復的に洗練する。
自然質問、MS MARCO、および実世界の項目探索ベンチマークに関する広範囲な実験により、R4Rの有効性が検証された。
論文 参考訳(メタデータ) (2025-10-15T02:29:10Z) - ZeroGR: A Generalizable and Scalable Framework for Zero-Shot Generative Retrieval [125.19156877994612]
生成検索(GR)は、情報検索(IR)を文書識別子(ドシデント)の生成としてフレーミングすることによって再構成する
我々は、自然言語命令を利用して幅広いIRタスクにわたってGRを拡張するゼロショット生成検索フレームワークであるtextscZeroGRを提案する。
具体的には、textscZeroGRは、3つのキーコンポーネントで構成されている: (i)不均一な文書を意味的に意味のあるドシデントに統一するLMベースのドシデントジェネレータ; (ii)自然言語タスク記述から様々なタイプのクエリを生成し、拡張する命令チューニングクエリジェネレータ。
論文 参考訳(メタデータ) (2025-10-12T03:04:24Z) - Understanding Generative Recommendation with Semantic IDs from a Model-scaling View [57.471604518714535]
Generative Recommendation (GR)は、リッチアイテムのセマンティクスと協調フィルタリング信号を統合する。
一般的なアプローチの1つは、セマンティックID(SID)を使用して、自動回帰ユーザーインタラクションシーケンスモデリングのセットアップでアイテムを表現することである。
SIDをベースとしたGRは,モデルをスケールアップしながら大きなボトルネックを示す。
我々は、大規模言語モデル(LLM)を直接レコメンデーションとして使用する別のGRパラダイムを再考する。
論文 参考訳(メタデータ) (2025-09-29T21:24:17Z) - Does Generative Retrieval Overcome the Limitations of Dense Retrieval? [117.49076770892583]
生成的検索(GR)はニューラル情報検索の新しいパラダイムとして登場した。
本研究では,GRが高密度検索(DR)から学習目的と表現能力の両方において根本的に分岐するかを検討する。
論文 参考訳(メタデータ) (2025-09-26T09:38:01Z) - Generative Recommendation with Semantic IDs: A Practitioner's Handbook [34.25784373770595]
Generative Recommendation (GR) は、従来のモデルと比較して有望なパフォーマンスで注目を集めている。
GRの成功に寄与する重要な要因はセマンティックID(SID)であり、連続的なセマンティック表現を離散IDシーケンスに変換する。
本研究は,モジュール性に特化して設計されたセマンティックID,すなわちGRIDを用いたジェネレーティブレコメンデーションフレームワークを紹介し,オープンソース化する。
論文 参考訳(メタデータ) (2025-07-29T20:41:51Z) - ImpRAG: Retrieval-Augmented Generation with Implicit Queries [34.72864597562907]
ImpRAGは、検索と生成を統一モデルに統合するクエリフリーなRAGシステムである。
我々は、ImpRAGが、多様な形式を持つ未確認タスクの正確なマッチスコアを3.6-11.5改善したことを示す。
論文 参考訳(メタデータ) (2025-06-02T21:38:21Z) - Chain-of-Retrieval Augmented Generation [91.02950964802454]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - Generative Retrieval with Few-shot Indexing [32.19543023080197]
トレーニングベースの索引付けには3つの制限がある。高いトレーニングオーバーヘッド、大規模言語モデルのトレーニング済み知識の未使用、動的ドキュメントコーパスへの適応の課題である。
Few-Shot GR は訓練を必要とせず LLM の推進にのみ依存しており、より効率的である。
実験により、Few-Shot GRは、重い訓練を必要とする最先端のGR法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-08-04T22:00:34Z) - Sequencing Matters: A Generate-Retrieve-Generate Model for Building
Conversational Agents [9.191944519634111]
Georgetown InfoSense GroupはTREC iKAT 2023の課題を解決するために活動している。
提案手法は, 各カット数, 総合成功率において, nDCG において高い性能を示した。
我々のソリューションは、初期回答にLarge Language Models (LLMs) を用いること、BM25による回答基盤、ロジスティック回帰による通過品質フィルタリング、LLMによる回答生成である。
論文 参考訳(メタデータ) (2023-11-16T02:37:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。