論文の概要: DeepRetrieval: Powerful Query Generation for Information Retrieval with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2503.00223v1
- Date: Fri, 28 Feb 2025 22:16:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:13:01.863281
- Title: DeepRetrieval: Powerful Query Generation for Information Retrieval with Reinforcement Learning
- Title(参考訳): DeepRetrieval: 強化学習による情報検索のための強力なクエリ生成
- Authors: Pengcheng Jiang,
- Abstract要約: DeepRetrievalは、LLMに試行錯誤を通じてクエリ拡張を直接実行するように訓練する、新しい強化学習ベースのアプローチである。
予備的な結果は、DeepRetrievalが既存の最先端手法を著しく上回っていることを示している。
- 参考スコア(独自算出の注目度): 0.9065034043031668
- License:
- Abstract: Information retrieval systems are crucial for enabling effective access to large document collections. Recent approaches have leveraged Large Language Models (LLMs) to enhance retrieval performance through query augmentation, but often rely on expensive supervised learning or distillation techniques that require significant computational resources and hand-labeled data. In this paper, we introduce DeepRetrieval, a novel reinforcement learning-based approach that trains LLMs to perform query augmentation directly through trial and error, without requiring supervised data. By using the retrieval recall as a reward signal, our system learns to generate effective queries that maximize document retrieval performance. Our preliminary results demonstrate that DeepRetrieval significantly outperforms existing state-of-the-art methods, including the recent LEADS system, achieving 60.82\% recall on publication search and 70.84\% recall on trial search tasks while using a smaller model (3B vs. 7B parameters) and requiring no supervision data. These results suggest that our reinforcement learning approach offers a more efficient and effective paradigm for information retrieval, potentially changing the landscape of document retrieval systems. code is available at https://github.com/pat-jj/DeepRetrieval.
- Abstract(参考訳): 大規模な文書コレクションへの効果的なアクセスを可能にするためには,情報検索システムが不可欠である。
近年,Large Language Models (LLMs) を利用したクエリ拡張による検索性能の向上が試みられているが,計算資源や手書きデータを必要とする高価な教師付き学習技術や蒸留技術に頼っていることが多い。
本稿では,新たな強化学習に基づくアプローチであるDeepRetrievalについて紹介する。
検索リコールを報酬信号として使用することにより,文書検索性能を最大化する効率的なクエリを生成することができる。
予備的な結果から、DeepRetrievalは、最近のLEADSシステムを含む既存の最先端手法よりも、より小さなモデル(3B vs. 7Bパラメータ)を使用しながら、出版検索における60.82.%のリコール、試行検索タスクにおける70.84.%のリコールを達成し、監督データを必要としないことが示されている。
これらの結果から,我々の強化学習アプローチは情報検索においてより効率的かつ効果的なパラダイムを提供し,文書検索システムの状況を変える可能性が示唆された。
コードはhttps://github.com/pat-jj/DeepRetrieval.comで入手できる。
関連論文リスト
- Learning More Effective Representations for Dense Retrieval through Deliberate Thinking Before Search [65.53881294642451]
ディリベレート思考に基づくDense Retriever (DEBATER)
DEBATERは、ステップバイステップの思考プロセスを通じて、より効果的な文書表現を学習できるようにすることにより、最近の密集型検索機能を強化している。
実験の結果,DEBATERはいくつかのベンチマークで既存手法よりも優れていた。
論文 参考訳(メタデータ) (2025-02-18T15:56:34Z) - RALLRec: Improving Retrieval Augmented Large Language Model Recommendation with Representation Learning [24.28601381739682]
大規模言語モデル (LLM) は、ユーザの振る舞いを理解するためのレコメンデーションシステムに統合されている。
既存のRAGメソッドは主にテキストのセマンティクスに依存しており、しばしば最も関連性の高い項目を組み込むことができない。
検索強化大言語モデル推薦(RALLRec)のための表現学習を提案する。
論文 参考訳(メタデータ) (2025-02-10T02:15:12Z) - Efficient fine-tuning methodology of text embedding models for information retrieval: contrastive learning penalty (clp) [0.0]
本研究では,事前学習したテキスト埋め込みモデルの情報検索性能を向上させるために,効率的な微調整手法を提案する。
提案手法は,文書検索タスクにおける既存手法よりも大幅な性能向上を実現する。
論文 参考訳(メタデータ) (2024-12-23T07:55:22Z) - REP: Resource-Efficient Prompting for Rehearsal-Free Continual Learning [23.92661395403251]
近年のリハーサルフリーな手法は,視覚関連連続学習(CL)とドリフトデータに優れ,資源効率に欠ける。
本稿では,Resource-Efficient Prompting(REP)を提案する。
提案手法は高速なプロンプト選択を用いて、注意深く設定されたモデルを用いて入力データを洗練する。
論文 参考訳(メタデータ) (2024-06-07T09:17:33Z) - R4: Reinforced Retriever-Reorder-Responder for Retrieval-Augmented Large Language Models [32.598670876662375]
Retrieval-augmented large language model (LLMs) は、情報検索システムによって取得された関連コンテンツを利用して正しい応答を生成する。
既存のレトリバー・サプライヤ・メソッドは、テキスト生成タスクを実行するために LLM のプロンプトに関連文書を追加するのが一般的である。
検索拡張LDMのための文書順序付けを学習するための新しいパイプライン"Reinforced Retriever-Reorder-Responder"を提案する。
論文 参考訳(メタデータ) (2024-05-04T12:59:10Z) - PromptReps: Prompting Large Language Models to Generate Dense and Sparse Representations for Zero-Shot Document Retrieval [76.50690734636477]
本稿では,PmptRepsを提案する。このPmptRepsは,トレーニングを必要とせず,コーパス全体から検索できる機能である。
検索システムは、高密度テキスト埋め込みとスパースバッグ・オブ・ワード表現の両方を利用する。
論文 参考訳(メタデータ) (2024-04-29T04:51:30Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Pre-training with Large Language Model-based Document Expansion for
Dense Passage Retrieval [28.906829093158592]
本研究では,Large Language Model(LLM)に基づく文書拡張による事前学習の可能性について検討した。
我々の研究は、ゼロショットとドメイン外検索能力の強いものを示し、人間のラベル付きデータなしで初期化する場合に、検索にもっと広く適用できるようにする。
論文 参考訳(メタデータ) (2023-08-16T11:10:43Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。