論文の概要: DeepRetrieval: Hacking Real Search Engines and Retrievers with Large Language Models via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2503.00223v3
- Date: Sat, 12 Apr 2025 03:17:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:43:37.773569
- Title: DeepRetrieval: Hacking Real Search Engines and Retrievers with Large Language Models via Reinforcement Learning
- Title(参考訳): DeepRetrieval: 強化学習を通じて,大規模言語モデルによるリアルタイム検索エンジンと検索をハックする
- Authors: Pengcheng Jiang, Jiacheng Lin, Lang Cao, Runchu Tian, SeongKu Kang, Zifeng Wang, Jimeng Sun, Jiawei Han,
- Abstract要約: DeepRetrievalは強化学習(RL)アプローチで、教師付きデータなしで試行錯誤によるクエリ生成のためにLLMをトレーニングする。
検索指標を報奨として,検索性能を最大化するクエリを生成する。
- 参考スコア(独自算出の注目度): 44.806321084404324
- License:
- Abstract: Information retrieval systems are crucial for enabling effective access to large document collections. Recent approaches have leveraged Large Language Models (LLMs) to enhance retrieval performance through query augmentation, but often rely on expensive supervised learning or distillation techniques that require significant computational resources and hand-labeled data. We introduce DeepRetrieval, a reinforcement learning (RL) approach that trains LLMs for query generation through trial and error without supervised data (reference query). Using retrieval metrics as rewards, our system generates queries that maximize retrieval performance. DeepRetrieval outperforms leading methods on literature search with 65.07% (vs. previous SOTA 24.68%) recall for publication search and 63.18% (vs. previous SOTA 32.11%) recall for trial search using real-world search engines. DeepRetrieval also dominates in evidence-seeking retrieval, classic information retrieval and SQL database search. With only 3B parameters, it outperforms industry-leading models like GPT-4o and Claude-3.5-Sonnet on 11/13 datasets. These results demonstrate that our RL approach offers a more efficient and effective paradigm for information retrieval. Our data and code are available at: https://github.com/pat-jj/DeepRetrieval.
- Abstract(参考訳): 大規模な文書コレクションへの効果的なアクセスを可能にするためには,情報検索システムが不可欠である。
近年,Large Language Models (LLMs) を利用したクエリ拡張による検索性能の向上が試みられているが,計算資源や手書きデータを必要とする高価な教師付き学習技術や蒸留技術に頼っていることが多い。
本稿では、教師付きデータ(参照クエリ)を使わずに、試行錯誤によってLLMを訓練する強化学習(RL)アプローチであるDeepRetrievalを紹介する。
検索指標を報奨として,検索性能を最大化するクエリを生成する。
DeepRetrievalは、65.07%(以前のSOTA 24.68%)のリコール、63.18%(以前のSOTA 32.11%)のリコールによる実世界のサーチエンジンによるトライアルサーチのリコールで、文学検索の指導的手法よりも優れている。
DeepRetrievalはエビデンス検索、古典情報検索、SQLデータベース検索でも優位である。
3Bパラメータだけで、11/13データセット上でのGPT-4oやClaude-3.5-Sonnetといった業界をリードするモデルよりも優れています。
これらの結果は、我々のRLアプローチが情報検索により効率的かつ効果的なパラダイムを提供することを示している。
私たちのデータとコードは、https://github.com/pat-jj/DeepRetrieval.comで利用可能です。
関連論文リスト
- Learning More Effective Representations for Dense Retrieval through Deliberate Thinking Before Search [65.53881294642451]
ディリベレート思考に基づくDense Retriever (DEBATER)
DEBATERは、ステップバイステップの思考プロセスを通じて、より効果的な文書表現を学習できるようにすることにより、最近の密集型検索機能を強化している。
実験の結果,DEBATERはいくつかのベンチマークで既存手法よりも優れていた。
論文 参考訳(メタデータ) (2025-02-18T15:56:34Z) - RALLRec: Improving Retrieval Augmented Large Language Model Recommendation with Representation Learning [24.28601381739682]
大規模言語モデル (LLM) は、ユーザの振る舞いを理解するためのレコメンデーションシステムに統合されている。
既存のRAGメソッドは主にテキストのセマンティクスに依存しており、しばしば最も関連性の高い項目を組み込むことができない。
検索強化大言語モデル推薦(RALLRec)のための表現学習を提案する。
論文 参考訳(メタデータ) (2025-02-10T02:15:12Z) - Efficient fine-tuning methodology of text embedding models for information retrieval: contrastive learning penalty (clp) [0.0]
本研究では,事前学習したテキスト埋め込みモデルの情報検索性能を向上させるために,効率的な微調整手法を提案する。
提案手法は,文書検索タスクにおける既存手法よりも大幅な性能向上を実現する。
論文 参考訳(メタデータ) (2024-12-23T07:55:22Z) - REP: Resource-Efficient Prompting for Rehearsal-Free Continual Learning [23.92661395403251]
近年のリハーサルフリーな手法は,視覚関連連続学習(CL)とドリフトデータに優れ,資源効率に欠ける。
本稿では,Resource-Efficient Prompting(REP)を提案する。
提案手法は高速なプロンプト選択を用いて、注意深く設定されたモデルを用いて入力データを洗練する。
論文 参考訳(メタデータ) (2024-06-07T09:17:33Z) - R4: Reinforced Retriever-Reorder-Responder for Retrieval-Augmented Large Language Models [32.598670876662375]
Retrieval-augmented large language model (LLMs) は、情報検索システムによって取得された関連コンテンツを利用して正しい応答を生成する。
既存のレトリバー・サプライヤ・メソッドは、テキスト生成タスクを実行するために LLM のプロンプトに関連文書を追加するのが一般的である。
検索拡張LDMのための文書順序付けを学習するための新しいパイプライン"Reinforced Retriever-Reorder-Responder"を提案する。
論文 参考訳(メタデータ) (2024-05-04T12:59:10Z) - PromptReps: Prompting Large Language Models to Generate Dense and Sparse Representations for Zero-Shot Document Retrieval [76.50690734636477]
本稿では,PmptRepsを提案する。このPmptRepsは,トレーニングを必要とせず,コーパス全体から検索できる機能である。
検索システムは、高密度テキスト埋め込みとスパースバッグ・オブ・ワード表現の両方を利用する。
論文 参考訳(メタデータ) (2024-04-29T04:51:30Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Pre-training with Large Language Model-based Document Expansion for
Dense Passage Retrieval [28.906829093158592]
本研究では,Large Language Model(LLM)に基づく文書拡張による事前学習の可能性について検討した。
我々の研究は、ゼロショットとドメイン外検索能力の強いものを示し、人間のラベル付きデータなしで初期化する場合に、検索にもっと広く適用できるようにする。
論文 参考訳(メタデータ) (2023-08-16T11:10:43Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。