論文の概要: Exp4Fuse: A Rank Fusion Framework for Enhanced Sparse Retrieval using Large Language Model-based Query Expansion
- arxiv url: http://arxiv.org/abs/2506.04760v1
- Date: Thu, 05 Jun 2025 08:44:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.608927
- Title: Exp4Fuse: A Rank Fusion Framework for Enhanced Sparse Retrieval using Large Language Model-based Query Expansion
- Title(参考訳): Exp4Fuse: 大規模言語モデルに基づくクエリ拡張を用いたスパース検索強化のためのランクフュージョンフレームワーク
- Authors: Lingyuan Liu, Mengxiang Zhang,
- Abstract要約: 大規模言語モデル(LLM)は、クエリ拡張のための仮説文書を生成する可能性を示している。
スパースレトリバーの性能を向上させる新しい融合ランキングフレームワークExp4Fuseを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown potential in generating hypothetical documents for query expansion, thereby enhancing information retrieval performance. However, the efficacy of this method is highly dependent on the quality of the generated documents, which often requires complex prompt strategies and the integration of advanced dense retrieval techniques. This can be both costly and computationally intensive. To mitigate these limitations, we explore the use of zero-shot LLM-based query expansion to improve sparse retrieval, particularly for learned sparse retrievers. We introduce a novel fusion ranking framework, Exp4Fuse, which enhances the performance of sparse retrievers through an indirect application of zero-shot LLM-based query expansion. Exp4Fuse operates by simultaneously considering two retrieval routes-one based on the original query and the other on the LLM-augmented query. It then generates two ranked lists using a sparse retriever and fuses them using a modified reciprocal rank fusion method. We conduct extensive evaluations of Exp4Fuse against leading LLM-based query expansion methods and advanced retrieval techniques on three MS MARCO-related datasets and seven low-resource datasets. Experimental results reveal that Exp4Fuse not only surpasses existing LLM-based query expansion methods in enhancing sparse retrievers but also, when combined with advanced sparse retrievers, achieves SOTA results on several benchmarks. This highlights the superior performance and effectiveness of Exp4Fuse in improving query expansion for sparse retrieval.
- Abstract(参考訳): 大規模言語モデル(LLM)は,クエリ拡張のための仮説文書を生成する可能性を示し,情報検索性能を向上させる。
しかし,本手法の有効性は生成文書の品質に大きく依存しており,複雑なプロンプト戦略や高度な高密度検索技術の統合が必要となることが多い。
これは費用も計算量も大きい。
これらの制限を緩和するために、特に学習されたスパース検索において、スパース検索を改善するためにゼロショットLLMベースのクエリ拡張を利用することを検討する。
我々は,ゼロショットLCMベースのクエリ拡張を間接的に適用することにより,スパースレトリバーの性能を向上させる新しい融合ランキングフレームワークExp4Fuseを導入する。
Exp4Fuseは、元のクエリに基づく2つの検索ルートと、LLM拡張クエリに基づく2つの検索ルートを同時に検討して動作する。
その後、スパースレトリバーを用いて2つのランクリストを生成し、修正された相互階数融合法を用いてそれらを融合する。
我々は,3つのMS MARCO関連データセットと7つの低リソースデータセットに対して,主要なLLMベースのクエリ拡張手法と高度な検索手法に対してExp4Fuseを広範囲に評価する。
実験結果から,Exp4Fuse はスパースレトリバーの強化に既存の LLM ベースのクエリ拡張手法を超越するだけでなく,高度スパースレトリバーと組み合わせることで,複数のベンチマークで SOTA 結果が得られることがわかった。
このことは、スパース検索のためのクエリ拡張の改善におけるExp4Fuseの優れたパフォーマンスと有効性を強調している。
関連論文リスト
- Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - LevelRAG: Enhancing Retrieval-Augmented Generation with Multi-hop Logic Planning over Rewriting Augmented Searchers [24.01783076521377]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)における幻覚を緩和するための重要な方法である
既存のRAGメソッドは通常、検索範囲を広げるためにハイブリッド検索を使用しながら、ユーザ意図を明確にし、マルチホップロジックを管理するためにクエリ書き換えを使用する。
本稿では,複雑なクエリをアトミックなクエリに分解する高レベル検索手法を提案する。
高精度なキーワード検索にスパース検索の長所を利用するために,Lucene構文を用いて検索精度を向上させるスパース検索手法を開発した。
論文 参考訳(メタデータ) (2025-02-25T12:09:16Z) - ExpandR: Teaching Dense Retrievers Beyond Queries with LLM Guidance [21.777817032607405]
大規模言語モデル(LLM)は、クエリ拡張による高密度検索の強化に有意な可能性を証明している。
本研究では,LLM拡張高密度検索フレームワークExpandRを提案する。
複数のベンチマーク実験の結果、ExpandRは強いベースラインを一貫して上回ることがわかった。
論文 参考訳(メタデータ) (2025-02-24T11:15:41Z) - Can we Retrieve Everything All at Once? ARM: An Alignment-Oriented LLM-based Retrieval Method [48.14236175156835]
ARMは、データオブジェクト間の関係を探索することで、データ収集の組織とよりよく一致させることを目指している。
クエリ分解の精度は最大5.2 pt、エージェントRAG(ReAct)は最大15.9 ptである。
最大5.5 pt、19.3 ptのF1マッチスコアをこれらのアプローチと比較して達成する。
論文 参考訳(メタデータ) (2025-01-30T18:07:19Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z) - Query2doc: Query Expansion with Large Language Models [69.9707552694766]
提案手法はまず,大言語モデル (LLM) をプロンプトすることで擬似文書を生成する。
query2docは、アドホックIRデータセットでBM25のパフォーマンスを3%から15%向上させる。
また,本手法は,ドメイン内およびドメイン外の両方において,最先端の高密度検索に有効である。
論文 参考訳(メタデータ) (2023-03-14T07:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。