論文の概要: ThinkQE: Query Expansion via an Evolving Thinking Process
- arxiv url: http://arxiv.org/abs/2506.09260v1
- Date: Tue, 10 Jun 2025 21:41:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.110133
- Title: ThinkQE: Query Expansion via an Evolving Thinking Process
- Title(参考訳): ThinkQE: 進化的思考プロセスによるクエリ拡張
- Authors: Yibin Lei, Tao Shen, Andrew Yates,
- Abstract要約: ThinkQEは、より深く包括的なセマンティック探索を促進するテスト時クエリ拡張フレームワークである。
ThinkQEはトレーニング集約型リトリーバーやリランカーなど,従来のアプローチよりも一貫して優れています。
- 参考スコア(独自算出の注目度): 18.170948352149292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective query expansion for web search benefits from promoting both exploration and result diversity to capture multiple interpretations and facets of a query. While recent LLM-based methods have improved retrieval performance and demonstrate strong domain generalization without additional training, they often generate narrowly focused expansions that overlook these desiderata. We propose ThinkQE, a test-time query expansion framework addressing this limitation through two key components: a thinking-based expansion process that encourages deeper and comprehensive semantic exploration, and a corpus-interaction strategy that iteratively refines expansions using retrieval feedback from the corpus. Experiments on diverse web search benchmarks (DL19, DL20, and BRIGHT) show ThinkQE consistently outperforms prior approaches, including training-intensive dense retrievers and rerankers.
- Abstract(参考訳): Web検索の効果的なクエリ拡張は、探索と結果の多様性を促進することで、クエリの複数の解釈とファセットをキャプチャする。
近年のLSM法では検索性能が向上し、追加の訓練なしに強力な領域一般化が証明されているが、これらのデシダラタを見渡すように狭めに焦点を絞った拡張がしばしば発生する。
我々は,この制限に対処するテスト時クエリ拡張フレームワークであるThinkQEを提案し,より深く包括的な意味探索を促進する思考ベースの拡張プロセスと,コーパスからのフィードバックを用いて拡張を反復的に洗練するコーパス・インタラクション戦略を提案する。
多様なWeb検索ベンチマーク(DL19、DL20、BRIGHT)の実験では、ThinkQEはトレーニング集約型検索や再ランカなど、従来のアプローチよりも一貫して優れていた。
関連論文リスト
- Exp4Fuse: A Rank Fusion Framework for Enhanced Sparse Retrieval using Large Language Model-based Query Expansion [0.0]
大規模言語モデル(LLM)は、クエリ拡張のための仮説文書を生成する可能性を示している。
スパースレトリバーの性能を向上させる新しい融合ランキングフレームワークExp4Fuseを導入する。
論文 参考訳(メタデータ) (2025-06-05T08:44:34Z) - Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - LevelRAG: Enhancing Retrieval-Augmented Generation with Multi-hop Logic Planning over Rewriting Augmented Searchers [24.01783076521377]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)における幻覚を緩和するための重要な方法である
既存のRAGメソッドは通常、検索範囲を広げるためにハイブリッド検索を使用しながら、ユーザ意図を明確にし、マルチホップロジックを管理するためにクエリ書き換えを使用する。
本稿では,複雑なクエリをアトミックなクエリに分解する高レベル検索手法を提案する。
高精度なキーワード検索にスパース検索の長所を利用するために,Lucene構文を用いて検索精度を向上させるスパース検索手法を開発した。
論文 参考訳(メタデータ) (2025-02-25T12:09:16Z) - Learning More Effective Representations for Dense Retrieval through Deliberate Thinking Before Search [65.53881294642451]
ディリベレート思考に基づくDense Retriever (DEBATER)
DEBATERは、ステップバイステップの思考プロセスを通じて、より効果的な文書表現を学習できるようにすることにより、最近の密集型検索機能を強化している。
実験の結果,DEBATERはいくつかのベンチマークで既存手法よりも優れていた。
論文 参考訳(メタデータ) (2025-02-18T15:56:34Z) - QA-Expand: Multi-Question Answer Generation for Enhanced Query Expansion in Information Retrieval [12.095687580827065]
本稿では,クエリ拡張のための新しい効果的なフレームワークであるQA-Expandを紹介する。
まず、最初のクエリから複数の関連する質問を生成し、その後、サロゲート文書として対応する疑似回答を生成する。
BEIR(英語版)やTREC(英語版)などのベンチマークの大規模な実験は、QA-Expandが最先端の手法よりも最大13%検索性能を向上させることを示した。
論文 参考訳(メタデータ) (2025-02-12T16:39:06Z) - Bridging Information Asymmetry in Text-video Retrieval: A Data-centric Approach [56.610806615527885]
テキストビデオ検索(TVR)における重要な課題は、ビデオとテキスト間の情報非対称性である。
本稿では,このギャップを埋めるために,テキスト表現を豊かにすることで,映像コンテンツの豊かさに合わせたデータ中心のフレームワークを提案する。
本稿では,最も関連性が高く多様なクエリを識別し,計算コストを低減し,精度を向上するクエリ選択機構を提案する。
論文 参考訳(メタデータ) (2024-08-14T01:24:09Z) - Corpus-Steered Query Expansion with Large Language Models [35.64662397095323]
我々はCSQE(Corpus-Steered Query Expansion)を導入し,コーパス内に埋め込まれた知識の取り込みを促進する。
CSQEは、LLMの関連性評価機能を利用して、最初に検索された文書の重要文を体系的に同定する。
大規模な実験により、CSQEは訓練を必要とせず、特にLLMが知識を欠いているクエリで強い性能を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-02-28T03:58:58Z) - Can Query Expansion Improve Generalization of Strong Cross-Encoder Rankers? [72.42500059688396]
本稿では,拡張されたクエリのランク付け結果を融合により高速化し,エンジニアリングの迅速化と集約を行うことにより,強力なニューラルネットワークローカの一般化を向上できることを示す。
BEIR と TREC Deep Learning の実験では,MonoT5 と RankT5 の nDCG@10 スコアがこれらのステップに従って改善された。
論文 参考訳(メタデータ) (2023-11-15T18:11:41Z) - Modeling Uncertainty and Using Post-fusion as Fallback Improves Retrieval Augmented Generation with LLMs [80.74263278847063]
検索されたパスと大きな言語モデル(LLM)の統合は、オープンドメインの質問応答の改善に大きく貢献している。
本稿では,検索したパスをLLMと組み合わせて回答生成を向上させる方法について検討する。
論文 参考訳(メタデータ) (2023-08-24T05:26:54Z) - A Linguistically Driven Framework for Query Expansion via Grammatical
Constituent Highlighting and Role-Based Concept Weighting [0.0]
関心のコンセプトは、探索目標のジストを表す中核的な概念として認識される。
検索目標を特定し、クエリ構造を完了するのに役立つ残りのクエリ構成成分は、記述的、関係的、構造的に分類される。
論文 参考訳(メタデータ) (2020-04-25T01:43:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。