論文の概要: Generate, Filter, and Fuse: Query Expansion via Multi-Step Keyword
Generation for Zero-Shot Neural Rankers
- arxiv url: http://arxiv.org/abs/2311.09175v1
- Date: Wed, 15 Nov 2023 18:11:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 14:39:03.187904
- Title: Generate, Filter, and Fuse: Query Expansion via Multi-Step Keyword
Generation for Zero-Shot Neural Rankers
- Title(参考訳): ゼロショットニューラルランサーのためのマルチステップキーワード生成によるクエリ拡張
- Authors: Minghan Li, Honglei Zhuang, Kai Hui, Zhen Qin, Jimmy Lin, Rolf
Jagerman, Xuanhui Wang, Michael Bendersky
- Abstract要約: 本研究では,現在の文献に拡張技術を直接適用することにより,ゼロショット性能が劣化することを示す。
我々は,大規模言語モデルとニューラルローダを含むパイプラインであるGFFを提案し,より効率的にクエリ拡張を生成する。
- 参考スコア(独自算出の注目度): 75.54436030331793
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Query expansion has been proved to be effective in improving recall and
precision of first-stage retrievers, and yet its influence on a complicated,
state-of-the-art cross-encoder ranker remains under-explored. We first show
that directly applying the expansion techniques in the current literature to
state-of-the-art neural rankers can result in deteriorated zero-shot
performance. To this end, we propose GFF, a pipeline that includes a large
language model and a neural ranker, to Generate, Filter, and Fuse query
expansions more effectively in order to improve the zero-shot ranking metrics
such as nDCG@10. Specifically, GFF first calls an instruction-following
language model to generate query-related keywords through a reasoning chain.
Leveraging self-consistency and reciprocal rank weighting, GFF further filters
and combines the ranking results of each expanded query dynamically. By
utilizing this pipeline, we show that GFF can improve the zero-shot nDCG@10 on
BEIR and TREC DL 2019/2020. We also analyze different modelling choices in the
GFF pipeline and shed light on the future directions in query expansion for
zero-shot neural rankers.
- Abstract(参考訳): クエリ拡張は、第1ステージレトリバーのリコールと精度向上に効果的であることが証明されているが、複雑で最先端のクロスエンコーダランチャーへの影響は未検討のままである。
まず,現在の文献に拡張技術を直接適用することにより,ゼロショット性能が劣化することを示す。
そこで我々は,ndcg@10のようなゼロショットランキング指標を改善するために,クエリ拡張の生成,フィルタリング,ヒューズをより効果的に行うための,大規模言語モデルとニューラルネットワークランカを備えたパイプラインであるgffを提案する。
特に、GFFはまず命令追従言語モデルを呼び出し、推論チェーンを通じてクエリ関連キーワードを生成する。
自己整合性と相互ランク重み付けを活用して、GFFはさらにフィルタし、各拡張クエリのランキング結果を動的に組み合わせる。
このパイプラインを利用することで、GFFはBEIRおよびTREC DL 2019/2020におけるゼロショットnDCG@10を改善することができることを示す。
また,gffパイプラインにおける異なるモデリング選択を分析し,ゼロショットニューラルランカのクエリ拡張における今後の方向性を明らかにした。
関連論文リスト
- GenCRF: Generative Clustering and Reformulation Framework for Enhanced Intent-Driven Information Retrieval [20.807374287510623]
我々は,多種多様な意図を適応的に捉えるための生成クラスタリング・改革フレームワークGenCRFを提案する。
我々はGenCRFが,nDCG@10で従来のクエリ修正SOTAを最大12%上回り,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-09-17T05:59:32Z) - Ranking-based Adaptive Query Generation for DETRs in Crowded Pedestrian
Detection [49.27380156754935]
DETRのクエリの数は手動で調整しなければなりませんが、そうでなければ、パフォーマンスは様々な程度に低下します。
本稿では,ランクに基づく適応クエリ生成(RAQG)を提案し,問題を緩和する。
提案手法は単純かつ効果的であり,任意のDETRにプラグインすることで,理論上クエリ適応性を実現する。
論文 参考訳(メタデータ) (2023-10-24T11:00:56Z) - Expand, Rerank, and Retrieve: Query Reranking for Open-Domain Question
Answering [28.05138829730091]
EARはまず、クエリ拡張モデルを適用して、さまざまなクエリセットを生成した後、クエリリランカを使用して、より優れた検索結果につながるクエリを選択する。
クエリ拡張モデルとレトリバーの接続により、EARは従来のスパース検索手法BM25を大幅に強化する。
論文 参考訳(メタデータ) (2023-05-26T16:41:03Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - KEPR: Knowledge Enhancement and Plausibility Ranking for Generative
Commonsense Question Answering [11.537283115693432]
本稿では,ジェネレート・Then-Rankパイプラインアーキテクチャに基づく知識向上と可視性ランキング手法を提案する。
具体的には、キーワードのWiktionary Commonsense知識の観点から質問を拡張し、正規化パターンで修正する。
ELECTRAに基づく回答ランキングモデルを構築し、学習中にロジスティック回帰を行う。
論文 参考訳(メタデータ) (2023-05-15T04:58:37Z) - Noise-Robust Dense Retrieval via Contrastive Alignment Post Training [89.29256833403167]
Contrastive Alignment POst Training (CAPOT) は、指数再生を必要とせず、モデルロバスト性を改善する高効率な微調整法である。
CAPOTはドキュメントエンコーダを凍結することで堅牢な検索を可能にし、クエリエンコーダはノイズの多いクエリを修正されていないルートに整列させる。
MSMARCO、Natural Questions、Trivia QAパス検索のCAPOTノイズ変動を評価し、CAPOTがオーバーヘッドを伴わないデータ増大に類似した影響があることを発見した。
論文 参考訳(メタデータ) (2023-04-06T22:16:53Z) - AugTriever: Unsupervised Dense Retrieval and Domain Adaptation by Scalable Data Augmentation [44.93777271276723]
擬似クエリドキュメントペアを作成することにより,アノテーションフリーでスケーラブルなトレーニングを可能にする2つのアプローチを提案する。
クエリ抽出方法は、元のドキュメントから有能なスパンを選択して擬似クエリを生成する。
転送クエリ生成方法は、要約などの他のNLPタスクのために訓練された生成モデルを使用して、擬似クエリを生成する。
論文 参考訳(メタデータ) (2022-12-17T10:43:25Z) - Optimizing Test-Time Query Representations for Dense Retrieval [34.61821330771046]
TOURは、テスト時間検索の結果によってガイドされるクエリ表現を改善する。
我々は、クロスエンコーダのリランカを利用して、検索結果よりもきめ細かい擬似ラベルを提供する。
TOURは1.3-2.4倍高速で実行しながら、常に最大2.0%のダイレクトリランクを改善する。
論文 参考訳(メタデータ) (2022-05-25T11:39:42Z) - Adversarial Retriever-Ranker for dense text retrieval [51.87158529880056]
本稿では、二重エンコーダレトリバーとクロスエンコーダローダからなるAdversarial Retriever-Ranker(AR2)を提案する。
AR2は、既存の高密度レトリバー法より一貫して大幅に優れている。
これには、R@5から77.9%(+2.1%)、TriviaQA R@5から78.2%(+1.4)、MS-MARCO MRR@10から39.5%(+1.3%)の改善が含まれている。
論文 参考訳(メタデータ) (2021-10-07T16:41:15Z) - CoSQA: 20,000+ Web Queries for Code Search and Question Answering [63.92224685262063]
CoSQAデータセットには、自然言語クエリとコードのペア用の20,604ラベルが含まれている。
本稿では,クエリコードマッチングを強化するために,CoCLRと呼ばれる対照的な学習手法を提案する。
我々は,CodeXGLUEを同じCodeBERTモデルで評価し,CoSQAのトレーニングにより,コード質問応答の精度が5.1%向上したことを示す。
論文 参考訳(メタデータ) (2021-05-27T15:37:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。