論文の概要: Towards Robust Ranker for Text Retrieval
- arxiv url: http://arxiv.org/abs/2206.08063v1
- Date: Thu, 16 Jun 2022 10:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 15:53:01.448122
- Title: Towards Robust Ranker for Text Retrieval
- Title(参考訳): テキスト検索のためのロバストランカを目指して
- Authors: Yucheng Zhou, Tao Shen, Xiubo Geng, Chongyang Tao, Can Xu, Guodong
Long, Binxing Jiao, Daxin Jiang
- Abstract要約: ローダは、デファクトの'retrieval & rerank'パイプラインで必須の役割を果たす。
ローダは、デファクトの'retrieval & rerank'パイプラインで必須の役割を果たす。
- 参考スコア(独自算出の注目度): 83.15191578888188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A ranker plays an indispensable role in the de facto 'retrieval & rerank'
pipeline, but its training still lags behind -- learning from moderate
negatives or/and serving as an auxiliary module for a retriever. In this work,
we first identify two major barriers to a robust ranker, i.e., inherent label
noises caused by a well-trained retriever and non-ideal negatives sampled for a
high-capable ranker. Thereby, we propose multiple retrievers as negative
generators improve the ranker's robustness, where i) involving extensive
out-of-distribution label noises renders the ranker against each noise
distribution, and ii) diverse hard negatives from a joint distribution are
relatively close to the ranker's negative distribution, leading to more
challenging thus effective training. To evaluate our robust ranker (dubbed
R$^2$anker), we conduct experiments in various settings on the popular passage
retrieval benchmark, including BM25-reranking, full-ranking, retriever
distillation, etc. The empirical results verify the new state-of-the-art
effectiveness of our model.
- Abstract(参考訳): ローダは事実上の'検索と再実行'パイプラインで必須の役割を担いますが、トレーニングは依然として遅れています -- 適度なネガティブから学び、レトリバーの補助モジュールとして機能します。
本研究では,まず,ロバストなランカに対する2つの主要な障壁,すなわち,よく訓練されたレトリバーによる固有ラベルノイズと,高機能ランカのためにサンプリングされた非理想的負の2つを同定する。
これにより、負のジェネレータがランサーのロバスト性を向上させるために複数のレトリバーを提案する。
一 広範囲の分布外ラベルノイズを伴って各騒音分布に対してランク付けを行い、
二 関節分布の多様な硬質陰性は、ランクの負の分布に比較的近いため、より困難で効果的な訓練につながる。
ランサー(R$^2$anker)を評価するため,BM25リグレード,フルグレード,レトリバー蒸留など,一般的な航路検索ベンチマークの様々な設定で実験を行った。
実験により,本モデルの有効性が検証された。
関連論文リスト
- Towards Competitive Search Relevance For Inference-Free Learned Sparse Retrievers [6.773411876899064]
推測のないスパースモデルは 検索の関連という点で はるかに遅れています スパースモデルと密集したサイムズモデルの両方と比較して
まず,IDF(Inverted Document Frequency)を導入したIFF対応のFLOPS損失を表現のスペーシングに導入する。
その結果、FLOPS正則化が検索関連性に与える影響を軽減し、精度と効率のバランスが良くなることがわかった。
論文 参考訳(メタデータ) (2024-11-07T03:46:43Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - HYRR: Hybrid Infused Reranking for Passage Retrieval [18.537666294601458]
Hybrid Infused Re rank for Passages Retrievalは、BM25とニューラル検索モデルのハイブリッドに基づいて、リランカをトレーニングするためのフレームワークである。
我々は,MS MARCOとBEIRを用いたゼロショット検索タスクを用いた教師付きパス検索タスクの評価を行った。
論文 参考訳(メタデータ) (2022-12-20T18:44:21Z) - LED: Lexicon-Enlightened Dense Retriever for Large-Scale Retrieval [68.85686621130111]
そこで本研究では,高密度なレトリバーをレキシコン認識表現モデルに整合させることを提案する。
提案手法を3つの公開ベンチマークで評価した結果,教師と同等のレキシコン・アウェア・レトリバーにより,提案手法が一貫した,重要な改善をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2022-08-29T15:09:28Z) - Cooperative Retriever and Ranker in Deep Recommenders [75.35463122701135]
ディープ・レコメンダ・システム (DRS) は、現代のウェブサービスに強く適用されている。
DRSは検索とランキングという2段階のワークフローを使用して、推奨結果を生成する。
また、レトリバーとランサーの効果的なコラボレーションも検討している。
論文 参考訳(メタデータ) (2022-06-28T03:41:50Z) - Adversarial Retriever-Ranker for dense text retrieval [51.87158529880056]
本稿では、二重エンコーダレトリバーとクロスエンコーダローダからなるAdversarial Retriever-Ranker(AR2)を提案する。
AR2は、既存の高密度レトリバー法より一貫して大幅に優れている。
これには、R@5から77.9%(+2.1%)、TriviaQA R@5から78.2%(+1.4)、MS-MARCO MRR@10から39.5%(+1.3%)の改善が含まれている。
論文 参考訳(メタデータ) (2021-10-07T16:41:15Z) - Combating False Negatives in Adversarial Imitation Learning [67.99941805086154]
敵対的模倣学習では、エージェントエピソードと、所望の行動を表す専門家のデモンストレーションとを区別するために、判別器を訓練する。
訓練された方針がより成功することを学ぶと、負の例は専門家の例とますます似ている。
本研究では,偽陰性の影響を緩和し,BabyAI環境上で検証する手法を提案する。
論文 参考訳(メタデータ) (2020-02-02T14:56:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。