論文の概要: RRRA: Resampling and Reranking through a Retriever Adapter
- arxiv url: http://arxiv.org/abs/2508.11670v1
- Date: Thu, 07 Aug 2025 08:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.492888
- Title: RRRA: Resampling and Reranking through a Retriever Adapter
- Title(参考訳): RRRA: Retriever Adapterによるリサンプリングとリランク
- Authors: Bongsu Kim,
- Abstract要約: 本稿では,Bi-Encoder表現をモニタし,ハード負が実際に偽陰性である可能性を推定する学習可能なアダプタモジュールを提案する。
この確率は動的かつ文脈的にモデル化され、きめ細かいクエリ特有の判断を可能にする。
標準ベンチマークにおける実証的な結果から、我々のアダプタ強化フレームワークは、強いBi-Encoderベースラインを一貫して上回っていることが分かる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In dense retrieval, effective training hinges on selecting high quality hard negatives while avoiding false negatives. Recent methods apply heuristics based on positive document scores to identify hard negatives, improving both performance and interpretability. However, these global, example agnostic strategies often miss instance specific false negatives. To address this, we propose a learnable adapter module that monitors Bi-Encoder representations to estimate the likelihood that a hard negative is actually a false negative. This probability is modeled dynamically and contextually, enabling fine-grained, query specific judgments. The predicted scores are used in two downstream components: (1) resampling, where negatives are reweighted during training, and (2) reranking, where top-k retrieved documents are reordered at inference. Empirical results on standard benchmarks show that our adapter-enhanced framework consistently outperforms strong Bi-Encoder baselines, underscoring the benefit of explicit false negative modeling in dense retrieval.
- Abstract(参考訳): 密集検索において、効果的な訓練ヒンジは、偽陰性を避けながら高品質な硬質陰性を選択することである。
最近の手法では、正の文書スコアに基づくヒューリスティックスを適用して、ハードネガティブを識別し、性能と解釈性の両方を改善している。
しかし、これらのグローバルな例を知らない戦略は、しばしばインスタンス固有の偽陰性を見逃す。
そこで本研究では,Bi-Encoder表現をモニタして,ハード負が実際に偽陰性である可能性を推定する,学習可能なアダプタモジュールを提案する。
この確率は動的かつ文脈的にモデル化され、きめ細かいクエリ特有の判断を可能にする。
予測スコアは,(1) トレーニング中に負が重み付けされる再サンプリング,(2) 再ランク付け,(2) トップk 検索された文書が推論で順序付けされる2つの下流コンポーネントで使用される。
標準ベンチマークにおける実証的な結果から、我々のアダプタ強化フレームワークは、強いBiエンコーダベースラインを一貫して上回り、高密度検索における明示的な偽陰性モデリングの利点を裏付けている。
関連論文リスト
- ReNeg: Learning Negative Embedding with Reward Guidance [69.81219455975477]
テキスト・ツー・イメージ(T2I)生成アプリケーションでは、負の埋め込みは生成品質を向上させるための単純で効果的なアプローチであることが証明されている。
Rewardモデルにより導かれる改良された負の埋め込みを学習するために設計されたエンドツーエンドの手法であるReNegを紹介する。
論文 参考訳(メタデータ) (2024-12-27T13:31:55Z) - Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Mitigating the Impact of False Negatives in Dense Retrieval with
Contrastive Confidence Regularization [15.204113965411777]
ノイズコントラスト推定(NCE)損失に対する新しいコントラスト信頼度正規化器を提案する。
解析の結果,正則化器はより高密度な検索モデルにおいて,理論的保証のある偽陰性に対してより堅牢であることがわかった。
論文 参考訳(メタデータ) (2023-12-30T08:01:57Z) - Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - Language Model Pre-training on True Negatives [109.73819321246062]
差別的事前訓練言語モデル(PLM)は、故意に破損した言語から原文を予測することを学ぶ。
既存のPLMは、すべての破損したテキストを検査せずに同等に否定的に扱う。
我々は、偽陰性予測に対処し、真陰性に関する事前学習言語モデルを促進するために、強化された事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-12-01T12:24:19Z) - Positive-Negative Equal Contrastive Loss for Semantic Segmentation [8.664491798389662]
従来の作業では、グローバルコンテキストを効果的に抽出し集約するために、プラグアンドプレイモジュールと構造的損失を設計するのが一般的だった。
そこで我々は, 正負の負の正の負の負の正の負の正の負の正の負の負の負の正の負の負の正の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の
総合的な実験を行い、2つのベンチマークデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-07-04T13:51:29Z) - Stay Positive: Knowledge Graph Embedding Without Negative Sampling [1.8275108630751844]
損失関数に新たな正規化項を追加することにより、ネガティブサンプリングの必要性を回避できる訓練手順を提案する。
我々の2つの関係埋め込みモデル(DistMultとSimplE)の結果は、性能と速度の両面で提案の利点を示している。
論文 参考訳(メタデータ) (2022-01-07T20:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。