論文の概要: Improving Dense Passage Retrieval with Multiple Positive Passages
- arxiv url: http://arxiv.org/abs/2508.09534v1
- Date: Wed, 13 Aug 2025 06:36:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.784754
- Title: Improving Dense Passage Retrieval with Multiple Positive Passages
- Title(参考訳): 多能性パスを用いた高密度パス検索の改善
- Authors: Shuai Chang,
- Abstract要約: Passage Retrieval (DPR) は、BM25のような従来のスパース検索アルゴリズムよりも精度が高い。
本稿では、トレーニング中に追加のポジティブパスが組み込まれた場合のDPRの性能について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By leveraging a dual encoder architecture, Dense Passage Retrieval (DPR) has outperformed traditional sparse retrieval algorithms such as BM25 in terms of passage retrieval accuracy. Recently proposed methods have further enhanced DPR's performance. However, these models typically pair each question with only one positive passage during training, and the effect of associating multiple positive passages has not been examined. In this paper, we explore the performance of DPR when additional positive passages are incorporated during training. Experimental results show that equipping each question with multiple positive passages consistently improves retrieval accuracy, even when using a significantly smaller batch size, which enables training on a single GPU.
- Abstract(参考訳): デュアルエンコーダアーキテクチャを活用することで、Dense Passage Retrieval (DPR) は BM25 などの従来のスパース検索アルゴリズムよりも精度が高い。
近年,DPRの性能をさらに向上させる手法が提案されている。
しかしながら、これらのモデルは通常、トレーニング中に各質問と1つの肯定的パスのみをペアリングし、複数の肯定的パスを関連付ける効果は検討されていない。
本稿では、トレーニング中に追加のポジティブパスが組み込まれた場合のDPRの性能について検討する。
実験結果から,バッチサイズが大幅に小さい場合であっても,各質問に複数の肯定的パスを付与することで,検索精度が一貫して向上し,単一のGPU上でのトレーニングが可能になることがわかった。
関連論文リスト
- SelaVPR++: Towards Seamless Adaptation of Foundation Models for Efficient Place Recognition [69.58329995485158]
近年の研究では、事前学習した視覚基盤モデルを用いた視覚的位置認識(VPR)法が有望な性能を達成できることが示されている。
本稿では,基礎モデルのVPRへのシームレスな適応を実現する新しい手法を提案する。
効率の向上と性能向上のために,SelaVPR++と呼ばれるSelaVPRの拡張を提案する。
論文 参考訳(メタデータ) (2025-02-23T15:01:09Z) - REBAR: Retrieval-Based Reconstruction for Time-series Contrastive Learning [64.08293076551601]
正の対を識別する学習尺度を新たに提案する。
検索ベースレコンストラクションは2つのシーケンス間の類似度を測定する。
本稿では,REBAR誤差が相互クラスメンバシップの予測因子であることを示す。
論文 参考訳(メタデータ) (2023-11-01T13:44:45Z) - Query-as-context Pre-training for Dense Passage Retrieval [27.733665432319803]
文脈教師付き事前学習を用いて,高密度経路探索の性能向上のための手法が開発されている。
本稿では,クエリ・アズ・コンテクスト事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-12-19T16:34:19Z) - Hyperlink-induced Pre-training for Passage Retrieval in Open-domain
Question Answering [53.381467950545606]
HyperLink-induced Pre-training (HLP) は、Webドキュメント内のハイパーリンクベースのトポロジーによって引き起こされるテキスト関連性によって、高密度検索を事前訓練する手法である。
本稿では,双対リンクとコメンテーションのハイパーリンクに基づく構造が,大規模事前学習に有効であることを示す。
論文 参考訳(メタデータ) (2022-03-14T09:09:49Z) - RocketQAv2: A Joint Training Method for Dense Passage Retrieval and
Passage Re-ranking [89.82301733609279]
本稿では,高密度経路検索と再ランク付けのための新しい共同学習手法を提案する。
主な貢献は、動的リストワイズ蒸留を導入し、レトリバーと再ランカの両方に統一されたリストワイズトレーニングアプローチを設計することである。
ダイナミック蒸留中は、レトリバーとリランカは、互いの関連情報に応じて適応的に改善することができる。
論文 参考訳(メタデータ) (2021-10-14T13:52:55Z) - Joint Passage Ranking for Diverse Multi-Answer Retrieval [56.43443577137929]
質問に対する複数の異なる回答をカバーするために、パスの取得を必要とする探索不足の問題であるマルチアンサー検索について検討する。
モデルが別の有効な答えを逃す費用で同じ答えを含む通路を繰り返すべきではないので、このタスクは、検索された通路の共同モデリングを必要とします。
本稿では,再順位に着目したジョイントパス検索モデルであるJPRを紹介する。
回収された通路の合同確率をモデル化するために、JPRは、新しい訓練および復号アルゴリズムを備えた通路のシーケンスを選択する自動回帰リタイナを利用する。
論文 参考訳(メタデータ) (2021-04-17T04:48:36Z) - Efficiently Teaching an Effective Dense Retriever with Balanced Topic
Aware Sampling [37.01593605084575]
TAS-Balancedは、効率的なトピック認識クエリとバランスの取れたマージンサンプリング技術です。
本稿では,2つのTRECディープラーニングトラッククエリセットに対して,最先端の低レイテンシ(クエリ毎64ms)を実現するTAS-Balancedトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-04-14T16:49:18Z) - A Replication Study of Dense Passage Retriever [32.192420072129636]
Karpukhinらによって提案された高密度通過レトリバー(DPR)技術について研究する。
(2020) エンドツーエンドのオープンドメイン質問応答。
本稿では,著者らによるモデルチェックポイントから本研究の再現性について検討する。
私たちは、オリジナルの作業とまったく同じモデルを使って、エンドツーエンドの質問応答の有効性を改善することができます。
論文 参考訳(メタデータ) (2021-04-12T18:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。