論文の概要: Blending Learning to Rank and Dense Representations for Efficient and Effective Cascades
- arxiv url: http://arxiv.org/abs/2510.16393v1
- Date: Sat, 18 Oct 2025 08:16:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.745622
- Title: Blending Learning to Rank and Dense Representations for Efficient and Effective Cascades
- Title(参考訳): 効率良く効果的なカスケードのためのランクとディエンス表現のブレンディング
- Authors: Franco Maria Nardini, Raffaele Perego, Nicola Tonellotto, Salvatore Trani,
- Abstract要約: アドホック経路検索における語彙信号と神経関連信号の併用について検討した。
我々は,ニューラルネットワークが第1段階として機能し,最寄りの探索を行うパイプラインアーキテクチャを採用している。
nDCG@10が11%向上し、平均クエリレイテンシが4.3%向上しました。
- 参考スコア(独自算出の注目度): 18.081997057477178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the exploitation of both lexical and neural relevance signals for ad-hoc passage retrieval. Our exploration involves a large-scale training dataset in which dense neural representations of MS-MARCO queries and passages are complemented and integrated with 253 hand-crafted lexical features extracted from the same corpus. Blending of the relevance signals from the two different groups of features is learned by a classical Learning-to-Rank (LTR) model based on a forest of decision trees. To evaluate our solution, we employ a pipelined architecture where a dense neural retriever serves as the first stage and performs a nearest-neighbor search over the neural representations of the documents. Our LTR model acts instead as the second stage that re-ranks the set of candidates retrieved by the first stage to enhance effectiveness. The results of reproducible experiments conducted with state-of-the-art dense retrievers on publicly available resources show that the proposed solution significantly enhances the end-to-end ranking performance while relatively minimally impacting efficiency. Specifically, we achieve a boost in nDCG@10 of up to 11% with an increase in average query latency of only 4.3%. This confirms the advantage of seamlessly combining two distinct families of signals that mutually contribute to retrieval effectiveness.
- Abstract(参考訳): アドホック経路検索における語彙信号と神経関連信号の併用について検討した。
我々の探索では、MS-MARCOクエリとパスの高密度なニューラル表現を補完し、同じコーパスから抽出した253個の手作り語彙特徴と統合する大規模なトレーニングデータセットについて検討した。
2つの異なる特徴群からの関連信号のブレンディングは、決定木の森に基づく古典的学習・学習・学習モデル(LTR)によって学習される。
提案手法の評価には,高密度ニューラルネットワークが第1段階として機能するパイプラインアーキテクチャを用い,文書のニューラル表現を最寄りで探索する。
我々のLTRモデルは、その代わりに第1段によって検索された候補の集合を再ランクする第2段として機能し、有効性を高める。
現状の高密度検索装置を用いて公開資源上で再現可能な実験を行った結果,提案手法はエンド・ツー・エンドのランク付け性能を著しく向上し,効率に比較的影響を与えていることがわかった。
具体的には、nDCG@10が11%まで向上し、平均クエリレイテンシが4.3%向上しました。
このことは、相互に検索効率に寄与する2つの異なる信号群をシームレスに組み合わせることの利点を裏付ける。
関連論文リスト
- ROGRAG: A Robustly Optimized GraphRAG Framework [45.947928801693266]
グラフベースの検索強化生成(GraphRAG)は、動的検索のためのグラフとしてドメイン知識を構造化することによってこの問題に対処する。
既存のパイプラインには複雑なエンジニアリングが含まれており、個々のコンポーネントの影響を分離することは困難である。
本稿では,ロバストに最適化されたGraphRAGフレームワークであるROGRAGを紹介する。
論文 参考訳(メタデータ) (2025-03-09T06:20:24Z) - USDRL: Unified Skeleton-Based Dense Representation Learning with Multi-Grained Feature Decorrelation [24.90512145836643]
本稿では,特徴デコレーションに基づく統一骨格に基づくDense Representation Learningフレームワークを提案する。
我々のアプローチは現在のSOTA(State-of-the-art)アプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-12-12T12:20:27Z) - Scaling Data Generation in Vision-and-Language Navigation [116.95534559103788]
本稿では,学習のための大規模データ生成に有効なパラダイムを提案する。
我々は、HM3DとGibsonのデータセットから1200以上のフォトリアリスティック環境を適用し、490万の命令軌道対を合成する。
我々の大規模データセットのおかげで、既存のエージェントの性能は(以前のSoTAでは+11%絶対)、単純な模倣学習によってR2Rテストの分割で80%の単ラン成功率で大幅に向上できる。
論文 参考訳(メタデータ) (2023-07-28T16:03:28Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval [11.38022203865326]
SPLADEモデルは、最先端の高密度かつスパースなアプローチに関して、高度にスパースな表現と競争結果を提供する。
我々は、プール機構を変更し、文書拡張のみに基づいてモデルをベンチマークし、蒸留で訓練されたモデルを導入する。
全体として、SPLADEはTREC DL 2019のNDCG@10で9ドル以上のゲインで大幅に改善され、BEIRベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-09-21T10:43:42Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。