論文の概要: Query-level Early Exit for Additive Learning-to-Rank Ensembles
- arxiv url: http://arxiv.org/abs/2004.14641v1
- Date: Thu, 30 Apr 2020 08:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 05:36:33.103710
- Title: Query-level Early Exit for Additive Learning-to-Rank Ensembles
- Title(参考訳): 付加学習からランクへのアンサンブルのためのクエリレベル早期出口
- Authors: Claudio Lucchese, Franco Maria Nardini, Salvatore Orlando, Raffaele
Perego, Salvatore Trani
- Abstract要約: 検索エンジンランキングパイプラインは通常、マシン学習決定ツリーの大規模なアンサンブルに基づいている。
本稿では,テクストレベルの早期退避問題について検討する。
NDCG@10では,クエリレベルの早期終了が最大7.5%向上し,スコアリングプロセスの高速化が最大2.2倍になることを示す。
- 参考スコア(独自算出の注目度): 14.240566571342924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Search engine ranking pipelines are commonly based on large ensembles of
machine-learned decision trees. The tight constraints on query response time
recently motivated researchers to investigate algorithms to make faster the
traversal of the additive ensemble or to early terminate the evaluation of
documents that are unlikely to be ranked among the top-k. In this paper, we
investigate the novel problem of \textit{query-level early exiting}, aimed at
deciding the profitability of early stopping the traversal of the ranking
ensemble for all the candidate documents to be scored for a query, by simply
returning a ranking based on the additive scores computed by a limited portion
of the ensemble. Besides the obvious advantage on query latency and throughput,
we address the possible positive impact of query-level early exiting on ranking
effectiveness. To this end, we study the actual contribution of incremental
portions of the tree ensemble to the ranking of the top-k documents scored for
a given query. Our main finding is that queries exhibit different behaviors as
scores are accumulated during the traversal of the ensemble and that
query-level early stopping can remarkably improve ranking quality. We present a
reproducible and comprehensive experimental evaluation, conducted on two public
datasets, showing that query-level early exiting achieves an overall gain of up
to 7.5% in terms of NDCG@10 with a speedup of the scoring process of up to
2.2x.
- Abstract(参考訳): 検索エンジンランキングパイプラインは通常、マシン学習決定ツリーの大規模なアンサンブルに基づいている。
クエリ応答時間の厳密な制約により、研究者は、加算アンサンブルのトラバースを早めるアルゴリズムや、トップkにランク付けできない文書の評価を早期に終了するアルゴリズムを調査する動機となった。
本稿では,検索対象とするすべての候補文書のランキングアンサンブルのトラバースを早期に停止する可能性を決定することを目的とした,‘textit{query-level early exiting} の新たな問題点を,アンサンブルの限られた部分で計算された加算スコアに基づいてランキングを返却することによる検討を行う。
クエリ待ち時間とスループットに対する明らかなアドバンテージに加えて、クエリレベルの早期終了がランキングの有効性に与える影響にも対処する。
そこで本研究では,木アンサンブルの漸進的な部分の実際の寄与を,与えられたクエリの上位k文書のランク付けに当てる。
我々の主な発見は、アンサンブルの進行中にスコアが蓄積されるにつれてクエリが異なる振る舞いを示し、クエリレベルの早期停止がランキング品質を著しく向上させることができることである。
2つの公開データセットで実施した再現可能かつ総合的な実験評価の結果,NDCG@10ではクエリレベルの早期退避が最大7.5%向上し,スコアリングプロセスが最大2.2倍に高速化された。
関連論文リスト
- JudgeRank: Leveraging Large Language Models for Reasoning-Intensive Reranking [81.88787401178378]
本稿では,文書関連性を評価する際に,人間の認知過程をエミュレートする新しいエージェント・リランカであるJiceRankを紹介する。
我々は,推論集約型BRIGHTベンチマークを用いて判定Rankを評価し,第1段階の検索手法よりも性能が大幅に向上したことを示す。
さらに、JiceRankは、人気の高いBEIRベンチマークの細調整された最先端リランカと同等に動作し、ゼロショットの一般化能力を検証している。
論文 参考訳(メタデータ) (2024-10-31T18:43:12Z) - Generalized Contrastive Learning for Multi-Modal Retrieval and Ranking [2.5238707656136694]
マルチモーダル検索・ランキング(GCL)のための一般化コントラスト学習を提案する。
GCLは、バイナリ関連スコアを超えて、きめ細かいランキングから学ぶように設計されている。
以上の結果から,GCLはドメイン内NDCG@10が94.5%,コールドスタート評価が26.3~48.8%増加した。
論文 参考訳(メタデータ) (2024-04-12T15:30:03Z) - The Surprising Effectiveness of Rankers Trained on Expanded Queries [4.874071145951159]
我々は,他のクエリのパフォーマンスを損なうことなく,難しいクエリや難しいクエリのランク付け性能を向上させる。
我々は,クエリ毎に推定されるクエリ性能スコアとともに,特殊ランク付け器と基本ランク付け器の関連性スコアを組み合わせる。
DL-Hardデータセットを用いた実験では,クエリ性能に基づくスコアリング手法が,パスランキングタスクにおいて最大25%の大幅な改善を実現していることがわかった。
論文 参考訳(メタデータ) (2024-04-03T09:12:22Z) - Can Query Expansion Improve Generalization of Strong Cross-Encoder Rankers? [72.42500059688396]
本稿では,拡張されたクエリのランク付け結果を融合により高速化し,エンジニアリングの迅速化と集約を行うことにより,強力なニューラルネットワークローカの一般化を向上できることを示す。
BEIR と TREC Deep Learning の実験では,MonoT5 と RankT5 の nDCG@10 スコアがこれらのステップに従って改善された。
論文 参考訳(メタデータ) (2023-11-15T18:11:41Z) - Regularization-Based Methods for Ordinal Quantification [49.606912965922504]
順序の場合、すなわち n>2 クラスの集合上で全順序が定義される場合について研究する。
本稿では,従来のアルゴリズムよりも優れた正規化OQアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-13T16:04:06Z) - Enhanced Training of Query-Based Object Detection via Selective Query
Recollection [35.3219210570517]
本稿では,問合せ型オブジェクト検出器が最終復号段階で誤予測し,中間段階で正確に予測する現象について検討する。
我々は、クエリに基づくオブジェクト検出のためのシンプルで効果的なトレーニング戦略であるSelective Query Recollectionを設計し、提示する。
論文 参考訳(メタデータ) (2022-12-15T02:45:57Z) - ReAct: Temporal Action Detection with Relational Queries [84.76646044604055]
本研究は,アクションクエリを備えたエンコーダ・デコーダフレームワークを用いて,時間的行動検出(TAD)の進展を図ることを目的とする。
まず,デコーダ内の関係注意機構を提案し,その関係に基づいてクエリ間の関心を誘導する。
最後に、高品質なクエリを区別するために、推論時に各アクションクエリのローカライズ品質を予測することを提案する。
論文 参考訳(メタデータ) (2022-07-14T17:46:37Z) - Frequent Itemset-driven Search for Finding Minimum Node Separators in
Complex Networks [61.2383572324176]
本稿では,データマイニングにおける頻繁なアイテムセットマイニングの概念をよく知られたメメティック検索フレームワークに統合する,頻繁なアイテムセット駆動探索手法を提案する。
頻繁なアイテムセット組換え演算子を反復的に使用して、高品質なソリューションで頻繁に発生するアイテムセットに基づいた有望な子孫ソリューションを生成する。
特に、29個の新しい上界を発見し、以前の18個の最もよく知られた境界と一致する。
論文 参考訳(メタデータ) (2022-01-18T11:16:40Z) - Heuristic Search for Rank Aggregation with Application to Label Ranking [16.275063634853584]
本稿では,階層化問題を解くために,効果的なハイブリッド進化的ランキングアルゴリズムを提案する。
このアルゴリズムは、コンコーダントペアに基づくセマンティッククロスオーバーと、効率的な漸進的評価手法によって強化された遅延受容局所探索を特徴とする。
アルゴリズムを評価するために実験が行われ、ベンチマークインスタンス上での高い競争性能を示す。
論文 参考訳(メタデータ) (2022-01-11T11:43:17Z) - RnG-KBQA: Generation Augmented Iterative Ranking for Knowledge Base
Question Answering [57.94658176442027]
KBQAのランク・アンド・ジェネレートアプローチであるRnG-KBQAを提案する。
我々はGrailQA と WebQSP データセット上で,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2021-09-17T17:58:28Z) - Heuristic Rank Selection with Progressively Searching Tensor Ring
Network [25.003013285907524]
リングネットワーク(TRN)はディープネットワークに適用され、圧縮比と精度において顕著な成功を収めている。
本稿では,PSTRN (Progressive Searching Ring Network Search) という遺伝的アルゴリズムを提案する。
提案手法は, MNIST, CIFAR10/100, UCF11, HMDB51などの公開ベンチマークで検証され, 最先端性能を実現している。
論文 参考訳(メタデータ) (2020-09-22T14:44:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。