論文の概要: Choppy: Cut Transformer For Ranked List Truncation
- arxiv url: http://arxiv.org/abs/2004.13012v1
- Date: Sun, 26 Apr 2020 00:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 12:53:24.111732
- Title: Choppy: Cut Transformer For Ranked List Truncation
- Title(参考訳): choppy: ランキング廃止のためのカットトランスフォーマー
- Authors: Dara Bahri, Yi Tay, Che Zheng, Donald Metzler, Andrew Tomkins
- Abstract要約: Choppyは、広く成功したTransformerアーキテクチャに基づいた仮説のないモデルである。
Choppyは最近の最先端の手法で改善されている。
- 参考スコア(独自算出の注目度): 92.58177016973421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Work in information retrieval has traditionally focused on ranking and
relevance: given a query, return some number of results ordered by relevance to
the user. However, the problem of determining how many results to return, i.e.
how to optimally truncate the ranked result list, has received less attention
despite being of critical importance in a range of applications. Such
truncation is a balancing act between the overall relevance, or usefulness of
the results, with the user cost of processing more results. In this work, we
propose Choppy, an assumption-free model based on the widely successful
Transformer architecture, to the ranked list truncation problem. Needing
nothing more than the relevance scores of the results, the model uses a
powerful multi-head attention mechanism to directly optimize any user-defined
IR metric. We show Choppy improves upon recent state-of-the-art methods.
- Abstract(参考訳): 情報検索における作業は、伝統的にランク付けと関連性に重点を置いてきた。
しかしながら、結果が返ってくる回数、すなわちランク付けされた結果リストを最適に切り離す方法を決定する問題は、様々なアプリケーションにおいて重要な重要性があるにもかかわらず、あまり注目されていない。
このような切り離しは、全体の関連性、あるいは結果の有用性と、より多くの結果を処理するためのユーザコストとのバランスをとる行為である。
本稿では,広く成功したTransformerアーキテクチャをベースとした仮定フリーモデルであるChoppyを,ランク付けリストのトランケーション問題に適用する。
結果の関連スコア以上のものを必要としないため、このモデルは強力なマルチヘッドアテンションメカニズムを使用して、ユーザ定義のIRメトリックを直接最適化する。
我々はchoppyが最新の最先端手法を改善していることを示す。
関連論文リスト
- Optimizing Novelty of Top-k Recommendations using Large Language Models and Reinforcement Learning [16.287067991245962]
現実世界のシステムでは、新しいモデルに対する重要な考慮は、トップkレコメンデーションの新規性である。
本稿では,大規模言語モデルが新しい項目に対するフィードバックを提供する強化学習(RL)の定式化を提案する。
大規模検索エンジンにおけるクエリーアドレコメンデーションタスクの新規性向上のための提案アルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2024-06-20T10:20:02Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - Measurement and applications of position bias in a marketplace search
engine [0.0]
検索エンジンはユーザー行動に意図的に影響を与え、検索結果のリストを選別してランク付けする。
本稿では、ランキングの影響を理解するため、Thumbtackでの取り組みについて述べる。
ランキングバイアスがラベルだけでなく,モデル機能にどのように影響するか,という新たな議論も含んでいます。
論文 参考訳(メタデータ) (2022-06-23T14:09:58Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Learning to Select Cuts for Efficient Mixed-Integer Programming [46.60355046375608]
複数インスタンス学習の設定において,データ駆動型で一般化可能なカット選択手法であるカットランキングを提案する。
カットランキングは、大規模MIPのための産業用解決器に展開されている。
解法の平均スピードアップ比は12.42%に達し、解の精度を損なうことなく製造された。
論文 参考訳(メタデータ) (2021-05-28T07:48:34Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - Surprise: Result List Truncation via Extreme Value Theory [92.5817701697342]
そこで本研究では,問合せ時における可逆的・校正的関連度スコアを,ランク付けされたスコアに留まらず,統計的に生成する手法を提案する。
本稿では、画像、テキスト、IRデータセット間での結果リストのトランケーションタスクにおいて、その効果を実証する。
論文 参考訳(メタデータ) (2020-10-19T19:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。