論文の概要: Choppy: Cut Transformer For Ranked List Truncation
- arxiv url: http://arxiv.org/abs/2004.13012v1
- Date: Sun, 26 Apr 2020 00:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 12:53:24.111732
- Title: Choppy: Cut Transformer For Ranked List Truncation
- Title(参考訳): choppy: ランキング廃止のためのカットトランスフォーマー
- Authors: Dara Bahri, Yi Tay, Che Zheng, Donald Metzler, Andrew Tomkins
- Abstract要約: Choppyは、広く成功したTransformerアーキテクチャに基づいた仮説のないモデルである。
Choppyは最近の最先端の手法で改善されている。
- 参考スコア(独自算出の注目度): 92.58177016973421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Work in information retrieval has traditionally focused on ranking and
relevance: given a query, return some number of results ordered by relevance to
the user. However, the problem of determining how many results to return, i.e.
how to optimally truncate the ranked result list, has received less attention
despite being of critical importance in a range of applications. Such
truncation is a balancing act between the overall relevance, or usefulness of
the results, with the user cost of processing more results. In this work, we
propose Choppy, an assumption-free model based on the widely successful
Transformer architecture, to the ranked list truncation problem. Needing
nothing more than the relevance scores of the results, the model uses a
powerful multi-head attention mechanism to directly optimize any user-defined
IR metric. We show Choppy improves upon recent state-of-the-art methods.
- Abstract(参考訳): 情報検索における作業は、伝統的にランク付けと関連性に重点を置いてきた。
しかしながら、結果が返ってくる回数、すなわちランク付けされた結果リストを最適に切り離す方法を決定する問題は、様々なアプリケーションにおいて重要な重要性があるにもかかわらず、あまり注目されていない。
このような切り離しは、全体の関連性、あるいは結果の有用性と、より多くの結果を処理するためのユーザコストとのバランスをとる行為である。
本稿では,広く成功したTransformerアーキテクチャをベースとした仮定フリーモデルであるChoppyを,ランク付けリストのトランケーション問題に適用する。
結果の関連スコア以上のものを必要としないため、このモデルは強力なマルチヘッドアテンションメカニズムを使用して、ユーザ定義のIRメトリックを直接最適化する。
我々はchoppyが最新の最先端手法を改善していることを示す。
関連論文リスト
- Relevance Filtering for Embedding-based Retrieval [46.851594313019895]
埋め込み型検索では、ANN(Approximate Nearest Neighbor)検索により、大規模データセットから類似したアイテムを効率的に検索することができる。
本稿では,この課題に対処するために,埋め込み型検索のための新しい関連フィルタリングコンポーネント("Cosine Adapter" と呼ぶ)を提案する。
少ないリコールの損失を犠牲にして、回収したセットの精度を大幅に向上することが可能です。
論文 参考訳(メタデータ) (2024-08-09T06:21:20Z) - Optimizing Novelty of Top-k Recommendations using Large Language Models and Reinforcement Learning [16.287067991245962]
現実世界のシステムでは、新しいモデルに対する重要な考慮は、トップkレコメンデーションの新規性である。
本稿では,大規模言語モデルが新しい項目に対するフィードバックを提供する強化学習(RL)の定式化を提案する。
大規模検索エンジンにおけるクエリーアドレコメンデーションタスクの新規性向上のための提案アルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2024-06-20T10:20:02Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z) - Measurement and applications of position bias in a marketplace search
engine [0.0]
検索エンジンはユーザー行動に意図的に影響を与え、検索結果のリストを選別してランク付けする。
本稿では、ランキングの影響を理解するため、Thumbtackでの取り組みについて述べる。
ランキングバイアスがラベルだけでなく,モデル機能にどのように影響するか,という新たな議論も含んでいます。
論文 参考訳(メタデータ) (2022-06-23T14:09:58Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Surprise: Result List Truncation via Extreme Value Theory [92.5817701697342]
そこで本研究では,問合せ時における可逆的・校正的関連度スコアを,ランク付けされたスコアに留まらず,統計的に生成する手法を提案する。
本稿では、画像、テキスト、IRデータセット間での結果リストのトランケーションタスクにおいて、その効果を実証する。
論文 参考訳(メタデータ) (2020-10-19T19:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。