論文の概要: On the Minimax Regret in Online Ranking with Top-k Feedback
- arxiv url: http://arxiv.org/abs/2309.02425v1
- Date: Tue, 5 Sep 2023 17:53:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 13:33:30.837486
- Title: On the Minimax Regret in Online Ranking with Top-k Feedback
- Title(参考訳): トップkフィードバックによるオンラインランキングにおけるMinimaxレグレクトについて
- Authors: Mingyuan Zhang, Ambuj Tewari
- Abstract要約: オンラインランキングでは、学習アルゴリズムが一連のアイテムを順次ランク付けし、関連するスコアの形式でランキングに対するフィードバックを受け取る。
Pairwise Loss, Discounted Cumulative Gain, Precision@n という,すべての$k$に対する最上位の$k$のフィードバックモデルで,ミニマックスの後悔率をフルに評価する。
- 参考スコア(独自算出の注目度): 35.59358147196253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In online ranking, a learning algorithm sequentially ranks a set of items and
receives feedback on its ranking in the form of relevance scores. Since
obtaining relevance scores typically involves human annotation, it is of great
interest to consider a partial feedback setting where feedback is restricted to
the top-$k$ items in the rankings. Chaudhuri and Tewari [2017] developed a
framework to analyze online ranking algorithms with top $k$ feedback. A key
element in their work was the use of techniques from partial monitoring. In
this paper, we further investigate online ranking with top $k$ feedback and
solve some open problems posed by Chaudhuri and Tewari [2017]. We provide a
full characterization of minimax regret rates with the top $k$ feedback model
for all $k$ and for the following ranking performance measures: Pairwise Loss,
Discounted Cumulative Gain, and Precision@n. In addition, we give an efficient
algorithm that achieves the minimax regret rate for Precision@n.
- Abstract(参考訳): オンラインランキングでは、学習アルゴリズムが一連のアイテムを順次ランク付けし、関連するスコアの形式でランキングに対するフィードバックを受け取る。
関連スコアを得るには、一般的に人間のアノテーションが関係するので、フィードバックがランキングの上位kドルアイテムに制限される部分的なフィードバック設定を考えることが非常に興味深い。
chaudhuri氏とtewari氏[2017]は、最高$k$のフィードバックでオンラインランキングアルゴリズムを分析するフレームワークを開発した。
彼らの仕事における重要な要素は、部分的監視からのテクニックの使用だった。
本稿では,オンラインランキングをk$フィードバックのトップで調査し,chaudhuri と tewari [2017] が提起したオープンな問題を解決する。
Pairwise Loss, Discounted Cumulative Gain, Precision@n という,すべての$k$に対する最上位の$k$のフィードバックモデルで,ミニマックスの後悔率をフルに評価する。
さらに、precision@nでminimaxの後悔率を達成する効率的なアルゴリズムを与える。
関連論文リスト
- Found in the Middle: Permutation Self-Consistency Improves Listwise Ranking in Large Language Models [63.714662435555674]
大規模言語モデル(LLM)は、文脈の使い方に位置バイアスを示す。
我々は,ブラックボックスLLMのランキングリスト出力に対して,自己整合性(permutation self-consistency)を提案する。
LLaMA v2 (70B) では GPT-3.5 では 7-18% , LLaMA v2 (70B) では 8-16% である。
論文 参考訳(メタデータ) (2023-10-11T17:59:02Z) - Partitioned Saliency Ranking with Dense Pyramid Transformers [4.449304130658638]
サリエンシランキングは、インスタンスレベルのサリエンシの度合いを評価することに焦点を当てた、挑戦的なタスクとして登場した。
従来のアプローチでは、固有の曖昧さを明示的に解決していない有能なインスタンスのランクスコアを直接ソートすることで、サリエンシのランク付けを行っている。
本稿では,非順序の有意なインスタンスをパーティションに分割し,それらのパーティション間の相関に基づいてランク付けするパーティション・バイ・パーティション・パラダイムを提案する。
論文 参考訳(メタデータ) (2023-08-01T02:33:10Z) - RankT5: Fine-Tuning T5 for Text Ranking with Ranking Losses [39.67403439576671]
本稿では,2つのT5ベースのランキングモデル構造,エンコーダデコーダとエンコーダのみのランキングモデルを提案する。
実験の結果,提案したランキング損失モデルでは,異なる公開テキストランキングデータセットに対して,実質的なランキング性能向上が達成できることがわかった。
論文 参考訳(メタデータ) (2022-10-12T20:51:49Z) - Integrating Rankings into Quantized Scores in Peer Review [61.27794774537103]
ピアレビューでは、レビュアーは通常、論文のスコアを提供するように求められます。
この問題を軽減するため、カンファレンスはレビュアーにレビューした論文のランキングを付加するように求め始めている。
このランキング情報を使用するための標準的な手順はなく、エリアチェアは異なる方法でそれを使用することができる。
我々は、ランキング情報をスコアに組み込むために、原則化されたアプローチを取る。
論文 参考訳(メタデータ) (2022-04-05T19:39:13Z) - Which Tricks Are Important for Learning to Rank? [32.38701971636441]
勾配型決定木(GBDT)に基づく最先端の学習 to ランク法
本稿では,複数のGBDTに基づくランキングアルゴリズムを統一的に解析する。
その結果、学習からランクまでの手法の洞察を得て、新しい最先端のアルゴリズムを得ることができた。
論文 参考訳(メタデータ) (2022-04-04T13:59:04Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - HRank: Filter Pruning using High-Rank Feature Map [149.86903824840752]
我々は高階特徴写像(HRank)を探索する新しいフィルタ刈り法を提案する。
私たちのHRankは、単一のフィルタで生成された複数の特徴マップの平均ランクが常に同じであるという発見にインスピレーションを受けています。
HRankに基づいて,低ランク特徴写像を持つプーンフィルタに数学的に定式化する手法を開発した。
論文 参考訳(メタデータ) (2020-02-24T11:50:09Z) - SetRank: A Setwise Bayesian Approach for Collaborative Ranking from
Implicit Feedback [50.13745601531148]
提案手法は,提案システムにおける暗黙的フィードバックの特性に対応するために,協調的ランキング(SeetRank)のためのセッティングワイドベイズ的手法を提案する。
具体的には、SetRankは、新しい設定された選好比較の後方確率を最大化することを目的としている。
また、SetRankの理論解析により、余剰リスクの境界が$sqrtM/N$に比例できることを示す。
論文 参考訳(メタデータ) (2020-02-23T06:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。