論文の概要: A Self-boosted Framework for Calibrated Ranking
- arxiv url: http://arxiv.org/abs/2406.08010v1
- Date: Wed, 12 Jun 2024 09:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 17:45:58.576229
- Title: A Self-boosted Framework for Calibrated Ranking
- Title(参考訳): キャリブレーションランキングのための自己投票型フレームワーク
- Authors: Shunyu Zhang, Hu Liu, Wentian Bao, Enyun Yu, Yang Song,
- Abstract要約: キャリブレーションランキング(Calibrated Ranking)は、正確なランキング品質とキャリブレーションされた確率予測を同時に追求するスケールキャリブレーションランキングシステムである。
それまでの方法は、ランキングの損失を計算するために、単一のミニバッチ内に完全な候補リストを集約する必要があった。
校正ランク付けのための自己ブーストフレームワーク(SBCR)を提案する。
- 参考スコア(独自算出の注目度): 7.4291851609176645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scale-calibrated ranking systems are ubiquitous in real-world applications nowadays, which pursue accurate ranking quality and calibrated probabilistic predictions simultaneously. For instance, in the advertising ranking system, the predicted click-through rate (CTR) is utilized for ranking and required to be calibrated for the downstream cost-per-click ads bidding. Recently, multi-objective based methods have been wildly adopted as a standard approach for Calibrated Ranking, which incorporates the combination of two loss functions: a pointwise loss that focuses on calibrated absolute values and a ranking loss that emphasizes relative orderings. However, when applied to industrial online applications, existing multi-objective CR approaches still suffer from two crucial limitations. First, previous methods need to aggregate the full candidate list within a single mini-batch to compute the ranking loss. Such aggregation strategy violates extensive data shuffling which has long been proven beneficial for preventing overfitting, and thus degrades the training effectiveness. Second, existing multi-objective methods apply the two inherently conflicting loss functions on a single probabilistic prediction, which results in a sub-optimal trade-off between calibration and ranking. To tackle the two limitations, we propose a Self-Boosted framework for Calibrated Ranking (SBCR).
- Abstract(参考訳): スケールキャリブレーションされたランキングシステムは、現在、現実世界のアプリケーションに広く普及しており、正確なランキング品質とキャリブレーションされた確率予測を同時に追求している。
例えば、広告ランキングシステムでは、予測クリックスルーレート(CTR)をランク付けに利用し、クリック当たりのダウンストリーム広告入札に校正する必要がある。
近年,検定絶対値に焦点をあてたポイントワイド・ロスと,相対順序を強調するランキング・ロスという,2つの損失関数の組み合わせを取り入れた校正ランキングの標準手法として,多目的手法が広く採用されている。
しかし、産業用オンラインアプリケーションに適用する場合、既存の多目的CRアプローチには2つの重大な制限がある。
まず、以前の手法では、ランキングの損失を計算するために、単一のミニバッチ内に完全な候補リストを集約する必要がある。
このようなアグリゲーション戦略は、長年、過度な適合を防ぐために有用であることが証明されてきた広範なデータシャッフルに反し、トレーニングの有効性を低下させる。
第二に、既存の多目的法は2つの本質的に矛盾する損失関数を1つの確率論的予測に適用し、キャリブレーションとランク付けの間の準最適トレードオフをもたらす。
この2つの制約に対処するため,キャリブレートランキング(SBCR)のためのセルフブーストフレームワークを提案する。
関連論文リスト
- Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Adaptive Neural Ranking Framework: Toward Maximized Business Goal for
Cascade Ranking Systems [33.46891569350896]
カスケードランキングは、オンライン広告とレコメンデーションシステムにおける大規模なトップk選択問題に広く使われている。
それまでの学習からランクへの取り組みは、モデルに完全な順序やトップクオーダを学習させることに重点を置いていた。
我々はこの手法をアダプティブ・ニューラルランキング・フレームワーク (Adaptive Neural Ranking Framework, ARF) と命名する。
論文 参考訳(メタデータ) (2023-10-16T14:43:02Z) - Optimizing Partial Area Under the Top-k Curve: Theory and Practice [151.5072746015253]
トップk曲線下部分領域(AUTKC)と呼ばれる新しい計量法を開発した。
AUTKCはより優れた識別能力を持ち、ベイズ最適スコア関数は条件付き確率に対して正しいトップKランクを与えることができる。
提案手法を最適化するために,実証的なサロゲートリスク最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-03T11:09:13Z) - Joint Optimization of Ranking and Calibration with Contextualized Hybrid
Model [24.66016187602343]
本稿では,短時間でランキング・アンド・アビリティ(JRC)を最適化する手法を提案する。
JRCは、サンプルのロジット値を異なるラベルで対比することでランキング能力を向上し、ロジットサブトラクションの関数である予測確率を制約する。
JRCはAlibabaのディスプレイ広告プラットフォームにデプロイされており、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2022-08-12T08:32:13Z) - Certified Error Control of Candidate Set Pruning for Two-Stage Relevance
Ranking [57.42241521034744]
本稿では、妥当性ランキングのための候補セットプルーニングの認証エラー制御の概念を提案する。
提案手法は,第1段階から抽出した候補集合を抽出し,第2段階の復位速度を向上する。
論文 参考訳(メタデータ) (2022-05-19T16:00:13Z) - Unbiased Pairwise Learning to Rank in Recommender Systems [4.058828240864671]
アルゴリズムをランク付けする偏見のない学習は、候補をアピールし、既に単一の分類ラベルを持つ多くのアプリケーションに適用されている。
本稿では,この課題に対処するための新しい非バイアス付きLTRアルゴリズムを提案する。
パブリックベンチマークデータセットと内部ライブトラフィックを用いた実験結果から,分類ラベルと連続ラベルのいずれにおいても提案手法の優れた結果が得られた。
論文 参考訳(メタデータ) (2021-11-25T06:04:59Z) - A Pre-processing Method for Fairness in Ranking [0.0]
本稿では,データの順序を相互に評価する公平なランキングフレームワークを提案する。
提案手法は,実世界のデータセットに対する精度と公平性のトレードオフにおいて,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-29T02:55:32Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z) - Multi-Class Uncertainty Calibration via Mutual Information
Maximization-based Binning [8.780958735684958]
ポストホック多クラスキャリブレーションは、ディープニューラルネットワーク予測の信頼度推定を提供する一般的なアプローチである。
近年の研究では、広く使われているスケーリング手法がキャリブレーション誤差を過小評価していることが示されている。
類似クラス間で1つのキャリブレータを共有する共有クラスワイド(sCW)キャリブレーション戦略を提案する。
論文 参考訳(メタデータ) (2020-06-23T15:31:59Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。