論文の概要: Learning-To-Ensemble by Contextual Rank Aggregation in E-Commerce
- arxiv url: http://arxiv.org/abs/2107.08598v1
- Date: Mon, 19 Jul 2021 03:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 15:16:05.113251
- Title: Learning-To-Ensemble by Contextual Rank Aggregation in E-Commerce
- Title(参考訳): Eコマースにおける文脈的ランクアグリゲーションによる学習とアンサンブル
- Authors: Xuesi Wang, Guangda Huzhang, Qianying Lin, Qing Da, Dan Shen
- Abstract要約: 本稿では,アンサンブルモデルを文脈的ランクアグリゲータに置き換えた新しいラーニング・トゥ・エンサンブル・フレームワークRAEGOを提案する。
RA-EGOは当社のオンラインシステムにデプロイされ、収益を大幅に改善しました。
- 参考スコア(独自算出の注目度): 8.067201256886733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble models in E-commerce combine predictions from multiple sub-models
for ranking and revenue improvement. Industrial ensemble models are typically
deep neural networks, following the supervised learning paradigm to infer
conversion rate given inputs from sub-models. However, this process has the
following two problems. Firstly, the point-wise scoring approach disregards the
relationships between items and leads to homogeneous displayed results, while
diversified display benefits user experience and revenue. Secondly, the
learning paradigm focuses on the ranking metrics and does not directly optimize
the revenue. In our work, we propose a new Learning-To-Ensemble (LTE) framework
RAEGO, which replaces the ensemble model with a contextual Rank Aggregator (RA)
and explores the best weights of sub-models by the Evaluator-Generator
Optimization (EGO). To achieve the best online performance, we propose a new
rank aggregation algorithm TournamentGreedy as a refinement of classic rank
aggregators, which also produces the best average weighted Kendall Tau Distance
(KTD) amongst all the considered algorithms with quadratic time complexity.
Under the assumption that the best output list should be Pareto Optimal on the
KTD metric for sub-models, we show that our RA algorithm has higher efficiency
and coverage in exploring the optimal weights. Combined with the idea of
Bayesian Optimization and gradient descent, we solve the online contextual
Black-Box Optimization task that finds the optimal weights for sub-models given
a chosen RA model. RA-EGO has been deployed in our online system and has
improved the revenue significantly.
- Abstract(参考訳): Eコマースにおけるアンサンブルモデルは、ランキングと収益改善のための複数のサブモデルの予測を組み合わせる。
産業アンサンブルモデルは一般的にディープニューラルネットワークであり、サブモデルから入力された変換率を推測する教師付き学習パラダイムに従っている。
しかし、このプロセスには以下の2つの問題がある。
まず、ポイントワイズスコアリングアプローチは、アイテム間の関係を無視し、均質な表示結果をもたらすが、多様化したディスプレイは、ユーザエクスペリエンスと収益の恩恵を受ける。
第二に、学習パラダイムはランキングメトリクスに焦点を当て、収益を直接最適化しない。
本研究では,文脈的ランクアグリゲータ (RA) でアンサンブルモデルを置き換え,評価器・ジェネレータ最適化 (EGO) によるサブモデルの最適な重み付けを探索する新しいラーニング・トゥ・アンサンブル(LTE)フレームワーク RAEGO を提案する。
従来のランクアグリゲータを改良した新しいランクアグリゲーションアルゴリズムを考案し,2次時間複雑性を持つすべてのアルゴリズムの中で最良平均重み付きkendall tau distance (ktd) を生成する。
最良出力リストはサブモデルのktdメトリック上でパレート最適であるという仮定の下で、我々のraアルゴリズムは最適重みの探索において高い効率と範囲を持つことを示した。
ベイズ最適化と勾配降下のアイデアと組み合わせて、選択されたRAモデルに対して最適な重みを求めるオンライン文脈ブラックボックス最適化タスクを解く。
RA-EGOは当社のオンラインシステムにデプロイされ、収益を大幅に改善しました。
関連論文リスト
- LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - Self-supervised Preference Optimization: Enhance Your Language Model with Preference Degree Awareness [27.43137305486112]
本稿では,自己監督的選好度損失とアライメント損失を組み合わせた自己監督的選好度損失を構成する,新しい自己監督的選好最適化(SPO)フレームワークを提案する。
その結果,SPOを既存の好み最適化手法とシームレスに統合し,最先端性能を実現することができた。
論文 参考訳(メタデータ) (2024-09-26T12:37:26Z) - Preference Learning Algorithms Do Not Learn Preference Rankings [62.335733662381884]
選好学習は、好ましくない出力よりも、好ましくない出力により高い確率を割り当てるようにモデルを訓練する、という従来の知恵を考察する。
多くの最先端の選好調整モデルでは、一般的な選好データセットでは60%未満のランキング精度が得られている。
論文 参考訳(メタデータ) (2024-05-29T21:29:44Z) - Optimizing E-commerce Search: Toward a Generalizable and Rank-Consistent Pre-Ranking Model [13.573766789458118]
大規模なeコマースプラットフォームでは、ダウンストリームランキングモジュールのために、前もって製品の大部分をフィルタリングするために、プレグレードフェーズが不可欠である。
1) 製品がトップk内にあるかどうかを予測する複数のバイナリ分類タスクを導入し、共通のポイントワイドランキングモデルでの学習目標の追加を容易にする。2) 製品埋め込みのサブセットを事前トレーニングすることで、すべての製品に対するコントラスト学習による一般化性。
論文 参考訳(メタデータ) (2024-05-09T07:55:52Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Adaptive Neural Ranking Framework: Toward Maximized Business Goal for
Cascade Ranking Systems [33.46891569350896]
カスケードランキングは、オンライン広告とレコメンデーションシステムにおける大規模なトップk選択問題に広く使われている。
それまでの学習からランクへの取り組みは、モデルに完全な順序やトップクオーダを学習させることに重点を置いていた。
我々はこの手法をアダプティブ・ニューラルランキング・フレームワーク (Adaptive Neural Ranking Framework, ARF) と命名する。
論文 参考訳(メタデータ) (2023-10-16T14:43:02Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Adaptive Optimizers with Sparse Group Lasso for Neural Networks in CTR
Prediction [19.71671771503269]
深層学習における適応の族にスパース群ラッソの正規化子を追加する新しいフレームワークを開発する。
理論的に凸な設定では,収束保証が確立される。
提案手法は, 極めて優れた性能, 高い競争性能を達成できる。
論文 参考訳(メタデータ) (2021-07-30T05:33:43Z) - CRACT: Cascaded Regression-Align-Classification for Robust Visual
Tracking [97.84109669027225]
改良された提案改良モジュールCascaded Regression-Align- Classification (CRAC)を導入する。
CRACは多くのベンチマークで最先端のパフォーマンスを得る。
OTB-2015、UAV123、NfS、VOT-2018、TrackingNet、GOT-10k、LaSOTを含む7つのベンチマークの実験において、我々のCRACTは最先端の競合他社と比較して非常に有望な結果を示している。
論文 参考訳(メタデータ) (2020-11-25T02:18:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。