論文の概要: Adaptive Neural Ranking Framework: Toward Maximized Business Goal for
Cascade Ranking Systems
- arxiv url: http://arxiv.org/abs/2310.10462v2
- Date: Wed, 21 Feb 2024 14:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 20:03:15.474773
- Title: Adaptive Neural Ranking Framework: Toward Maximized Business Goal for
Cascade Ranking Systems
- Title(参考訳): adaptive neural ranking framework: カスケードランキングシステムにおけるビジネス目標の最大化に向けて
- Authors: Yunli Wang, Zhiqiang Wang, Jian Yang, Shiyang Wen, Dongying Kong, Han
Li, Kun Gai
- Abstract要約: カスケードランキングは、オンライン広告とレコメンデーションシステムにおける大規模なトップk選択問題に広く使われている。
それまでの学習からランクへの取り組みは、モデルに完全な順序やトップクオーダを学習させることに重点を置いていた。
我々はこの手法をアダプティブ・ニューラルランキング・フレームワーク (Adaptive Neural Ranking Framework, ARF) と命名する。
- 参考スコア(独自算出の注目度): 33.46891569350896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cascade ranking is widely used for large-scale top-k selection problems in
online advertising and recommendation systems, and learning-to-rank is an
important way to optimize the models in cascade ranking. Previous works on
learning-to-rank usually focus on letting the model learn the complete order or
top-k order, and adopt the corresponding rank metrics (e.g. OPA and NDCG@k) as
optimization targets. However, these targets can not adapt to various cascade
ranking scenarios with varying data complexities and model capabilities; and
the existing metric-driven methods such as the Lambda framework can only
optimize a rough upper bound of limited metrics, potentially resulting in
sub-optimal and performance misalignment. To address these issues, we propose a
novel perspective on optimizing cascade ranking systems by highlighting the
adaptability of optimization targets to data complexities and model
capabilities. Concretely, we employ multi-task learning to adaptively combine
the optimization of relaxed and full targets, which refers to metrics
Recall@m@k and OPA respectively. We also introduce permutation matrix to
represent the rank metrics and employ differentiable sorting techniques to
relax hard permutation matrix with controllable approximate error bound. This
enables us to optimize both the relaxed and full targets directly and more
appropriately. We named this method as Adaptive Neural Ranking Framework
(abbreviated as ARF). Furthermore, we give a specific practice under ARF. We
use the NeuralSort to obtain the relaxed permutation matrix and draw on the
variant of the uncertainty weight method in multi-task learning to optimize the
proposed losses jointly. Experiments on a total of 4 public and industrial
benchmarks show the effectiveness and generalization of our method, and online
experiment shows that our method has significant application value.
- Abstract(参考訳): カスケードランキングは、オンライン広告やレコメンデーションシステムにおける大規模なトップk選択問題に広く使われており、カスケードランキングのモデルを最適化する重要な方法である。
従来は学習ランクに関する作業は、モデルに完全な順序やトップk順序を学習させ、最適化対象として対応するランクメトリクス(OPAやNDCG@kなど)を採用することに集中していた。
しかし、これらのターゲットは様々なデータ複雑さとモデル能力を持つ様々なカスケードランキングシナリオに適応できない。また、lambdaフレームワークのような既存のメトリック駆動のメソッドは、限られたメトリクスの粗い上限のみを最適化することができ、潜在的に最適化とパフォーマンスのミスアライメントをもたらす可能性がある。
そこで本研究では,データ複雑度やモデル能力に対する最適化対象の適応性に着目し,カスケードランキングシステムの最適化に関する新しい視点を提案する。
具体的には、緩和されたターゲットとフルターゲットの最適化を適応的に組み合わせるためにマルチタスク学習を使用し、それぞれRecall@m@kとOPAのメトリクスを参照する。
また,ランクメトリクスを表現するために置換行列を導入し,制御可能な近似誤差境界を持つハード置換行列を緩和するために微分可能なソート技術を用いる。
これにより、緩和されたターゲットと完全なターゲットの両方を直接、より適切に最適化できます。
我々はこの手法を適応的ニューラルネットワークランキングフレームワーク(ARF)と命名した。
さらに,ARFの下で特定の実践を行う。
我々はNeuralSortを用いて、緩和された置換行列を取得し、マルチタスク学習における不確実性重み付け法の変種を利用して、提案した損失を共同で最適化する。
4つの公開および産業ベンチマーク実験により,本手法の有効性と一般化が示され,オンライン実験により,本手法の応用価値が著しく高いことが示された。
関連論文リスト
- End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Stochastic Optimal Control Matching [56.325232632863276]
最適制御マッチング(SOCM)は、最適制御のための新しい反復拡散最適化(IDO)技術である。
本アルゴリズムは4つの制御問題のうち3つに対して最適制御を行うために既存のすべてのIDO手法よりも低い誤差を実現する。
論文 参考訳(メタデータ) (2023-12-04T16:49:43Z) - Contextual Stochastic Bilevel Optimization [50.36775806399861]
文脈情報と上層変数の期待を最小化する2レベル最適化フレームワークCSBOを導入する。
メタラーニング、パーソナライズドラーニング、エンド・ツー・エンドラーニング、Wassersteinはサイド情報(WDRO-SI)を分散的に最適化している。
論文 参考訳(メタデータ) (2023-10-27T23:24:37Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Agent-based Collaborative Random Search for Hyper-parameter Tuning and
Global Function Optimization [0.0]
本稿では,機械学習モデルにおける任意のハイパーパラメータの任意の集合に対する近似値を求めるためのエージェントベース協調手法を提案する。
提案モデルの動作,特に設計パラメータの変化に対して,機械学習およびグローバル関数最適化アプリケーションの両方で検討する。
論文 参考訳(メタデータ) (2023-03-03T21:10:17Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Amortized Proximal Optimization [11.441395750267052]
Amortized Proximal Optimization (APO) は最適化を管理するパラメータのオンラインメタ最適化のためのフレームワークである。
APOが学習率や事前条件行列の構造化にどのように使えるかを示す。
学習率のオンライン適応と、回帰、画像再構成、画像分類、自然言語翻訳タスクのための構造化プレコンディショニングを実証的にテストした。
論文 参考訳(メタデータ) (2022-02-28T20:50:48Z) - Learning-To-Ensemble by Contextual Rank Aggregation in E-Commerce [8.067201256886733]
本稿では,アンサンブルモデルを文脈的ランクアグリゲータに置き換えた新しいラーニング・トゥ・エンサンブル・フレームワークRAEGOを提案する。
RA-EGOは当社のオンラインシステムにデプロイされ、収益を大幅に改善しました。
論文 参考訳(メタデータ) (2021-07-19T03:24:06Z) - Meta Learning Black-Box Population-Based Optimizers [0.0]
人口ベースのブラックボックス一般化を推論するメタラーニングの利用を提案する。
メタロス関数は,学習アルゴリズムが検索動作を変更することを促進し,新たなコンテキストに容易に適合できることを示す。
論文 参考訳(メタデータ) (2021-03-05T08:13:25Z) - Stochastic batch size for adaptive regularization in deep network
optimization [63.68104397173262]
ディープラーニングフレームワークにおける機械学習問題に適用可能な適応正規化を取り入れた一階最適化アルゴリズムを提案する。
一般的なベンチマークデータセットに適用した従来のネットワークモデルに基づく画像分類タスクを用いて,提案アルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-14T07:54:53Z) - StochasticRank: Global Optimization of Scale-Free Discrete Functions [28.224889996383396]
本稿では,ランキングメトリクスを直接最適化する強力な,効率的なフレームワークを提案する。
古典的平滑化アプローチは偏見を導入し, 適切な偏見の普遍解を示す。
我々のフレームワークは任意のスケールフリー離散損失関数に適用できる。
論文 参考訳(メタデータ) (2020-03-04T15:27:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。