論文の概要: DUET: Dual Model Co-Training for Entire Space CTR Prediction
- arxiv url: http://arxiv.org/abs/2510.24369v1
- Date: Tue, 28 Oct 2025 12:46:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.117484
- Title: DUET: Dual Model Co-Training for Entire Space CTR Prediction
- Title(参考訳): DUET:宇宙CTR予測のためのデュアルモデル共同訓練
- Authors: Yutian Xiao, Meng Yuan, Fuzhen Zhuang, Wei Chen, Shukuan Wang, Shanqi Liu, Chao Feng, Wenhui Yu, Xiang Li, Lantao Hu, Han Li, Zhao Zhang,
- Abstract要約: textbfDUET (textbfdual Model Co-Training for textbfdual Model Co-Training for textbfEntire Space CtextbfTR Prediction) は、厳密な計算予算下で表現的モデリングを実現するための、設定可能な事前のフレームワークである。
最先端のベースラインを一貫して上回り、複数のコアビジネスメトリクスにまたがる改善を実現します。
- 参考スコア(独自算出の注目度): 34.35929309131385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pre-ranking stage plays a pivotal role in large-scale recommender systems but faces an intrinsic trade-off between model expressiveness and computational efficiency. Owing to the massive candidate pool and strict latency constraints, industry systems often rely on lightweight two-tower architectures, which are computationally efficient yet limited in estimation capability. As a result, they struggle to capture the complex synergistic and suppressive relationships among candidate items, which are essential for producing contextually coherent and diverse recommendation lists. Moreover, this simplicity further amplifies the Sample Selection Bias (SSB) problem, as coarse-grained models trained on biased exposure data must generalize to a much larger candidate space with distinct distributions. To address these issues, we propose \textbf{DUET} (\textbf{DU}al Model Co-Training for \textbf{E}ntire Space C\textbf{T}R Prediction), a set-wise pre-ranking framework that achieves expressive modeling under tight computational budgets. Instead of scoring items independently, DUET performs set-level prediction over the entire candidate subset in a single forward pass, enabling information-aware interactions among candidates while amortizing the computational cost across the set. Moreover, a dual model co-training mechanism extends supervision to unexposed items via mutual pseudo-label refinement, effectively mitigating SSB. Validated through extensive offline experiments and online A/B testing, DUET consistently outperforms state-of-the-art baselines and achieves improvements across multiple core business metrics. At present, DUET has been fully deployed in Kuaishou and Kuaishou Lite Apps, serving the main traffic for hundreds of millions of users.
- Abstract(参考訳): 大規模レコメンデーションシステムにおいて、プレグレードステージは重要な役割を果たすが、モデル表現性と計算効率の本質的なトレードオフに直面している。
膨大な候補プールと厳密なレイテンシ制約のため、産業システムは計算効率が良いが推定能力に制限がある軽量な2towerアーキテクチャにしばしば依存する。
その結果、コンテクスト的に一貫性があり多様なレコメンデーションリストを作成するのに欠かせない、候補項目間の複雑な相乗的・抑圧的な関係をつかむのに苦労した。
さらに、この単純さはサンプル選択バイアス(SSB)問題をさらに増幅し、偏りのある露光データに基づいて訓練された粗い粒度のモデルは、異なる分布を持つより大きな候補空間に一般化する必要がある。
これらの問題に対処するために, 厳密な計算予算下で表現的モデリングを実現する, 定位事前のフレームワークである \textbf{DUET} (\textbf{DU}al Model Co-Training for \textbf{E}ntire Space C\textbf{T}R Prediction) を提案する。
DUETは、アイテムを独立してスコアする代わりに、単一の前方通過で候補サブセット全体に対してセットレベルの予測を行い、セット全体の計算コストを償却しながら、候補間の情報認識インタラクションを可能にする。
さらに、二重モデル協調学習機構は、相互に擬似ラベルを改良し、SSBを効果的に緩和することで、未公開項目への監督を延長する。
大規模なオフライン実験とオンラインA/Bテストを通じて検証されたDUETは、最先端のベースラインを一貫して上回り、複数のコアビジネスメトリクスにまたがる改善を実現している。
現在、DUETはKuaishouとKuaishou Lite Appsに完全にデプロイされており、数億人のユーザーにとって主要なトラフィックを提供している。
関連論文リスト
- Auto-Rubric: Learning to Extract Generalizable Criteria for Reward Modeling [37.237020102873]
リワードモデルは、大規模言語モデルと人間の価値の整合に不可欠であるが、その開発はコストのかかる選好データセットと低い解釈可能性によって妨げられている。
検証誘導型 textbfPropose-Evaluate-Revise パイプラインを用いて,高品質でクエリ固有のルーリックを推論する,トレーニング不要のフレームワークを構築した。
わずか70の選好ペア(ソースデータの1.5%)を使用することで、Qwen3-8Bのようなより小型のモデルでも、専門的で完全に訓練されたモデルよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-10-20T09:01:37Z) - Generative Bid Shading in Real-Time Bidding Advertising [7.7746704524695485]
本稿では,生成バイドシェーディング(GBS)をエンドツーエンド生成モデルとして紹介する。
これは、段階的に残差報酬モデルを取得することで比率を生成する自己回帰的アプローチを取り入れている。
Meitプラットフォーム上で毎日何十億もの入札リクエストを処理している。
論文 参考訳(メタデータ) (2025-08-06T03:34:49Z) - SPARE: Single-Pass Annotation with Reference-Guided Evaluation for Automatic Process Supervision and Reward Modelling [58.05959902776133]
私たちはSingle-Passを紹介します。
Reference-Guided Evaluation (SPARE)は、効率的なステップごとのアノテーションを可能にする新しい構造化フレームワークである。
数学的推論(GSM8K, MATH)、マルチホップ質問応答(MuSiQue-Ans)、空間推論(SpaRP)にまたがる4つの多様なデータセットにおけるSPAREの有効性を実証する。
ProcessBenchでは、SPAREがデータ効率のよいアウト・オブ・ディストリビューションの一般化を実証し、トレーニングサンプルの$sim$16%しか使用していない。
論文 参考訳(メタデータ) (2025-06-18T14:37:59Z) - CSE-SFP: Enabling Unsupervised Sentence Representation Learning via a Single Forward Pass [3.0566617373924325]
プレトレーニング言語モデル(PLM)の最近の進歩は、この分野において顕著な進歩をもたらした。
CSE-SFPは,生成モデルの構造的特徴を利用する革新的な手法である。
CSE-SFPは高品質な埋め込みを実現するだけでなく、トレーニング時間とメモリ消費を著しく削減する。
論文 参考訳(メタデータ) (2025-05-01T08:27:14Z) - Bridging Domain Gaps between Pretrained Multimodal Models and Recommendations [12.79899622986449]
textbfPTMRecは、事前訓練されたモデルとレコメンデーションシステムの間のドメインギャップを埋める新しいフレームワークである。
このフレームワークは、コストのかかる事前トレーニングの必要性をなくすだけでなく、様々なパラメータ効率のチューニング方法にも柔軟に対応する。
論文 参考訳(メタデータ) (2025-02-21T15:50:14Z) - Offline Learning for Combinatorial Multi-armed Bandits [56.96242764723241]
Off-CMABはCMABの最初のオフライン学習フレームワークである。
Off-CMABは悲観的な報酬推定と解法を組み合わせる。
合成および実世界のデータセットの実験は、CLCBの優れた性能を強調している。
論文 参考訳(メタデータ) (2025-01-31T16:56:18Z) - Towards Generalizable Trajectory Prediction Using Dual-Level Representation Learning And Adaptive Prompting [107.4034346788744]
既存の車両軌道予測モデルは、一般化可能性、予測の不確実性、複雑な相互作用を扱う。
本研究では,(1)自己拡張(SD)とマスドレコンストラクション(MR)による二重レベル表現学習,グローバルコンテキストと細部の詳細の収集,(2)レジスタベースのクエリと事前学習の強化,クラスタリングと抑圧の必要性の排除,(3)微調整中の適応型プロンプトチューニング,メインアーキテクチャの凍結,および少数のプロンプトの最適化といった,新たなトラジェクタ予測フレームワークであるPerceiverを提案する。
論文 参考訳(メタデータ) (2025-01-08T20:11:09Z) - Pre-train, Align, and Disentangle: Empowering Sequential Recommendation with Large Language Models [26.331324261505486]
Sequential Recommendation (SR) は、ユーザの過去のインタラクションにおけるシーケンシャルなパターンを活用して、ユーザの好みを正確に追跡することを目的としている。
大規模言語モデル(LLM)の有効性が証明されているにもかかわらず、商用レコメンデータシステムへの統合は妨げられている。
我々は,LLMを用いたSRモデルを強化するために,新しいPri-train,Align,Disentangle(PAD)フレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-05T12:17:56Z) - Long-Sequence Recommendation Models Need Decoupled Embeddings [49.410906935283585]
我々は、既存の長期推薦モデルにおいて無視された欠陥を識別し、特徴付ける。
埋め込みの単一のセットは、注意と表現の両方を学ぶのに苦労し、これら2つのプロセス間の干渉につながります。
本稿では,2つの異なる埋め込みテーブルを別々に学習し,注意と表現を完全に分離する,DARE(Decoupled Attention and Representation Embeddings)モデルを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。