論文の概要: PRECTR-V2:Unified Relevance-CTR Framework with Cross-User Preference Mining, Exposure Bias Correction, and LLM-Distilled Encoder Optimization
- arxiv url: http://arxiv.org/abs/2602.20676v1
- Date: Tue, 24 Feb 2026 08:26:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.675254
- Title: PRECTR-V2:Unified Relevance-CTR Framework with Cross-User Preference Mining, Exposure Bias Correction, and LLM-Distilled Encoder Optimization
- Title(参考訳): PreCTR-V2:Unified Relevance-CTR Framework with Cross-User Preference Mining, Exposure Bias Correction, and LLM-Distilled Encoder Optimization
- Authors: Shuzhi Cao, Rong Chen, Ailong He, Shuguang Han, Jufeng Chen,
- Abstract要約: 検索システムでは、検索関連性マッチングとクリックスルー率(CTR)予測の2つのコア目標を効果的に調整することが重要である。
グローバルなレバレンス選好をマイニングすることで,低活性ユーザのスパース行動問題を緩和するPreCTR-V2を提案する。
このエンコーダは凍ったBERTモジュールを置き換え、CTRの微調整に適応し、従来のEmb+MLPパラダイムを超えて前進する。
- 参考スコア(独自算出の注目度): 6.17916814159778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In search systems, effectively coordinating the two core objectives of search relevance matching and click-through rate (CTR) prediction is crucial for discovering users' interests and enhancing platform revenue. In our prior work PRECTR, we proposed a unified framework to integrate these two subtasks,thereby eliminating their inconsistency and leading to mutual benefit.However, our previous work still faces three main challenges. First, low-active users and new users have limited search behavioral data, making it difficult to achieve effective personalized relevance preference modeling. Second, training data for ranking models predominantly come from high-relevance exposures, creating a distribution mismatch with the broader candidate space in coarse-ranking, leading to generalization bias. Third, due to the latency constraint, the original model employs an Emb+MLP architecture with a frozen BERT encoder, which prevents joint optimization and creates misalignment between representation learning and CTR fine-tuning. To solve these issues, we further reinforce our method and propose PRECTR-V2. Specifically, we mitigate the low-activity users' sparse behavior problem by mining global relevance preferences under the specific query, which facilitates effective personalized relevance modeling for cold-start scenarios. Subsequently, we construct hard negative samples through embedding noise injection and relevance label reconstruction, and optimize their relative ranking against positive samples via pairwise loss, thereby correcting exposure bias. Finally, we pretrain a lightweight transformer-based encoder via knowledge distillation from LLM and SFT on the text relevance classification task. This encoder replaces the frozen BERT module, enabling better adaptation to CTR fine-tuning and advancing beyond the traditional Emb+MLP paradigm.
- Abstract(参考訳): 検索システムでは,検索関連性マッチングとクリックスルー率(CTR)予測の2つの目的を効果的に調整することが,ユーザの興味の発見とプラットフォーム収益の向上に不可欠である。
前回のPreCTRでは、これらの2つのサブタスクを統合する統一的なフレームワークを提案しました。
まず、低アクティブなユーザと新規ユーザは、検索行動データに制限があるため、効果的にパーソナライズされた関連性嗜好モデルを実現することは困難である。
第二に、ランク付けモデルのトレーニングデータは、主に高関連性露光によるものであり、粗いランク付けの広い候補空間との分布ミスマッチを生成し、一般化バイアスをもたらす。
第三に、遅延制約のため、オリジナルのモデルは凍結したBERTエンコーダを備えたEmb+MLPアーキテクチャを採用しており、共同最適化を防止し、表現学習とCTR微調整のミスアライメントを生成する。
これらの問題を解決するため,本手法をさらに強化し,PreCTR-V2を提案する。
具体的には、特定のクエリの下でグローバルな関連性選好をマイニングすることで、低活性ユーザのスパース行動問題を緩和し、コールドスタートシナリオに対する効果的なパーソナライズされた関連性モデリングを容易にする。
その後,ノイズインジェクションとレバレンスラベルの再構成により,強い負のサンプルを構築し,その相対的な評価を2対の損失により最適化し,露光バイアスを補正する。
最後に,テキスト関連分類タスクにおいて,LLMおよびSFTからの知識蒸留により,軽量トランスフォーマーベースのエンコーダを事前学習する。
このエンコーダは凍ったBERTモジュールを置き換え、CTRの微調整に適応し、従来のEmb+MLPパラダイムを超えて前進する。
関連論文リスト
- GenCI: Generative Modeling of User Interest Shift via Cohort-based Intent Learning for CTR Prediction [84.0125708499372]
本稿では,クリックスルー率(CTR)予測のためのユーザ嗜好をモデル化するための生成ユーザ意図フレームワークを提案する。
このフレームワークはまず、次の項目の予測目標で訓練された生成モデルを使用して、候補の関心コホートを積極的に生成する。
階層的候補認識ネットワークは、このリッチなコンテキスト信号をランキングステージに注入し、ユーザ履歴とターゲットアイテムの両方に適合するように、クロスアテンションで精製する。
論文 参考訳(メタデータ) (2026-01-26T08:15:04Z) - PRECTR: A Synergistic Framework for Integrating Personalized Search Relevance Matching and CTR Prediction [3.753643743882433]
検索レコメンデーションシステムにおける2つの主要なタスクは、検索関連性マッチングとクリックスルー率(CTR)予測である。
パーソナライズされた検索関連マッチングとCTR予測融合モデル(PRECTR)を提案する。
具体的には、CTR予測と検索関連性マッチングを1つのフレームワークに統合し、2つのモジュールの相互作用と一貫性を強化する。
論文 参考訳(メタデータ) (2025-03-24T07:07:04Z) - Behavior Modeling Space Reconstruction for E-Commerce Search [32.46624795081706]
検索システムは、ユーザの嗜好とクエリ項目の関連性を静的に組み合わせ、しばしば固定された論理的「and」関係を通じて、ユーザの振舞いをモデル化する。
本稿では、因果グラフとVenn図の両方を用いて、統一レンズを通して既存のアプローチを再検討する。
これらの課題を克服するために,2つのコンポーネントによる探索精度を高め,行動モデリング空間を再構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-30T09:17:04Z) - Towards Generalizable Trajectory Prediction Using Dual-Level Representation Learning And Adaptive Prompting [107.4034346788744]
既存の車両軌道予測モデルは、一般化可能性、予測の不確実性、複雑な相互作用を扱う。
本研究では,(1)自己拡張(SD)とマスドレコンストラクション(MR)による二重レベル表現学習,グローバルコンテキストと細部の詳細の収集,(2)レジスタベースのクエリと事前学習の強化,クラスタリングと抑圧の必要性の排除,(3)微調整中の適応型プロンプトチューニング,メインアーキテクチャの凍結,および少数のプロンプトの最適化といった,新たなトラジェクタ予測フレームワークであるPerceiverを提案する。
論文 参考訳(メタデータ) (2025-01-08T20:11:09Z) - Pre-train, Align, and Disentangle: Empowering Sequential Recommendation with Large Language Models [26.331324261505486]
Sequential Recommendation (SR) は、ユーザの過去のインタラクションにおけるシーケンシャルなパターンを活用して、ユーザの好みを正確に追跡することを目的としている。
大規模言語モデル(LLM)の有効性が証明されているにもかかわらず、商用レコメンデータシステムへの統合は妨げられている。
我々は,LLMを用いたSRモデルを強化するために,新しいPri-train,Align,Disentangle(PAD)フレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-05T12:17:56Z) - Bridging and Modeling Correlations in Pairwise Data for Direct Preference Optimization [75.1240295759264]
本稿では,BMC という名前のペアデータにおけるブリッジ・アンド・モデリングの効果的なフレームワークを提案する。
目的の修正によって、ペアの選好信号の一貫性と情報性が向上する。
DPOだけではこれらの相関をモデル化し、ニュアンス付き変動を捉えるには不十分である。
論文 参考訳(メタデータ) (2024-08-14T11:29:47Z) - Meta-Wrapper: Differentiable Wrapping Operator for User Interest
Selection in CTR Prediction [97.99938802797377]
クリックスルー率(CTR)予測は、ユーザーが商品をクリックする確率を予測することを目的としており、リコメンデーションシステムにおいてますます重要になっている。
近年,ユーザの行動からユーザの興味を自動的に抽出する深層学習モデルが大きな成功を収めている。
そこで我々は,メタラッパー(Meta-Wrapper)と呼ばれるラッパー手法の枠組みに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-06-28T03:28:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。