論文の概要: Alleviating Cold-start Problem in CTR Prediction with A Variational
Embedding Learning Framework
- arxiv url: http://arxiv.org/abs/2201.10980v1
- Date: Mon, 17 Jan 2022 10:01:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-01-30 12:41:00.569156
- Title: Alleviating Cold-start Problem in CTR Prediction with A Variational
Embedding Learning Framework
- Title(参考訳): 変分埋め込み学習フレームワークを用いたCTR予測におけるコールドスタート問題軽減
- Authors: Xiaoxiao Xu, Chen Yang, Qian Yu, Zhiwei Fang, Jiaxing Wang, Chaosheng
Fan, Yang He, Changping Peng, Zhangang Lin, Jingping Shao
- Abstract要約: 本稿では,CTR予測における寒冷開始問題を軽減するための変分埋め込み学習フレームワーク(VELF)を提案する。
VELFは、データスパーシリティによる過度な適合を2つの方法で緩和することで、コールドスタート問題に対処する。
- 参考スコア(独自算出の注目度): 15.55724583314825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a general Variational Embedding Learning Framework (VELF) for
alleviating the severe cold-start problem in CTR prediction. VELF addresses the
cold start problem via alleviating over-fits caused by data-sparsity in two
ways: learning probabilistic embedding, and incorporating trainable and
regularized priors which utilize the rich side information of cold start users
and advertisements (Ads). The two techniques are naturally integrated into a
variational inference framework, forming an end-to-end training process.
Abundant empirical tests on benchmark datasets well demonstrate the advantages
of our proposed VELF. Besides, extended experiments confirmed that our
parameterized and regularized priors provide more generalization capability
than traditional fixed priors.
- Abstract(参考訳): 本稿では,CTR予測における寒冷開始問題を軽減するための変分埋め込み学習フレームワーク(VELF)を提案する。
velfは、データ分離によって引き起こされる過剰適合を2つの方法で緩和することで、コールドスタート問題に対処する。学習確率的埋め込みと、コールドスタートユーザと広告(ads)の豊富なサイド情報を利用するトレーニング可能かつ正規化された事前情報の導入である。
2つのテクニックは自然に変分推論フレームワークに統合され、エンドツーエンドのトレーニングプロセスを形成する。
ベンチマークデータセットに対する実証実験の欠如は、提案したVELFの利点をよく示している。
さらに、拡張実験により、パラメータ化および正規化プリミティブが従来の固定プリミティブよりもより一般化できることが確認された。
関連論文リスト
- PRECTR-V2:Unified Relevance-CTR Framework with Cross-User Preference Mining, Exposure Bias Correction, and LLM-Distilled Encoder Optimization [6.17916814159778]
検索システムでは、検索関連性マッチングとクリックスルー率(CTR)予測の2つのコア目標を効果的に調整することが重要である。
グローバルなレバレンス選好をマイニングすることで,低活性ユーザのスパース行動問題を緩和するPreCTR-V2を提案する。
このエンコーダは凍ったBERTモジュールを置き換え、CTRの微調整に適応し、従来のEmb+MLPパラダイムを超えて前進する。
論文 参考訳(メタデータ) (2026-02-24T08:26:17Z) - A Theory of How Pretraining Shapes Inductive Bias in Fine-Tuning [51.505728136705564]
我々は, 対角線ネットワークにおけるプレトレーニングファインチューニングパイプラインの解析理論を開発した。
異なる初期化選択により、ネットワークは4つの異なる微調整レジームに分類される。
以前の階層の縮小により、ネットワークは機能の再利用と洗練を両立することができ、より優れた一般化を実現している。
論文 参考訳(メタデータ) (2026-02-23T17:19:33Z) - MDiffFR: Modality-Guided Diffusion Generation for Cold-start Items in Federated Recommendation [21.56907456486488]
フェデレートされたレコメンデーション(FR)は、ローカルクライアントにユーザデータを保管することで、ユーザのプライバシを保護しながら、パーソナライズされたサービスを提供する。
FRに固有の厳格なプライバシ制約のため、クライアント間でのユーザとイテムのインタラクションデータやユーザプロファイルへのアクセスは極めて制限されている。
そこで本研究では,冷間開始項目に対する新世代モード誘導拡散法MDiffFRを提案する。
論文 参考訳(メタデータ) (2025-12-31T08:29:34Z) - Metis-SPECS: Decoupling Multimodal Learning via Self-distilled Preference-based Cold Start [23.27048561248985]
ほとんどの代表的なパラダイムはコールドスタートから始まり、典型的には教師付き微調整(SFT)を使用する。
マルチモーダル学習を分離する自己蒸留型, 選好型コールドスタートフレームワークSPECSを提案する。
論文 参考訳(メタデータ) (2025-10-29T03:42:23Z) - Feature Staleness Aware Incremental Learning for CTR Prediction [18.810404607032297]
CTR予測モデルの特徴埋め込みは、現在のインクリメンタルデータに対応する機能が現れない場合、しばしば停滞する。
静的な特徴を含むサンプルを適応的に再生するCTR予測(FeSAIL)のための特徴安定度認識インクリメンタルラーニング手法を提案する。
FeSAILは4つのベンチマークデータセットで様々な最先端のメソッドより優れている。
論文 参考訳(メタデータ) (2025-04-29T09:05:47Z) - Large Language Model Empowered Recommendation Meets All-domain Continual Pre-Training [60.38082979765664]
CPRecは、レコメンデーションのための全ドメイン連続事前トレーニングフレームワークである。
LLMを連続的な事前学習パラダイムを通じて、普遍的なユーザ行動と整合させる。
2つの異なるプラットフォームから5つの実世界のデータセットを実験する。
論文 参考訳(メタデータ) (2025-04-11T20:01:25Z) - Generalizability through Explainability: Countering Overfitting with Counterfactual Examples [6.3107782051840555]
オーバーフィッティング(Overfitting)は、モデルが予測を新しい、目に見えないデータに一般化するのに苦労するときに発生する機械学習のよく知られた問題である。
オーバーフィッティングを緩和する従来のテクニックには、早期停止、データ拡張、正規化などがある。
CF-Regはトレーニング損失の新たな正規化用語であり,各インスタンスと対応するカウンターファクトの十分なマージンを確保することでオーバーフィッティングを制御する。
論文 参考訳(メタデータ) (2025-02-13T11:33:17Z) - Pre-train, Align, and Disentangle: Empowering Sequential Recommendation with Large Language Models [26.331324261505486]
Sequential Recommendation (SR) は、ユーザの過去のインタラクションにおけるシーケンシャルなパターンを活用して、ユーザの好みを正確に追跡することを目的としている。
大規模言語モデル(LLM)の有効性が証明されているにもかかわらず、商用レコメンデータシステムへの統合は妨げられている。
我々は,LLMを用いたSRモデルを強化するために,新しいPri-train,Align,Disentangle(PAD)フレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-05T12:17:56Z) - Prior Learning in Introspective VAEs [24.271671383057598]
変分オートエンコーダ(VAE)は教師なし学習とデータ生成のための一般的なフレームワークである。
本研究では,Soft-IntroVAEに着目し,マルチモーダルで学習可能なフレームワークをこのフレームワークに組み込むことの意味について検討する。
論文 参考訳(メタデータ) (2024-08-25T10:54:25Z) - Enhancing CTR Prediction through Sequential Recommendation Pre-training: Introducing the SRP4CTR Framework [13.574487867743773]
クリックスルーレート(CTR)予測のための逐次勧告事前学習フレームワーク(SRP4CTR)を提案する。
本稿では,事前学習モデルの導入が推論コストに与える影響について論じるとともに,シーケンス側情報を同時に符号化する事前学習手法を提案する。
我々は,事前学習モデルから産業用CTRモデルへの知識伝達を容易にするクエリ変換手法を開発した。
論文 参考訳(メタデータ) (2024-07-29T02:49:11Z) - Rethinking Resource Management in Edge Learning: A Joint Pre-training and Fine-tuning Design Paradigm [87.47506806135746]
一部のアプリケーションでは、エッジラーニングは、スクラッチから新しい2段階ラーニングへと焦点を移している。
本稿では,2段階のエッジ学習システムにおける共同コミュニケーションと計算資源管理の問題について考察する。
事前学習および微調整段階に対する共同資源管理の提案は,システム性能のトレードオフをうまくバランスさせることが示されている。
論文 参考訳(メタデータ) (2024-04-01T00:21:11Z) - Informed Spectral Normalized Gaussian Processes for Trajectory Prediction [0.0]
本稿では,SNGPの正規化に基づく連続学習手法を提案する。
提案手法は確立された手法に基づいており,リハーサルメモリやパラメータ拡張を必要としない。
本研究では, 自律運転における軌道予測問題に対する情報SNGPモデルの適用について検討した。
論文 参考訳(メタデータ) (2024-03-18T17:05:24Z) - An Emulator for Fine-Tuning Large Language Models using Small Language
Models [91.02498576056057]
本研究では,異なるスケールでの事前学習と微調整の結果を近似する分布から,エミュレート・ファインチューニング(EFT)を原理的かつ実用的なサンプリング法として導入する。
EFTは、追加トレーニングを伴わずに、有益性や無害性といった競合する行動特性をテスト時間で調整できることを示す。
最後に、LMアップスケーリングと呼ばれるエミュレートされたファインチューニングの特殊な場合において、小さなファインチューニングモデルと組み合わせることで、大きな事前学習モデルのリソース集約的なファインチューニングを回避する。
論文 参考訳(メタデータ) (2023-10-19T17:57:16Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Debiased Fine-Tuning for Vision-language Models by Prompt Regularization [50.41984119504716]
本稿では,Prompt Regularization(ProReg)と呼ばれる下流タスクにおける大規模視覚事前訓練モデルの微調整のための新しいパラダイムを提案する。
ProRegは、事前訓練されたモデルに微調整を正規化するよう促すことで予測を使用する。
本稿では,従来の微調整,ゼロショットプロンプト,プロンプトチューニング,その他の最先端手法と比較して,ProRegの性能が一貫して高いことを示す。
論文 参考訳(メタデータ) (2023-01-29T11:53:55Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。