論文の概要: Alleviating Cold-start Problem in CTR Prediction with A Variational
Embedding Learning Framework
- arxiv url: http://arxiv.org/abs/2201.10980v1
- Date: Mon, 17 Jan 2022 10:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-30 12:41:00.569156
- Title: Alleviating Cold-start Problem in CTR Prediction with A Variational
Embedding Learning Framework
- Title(参考訳): 変分埋め込み学習フレームワークを用いたCTR予測におけるコールドスタート問題軽減
- Authors: Xiaoxiao Xu, Chen Yang, Qian Yu, Zhiwei Fang, Jiaxing Wang, Chaosheng
Fan, Yang He, Changping Peng, Zhangang Lin, Jingping Shao
- Abstract要約: 本稿では,CTR予測における寒冷開始問題を軽減するための変分埋め込み学習フレームワーク(VELF)を提案する。
VELFは、データスパーシリティによる過度な適合を2つの方法で緩和することで、コールドスタート問題に対処する。
- 参考スコア(独自算出の注目度): 15.55724583314825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a general Variational Embedding Learning Framework (VELF) for
alleviating the severe cold-start problem in CTR prediction. VELF addresses the
cold start problem via alleviating over-fits caused by data-sparsity in two
ways: learning probabilistic embedding, and incorporating trainable and
regularized priors which utilize the rich side information of cold start users
and advertisements (Ads). The two techniques are naturally integrated into a
variational inference framework, forming an end-to-end training process.
Abundant empirical tests on benchmark datasets well demonstrate the advantages
of our proposed VELF. Besides, extended experiments confirmed that our
parameterized and regularized priors provide more generalization capability
than traditional fixed priors.
- Abstract(参考訳): 本稿では,CTR予測における寒冷開始問題を軽減するための変分埋め込み学習フレームワーク(VELF)を提案する。
velfは、データ分離によって引き起こされる過剰適合を2つの方法で緩和することで、コールドスタート問題に対処する。学習確率的埋め込みと、コールドスタートユーザと広告(ads)の豊富なサイド情報を利用するトレーニング可能かつ正規化された事前情報の導入である。
2つのテクニックは自然に変分推論フレームワークに統合され、エンドツーエンドのトレーニングプロセスを形成する。
ベンチマークデータセットに対する実証実験の欠如は、提案したVELFの利点をよく示している。
さらに、拡張実験により、パラメータ化および正規化プリミティブが従来の固定プリミティブよりもより一般化できることが確認された。
関連論文リスト
- Prior Learning in Introspective VAEs [24.271671383057598]
変分オートエンコーダ(VAE)は教師なし学習とデータ生成のための一般的なフレームワークである。
本研究では,Soft-IntroVAEに着目し,マルチモーダルで学習可能なフレームワークをこのフレームワークに組み込むことの意味について検討する。
論文 参考訳(メタデータ) (2024-08-25T10:54:25Z) - Enhancing CTR Prediction through Sequential Recommendation Pre-training: Introducing the SRP4CTR Framework [13.574487867743773]
クリックスルーレート(CTR)予測のための逐次勧告事前学習フレームワーク(SRP4CTR)を提案する。
本稿では,事前学習モデルの導入が推論コストに与える影響について論じるとともに,シーケンス側情報を同時に符号化する事前学習手法を提案する。
我々は,事前学習モデルから産業用CTRモデルへの知識伝達を容易にするクエリ変換手法を開発した。
論文 参考訳(メタデータ) (2024-07-29T02:49:11Z) - Rethinking Resource Management in Edge Learning: A Joint Pre-training and Fine-tuning Design Paradigm [87.47506806135746]
一部のアプリケーションでは、エッジラーニングは、スクラッチから新しい2段階ラーニングへと焦点を移している。
本稿では,2段階のエッジ学習システムにおける共同コミュニケーションと計算資源管理の問題について考察する。
事前学習および微調整段階に対する共同資源管理の提案は,システム性能のトレードオフをうまくバランスさせることが示されている。
論文 参考訳(メタデータ) (2024-04-01T00:21:11Z) - Informed Spectral Normalized Gaussian Processes for Trajectory Prediction [0.0]
本稿では,SNGPの正規化に基づく連続学習手法を提案する。
提案手法は確立された手法に基づいており,リハーサルメモリやパラメータ拡張を必要としない。
本研究では, 自律運転における軌道予測問題に対する情報SNGPモデルの適用について検討した。
論文 参考訳(メタデータ) (2024-03-18T17:05:24Z) - An Emulator for Fine-Tuning Large Language Models using Small Language
Models [91.02498576056057]
本研究では,異なるスケールでの事前学習と微調整の結果を近似する分布から,エミュレート・ファインチューニング(EFT)を原理的かつ実用的なサンプリング法として導入する。
EFTは、追加トレーニングを伴わずに、有益性や無害性といった競合する行動特性をテスト時間で調整できることを示す。
最後に、LMアップスケーリングと呼ばれるエミュレートされたファインチューニングの特殊な場合において、小さなファインチューニングモデルと組み合わせることで、大きな事前学習モデルのリソース集約的なファインチューニングを回避する。
論文 参考訳(メタデータ) (2023-10-19T17:57:16Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Debiased Fine-Tuning for Vision-language Models by Prompt Regularization [50.41984119504716]
本稿では,Prompt Regularization(ProReg)と呼ばれる下流タスクにおける大規模視覚事前訓練モデルの微調整のための新しいパラダイムを提案する。
ProRegは、事前訓練されたモデルに微調整を正規化するよう促すことで予測を使用する。
本稿では,従来の微調整,ゼロショットプロンプト,プロンプトチューニング,その他の最先端手法と比較して,ProRegの性能が一貫して高いことを示す。
論文 参考訳(メタデータ) (2023-01-29T11:53:55Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。