論文の概要: Personalizing Intervened Network for Long-tailed Sequential User
Behavior Modeling
- arxiv url: http://arxiv.org/abs/2208.09130v1
- Date: Fri, 19 Aug 2022 02:50:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 17:36:34.397548
- Title: Personalizing Intervened Network for Long-tailed Sequential User
Behavior Modeling
- Title(参考訳): 長期逐次ユーザ行動モデリングのためのパーソナライズ介入型ネットワーク
- Authors: Zheqi Lv, Feng Wang, Shengyu Zhang, Kun Kuang, Hongxia Yang, Fei Wu
- Abstract要約: タイルユーザーは、共同トレーニング後のヘッドユーザーよりも大幅に品質の低いレコメンデーションに悩まされる。
テールユーザーで個別に訓練されたモデルは、限られたデータのために依然として劣った結果が得られる。
本稿では,テールユーザの推薦性能を大幅に向上させる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 66.02953670238647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In an era of information explosion, recommendation systems play an important
role in people's daily life by facilitating content exploration. It is known
that user activeness, i.e., number of behaviors, tends to follow a long-tail
distribution, where the majority of users are with low activeness. In practice,
we observe that tail users suffer from significantly lower-quality
recommendation than the head users after joint training. We further identify
that a model trained on tail users separately still achieve inferior results
due to limited data. Though long-tail distributions are ubiquitous in
recommendation systems, improving the recommendation performance on the tail
users still remains challenge in both research and industry. Directly applying
related methods on long-tail distribution might be at risk of hurting the
experience of head users, which is less affordable since a small portion of
head users with high activeness contribute a considerate portion of platform
revenue. In this paper, we propose a novel approach that significantly improves
the recommendation performance of the tail users while achieving at least
comparable performance for the head users over the base model. The essence of
this approach is a novel Gradient Aggregation technique that learns common
knowledge shared by all users into a backbone model, followed by separate
plugin prediction networks for the head users and the tail users
personalization. As for common knowledge learning, we leverage the backward
adjustment from the causality theory for deconfounding the gradient estimation
and thus shielding off the backbone training from the confounder, i.e., user
activeness. We conduct extensive experiments on two public recommendation
benchmark datasets and a large-scale industrial datasets collected from the
Alipay platform. Empirical studies validate the rationality and effectiveness
of our approach.
- Abstract(参考訳): 情報爆発の時代には、コンテンツ探索を促進することによって、人々の日常生活においてレコメンデーションシステムは重要な役割を果たす。
ユーザの活動性、すなわち行動の回数は、大部分のユーザの活動性が低い長い分布に追従する傾向にあることが知られている。
実際に,尾部利用者は,共同トレーニング後の頭部利用者よりも格段に低品質なレコメンデーションに悩まされている。
さらに,テイルユーザを個別にトレーニングしたモデルが,限られたデータによって劣る結果が得られることも確認した。
ロングテール分布はレコメンデーションシステムではユビキタスだが、ロングテールユーザのレコメンデーション性能の向上は研究と産業の両方において依然として課題である。
ロングテール配信に関連手法を直接適用することは、ヘッドユーザー体験を損なうリスクが伴う可能性があり、これは、アクティブなヘッドユーザーのごく一部がプラットフォーム収益の考慮事項に寄与しているため、安価ではない。
本稿では,利用者の推薦性能を大幅に向上させるとともに,頭部ユーザに対して,ベースモデルよりも少なくとも同等の性能を達成できる手法を提案する。
このアプローチの本質は、すべてのユーザが共有する共通知識をバックボーンモデルに学習し、続いてヘッドユーザとテールユーザのパーソナライズのためのプラグイン予測ネットワークを分離する、新しい勾配集約技術である。
共通知識学習では,因果性理論による後方調整を活用して勾配推定を分解し,共同創設者のバックボーントレーニング,すなわちユーザ能率を遮蔽する。
2つのパブリックレコメンデーションベンチマークデータセットと、Alipayプラットフォームから収集された大規模産業データセットに関する広範な実験を行う。
実証研究は、我々のアプローチの合理性と有効性を検証する。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Incorporating Group Prior into Variational Inference for Tail-User Behavior Modeling in CTR Prediction [8.213386595519928]
我々は,新しい変分推論手法,すなわちグループ事前サンプリング変分推論(GPSVI)を提案する。
GPSVIは、グループ嗜好を先行として導入し、末尾ユーザーのための潜伏したユーザー関心を洗練させる。
厳密な分析と広範な実験により、GPSVIはテールユーザーの性能を一貫して改善することを示した。
論文 参考訳(メタデータ) (2024-10-19T13:15:36Z) - Retrieval Augmentation via User Interest Clustering [57.63883506013693]
インダストリアルレコメンデータシステムは、ユーザ・イテム・エンゲージメントのパターンに敏感である。
本稿では,ユーザの関心を効率的に構築し,計算コストの低減を図る新しい手法を提案する。
当社のアプローチはMetaの複数の製品に展開されており、ショートフォームビデオ関連の推奨を助長しています。
論文 参考訳(メタデータ) (2024-08-07T16:35:10Z) - Modeling User Retention through Generative Flow Networks [34.74982897470852]
フローベースのモデリング技術は、ユーザセッションで推奨される各項目に対する保持報酬をバックプロパガントすることができる。
従来の学習目標と組み合わされたフローは、最終的には、即時フィードバックとユーザ保持の両方に対して、非カウントの累積報酬を最適化した。
論文 参考訳(メタデータ) (2024-06-10T06:22:18Z) - Separating and Learning Latent Confounders to Enhancing User Preferences Modeling [6.0853798070913845]
我々は、推薦のための新しいフレームワーク、SLFR(Separating and Learning Latent Confounders for Recommendation)を提案する。
SLFRは、未測定の共同設立者の表現を取得し、ユーザ嗜好と未測定の共同設立者を遠ざけ、反実的なフィードバックを識別する。
5つの実世界のデータセットで実験を行い、本手法の利点を検証した。
論文 参考訳(メタデータ) (2023-11-02T08:42:50Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Learning Transferrable Parameters for Long-tailed Sequential User
Behavior Modeling [70.64257515361972]
テールユーザに注力することで、より多くのメリットをもたらし、長いテールの問題に対処できる、と私たちは主張しています。
具体的には、頭部から尾部への知識伝達を容易にするために、勾配アライメントを提案し、敵のトレーニングスキームを採用する。
論文 参考訳(メタデータ) (2020-10-22T03:12:02Z) - Self-Supervised Contrastive Learning for Efficient User Satisfaction
Prediction in Conversational Agents [35.2098736872247]
ユーザとエージェントのインタラクションを学習するための,自己指導型コントラスト学習手法を提案する。
自己教師対象を用いた事前学習モデルは,ユーザ満足度予測に転送可能であることを示す。
また、非常に小さなサンプルサイズに対して、より優れた転送性を確保するために、新しい数発の転送学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T18:10:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。