論文の概要: Learning Universal User Representations Leveraging Cross-domain User Intent at Snapchat
- arxiv url: http://arxiv.org/abs/2504.21838v1
- Date: Wed, 30 Apr 2025 17:48:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 17:31:25.243274
- Title: Learning Universal User Representations Leveraging Cross-domain User Intent at Snapchat
- Title(参考訳): Snapchatにおけるクロスドメインユーザインテントを活用したユニバーサルユーザ表現の学習
- Authors: Clark Mingxuan Ju, Leonardo Neves, Bhuvesh Kumar, Liam Collins, Tong Zhao, Yuwei Qiu, Qing Dou, Yang Zhou, Sohail Nizam, Rengim Ozturk, Yvette Liu, Sen Yang, Manish Malik, Neil Shah,
- Abstract要約: 我々は、異なるアプリ内サーフェスにまたがってユニバーサルユーザモデリング(UUM)を行おうとしている。
ドメイン固有の表現を置き換える代わりに、UUM表現はドメイン間のトレンドをキャプチャする。
UUM埋め込みは、(i)ロングフォームビデオ埋め込みベースの検索に組み込まれており、(ii)ロングフォームビデオオープンレートの2.78%増加、(ii)ロングフォームビデオL2ランキングの19.2%増加、(iii)レンズL2ランキングの1.76%増加、(iv)通知L2ランキングの0.87%増加となっている。
- 参考スコア(独自算出の注目度): 32.278326247977674
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The development of powerful user representations is a key factor in the success of recommender systems (RecSys). Online platforms employ a range of RecSys techniques to personalize user experience across diverse in-app surfaces. User representations are often learned individually through user's historical interactions within each surface and user representations across different surfaces can be shared post-hoc as auxiliary features or additional retrieval sources. While effective, such schemes cannot directly encode collaborative filtering signals across different surfaces, hindering its capacity to discover complex relationships between user behaviors and preferences across the whole platform. To bridge this gap at Snapchat, we seek to conduct universal user modeling (UUM) across different in-app surfaces, learning general-purpose user representations which encode behaviors across surfaces. Instead of replacing domain-specific representations, UUM representations capture cross-domain trends, enriching existing representations with complementary information. This work discusses our efforts in developing initial UUM versions, practical challenges, technical choices and modeling and research directions with promising offline performance. Following successful A/B testing, UUM representations have been launched in production, powering multiple use cases and demonstrating their value. UUM embedding has been incorporated into (i) Long-form Video embedding-based retrieval, leading to 2.78% increase in Long-form Video Open Rate, (ii) Long-form Video L2 ranking, with 19.2% increase in Long-form Video View Time sum, (iii) Lens L2 ranking, leading to 1.76% increase in Lens play time, and (iv) Notification L2 ranking, with 0.87% increase in Notification Open Rate.
- Abstract(参考訳): 強力なユーザ表現の開発は、レコメンダシステム(RecSys)の成功の鍵となる要素である。
オンラインプラットフォームでは、さまざまなアプリ内サーフェスのユーザエクスペリエンスをパーソナライズするために、さまざまなRecSys技術を使用している。
ユーザ表現は、各表面におけるユーザの歴史的相互作用を通じて個別に学習されることが多く、異なる表面をまたいだユーザ表現は、補助的な特徴や追加の検索ソースとしてポストホックを共有することができる。
有効ではあるが、このようなスキームは、異なる面にわたる協調フィルタリング信号を直接エンコードすることはできず、プラットフォーム全体にわたるユーザの振る舞いと嗜好の間の複雑な関係を見つける能力を妨げる。
Snapchatのこのギャップを埋めるために、さまざまなアプリ内サーフェスにまたがるユニバーサルユーザモデリング(UUM)を実施し、表面の振る舞いをエンコードする汎用ユーザ表現を学びます。
ドメイン固有の表現を置き換える代わりに、UUM表現はドメイン間のトレンドを捉え、補完的な情報で既存の表現を豊かにする。
本稿では,UUMの初期バージョンの開発,実践的課題,技術的選択,モデリング,研究の方向性について論じる。
A/Bテストの成功に続いて、UUM表現は本番環境でローンチされ、複数のユースケースをパワーアップし、その価値を実証している。
UUM埋め込みが組み込まれている
(i)ロングフォームビデオ埋め込みに基づく検索は、ロングフォームビデオオープンレートが2.78%向上する
(II)ロングフォームビデオL2ランキング、ロングフォームビデオ視聴時間の19.2%増加
三 レンズL2ランキング、レンズプレイ時間1.76%増加、
(iv)通知L2ランキングは0.87%、通知オープンレートは0.87%上昇した。
関連論文リスト
- AdaF^2M^2: Comprehensive Learning and Responsive Leveraging Features in Recommendation System [16.364341783911414]
本稿では,モデルに依存しないフレームワークであるAdaF2M2を提案する。
AdaF2M2でベースモデルを固定することにより、複数のレコメンデーションシナリオでオンラインA/Bテストを行い、ユーザアクティブ日とアプリ期間で+1.37%、+1.89%の累積的な改善を実現した。
論文 参考訳(メタデータ) (2025-01-27T06:49:27Z) - Adaptive Learning on User Segmentation: Universal to Specific Representation via Bipartite Neural Interaction [15.302921887305283]
本稿では,情報ボトルネックを通じて汎用ユーザ表現を学習する新しい学習フレームワークを提案する。
次に、ニューラルネットワークを通じてセグメンテーション特化あるいはタスク特化表現をマージし、学習する。
提案手法は2つのオープンソースベンチマーク、2つのオフラインビジネスデータセットで評価され、ユーザのCVRを予測するために2つのオンラインマーケティングアプリケーションにデプロイされる。
論文 参考訳(メタデータ) (2024-09-23T12:02:23Z) - GUME: Graphs and User Modalities Enhancement for Long-Tail Multimodal Recommendation [13.1192216083304]
本稿では,長期マルチモーダルレコメンデーションのための新しいグラフとユーザモダリティエンハンスメント(GUME)を提案する。
具体的には、アイテム間のマルチモーダルな類似性を用いて、まずユーザ-テムグラフを拡張します。
次に、明示的なインタラクション機能と拡張された関心機能という2つのタイプのユーザモダリティを構築します。
論文 参考訳(メタデータ) (2024-07-17T06:29:00Z) - SoMeR: Multi-View User Representation Learning for Social Media [1.7949335303516192]
ソーシャルメディアのユーザ表現学習は、低次元ベクトル表現におけるユーザの好み、興味、振る舞いを捉えることを目的としている。
本稿では,時間的活動,テキストの内容,プロファイル情報,ネットワークインタラクションを組み込んで総合的なユーザ肖像画を学習するフレームワークであるSoMeRを提案する。
1) 情報操作ドライバアカウントの特定,2) 主要なイベント後のオンライン偏光の測定,3) Reddit のヘイトコミュニティにおける将来のユーザ参加予測の3つのアプリケーションを通じて,SoMeR の汎用性を実証した。
論文 参考訳(メタデータ) (2024-05-02T22:26:55Z) - Video-based Person Re-identification with Long Short-Term Representation
Learning [101.62570747820541]
ビデオベースの人物再識別(V-ReID)は、オーバーラップしないカメラで撮影した生のビデオから特定の人物を回収することを目的としている。
本稿では,V-ReIDのためのLong Short-Term Representation Learning(LSTRL)という新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-07T16:22:47Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Two-stream Multi-level Dynamic Point Transformer for Two-person Interaction Recognition [45.0131792009999]
本稿では,2人インタラクション認識のための2ストリームマルチレベル動的ポイント変換器を提案する。
本モデルでは,局所空間情報,外観情報,動作情報を組み込むことで,対人インタラクションを認識するという課題に対処する。
我々のネットワークは、ほとんどの標準的な評価設定において最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-22T03:51:32Z) - Two-level Data Augmentation for Calibrated Multi-view Detection [51.5746691103591]
ビュー間のアライメントを保った新しいマルチビューデータ拡張パイプラインを導入する。
また,シーンレベルで直接適用された第2レベルの拡張を提案する。
単純なマルチビュー検出モデルと組み合わせることで、2レベル拡張パイプラインは既存のベースラインすべてより優れています。
論文 参考訳(メタデータ) (2022-10-19T17:55:13Z) - Learning Large-scale Universal User Representation with Sparse Mixture
of Experts [1.2722697496405464]
複数のタスクから高品質なユーザ表現を得るための汎用フレームワーク SUPERMOE を提案する。
具体的には、ユーザ動作シーケンスをMoE変換器で符号化することで、モデル容量を数十億のパラメータに増やすことができる。
複数のタスクにまたがる学習においてシーソー現象に対処するために,タスクインジケータを用いた新たな損失関数を設計する。
論文 参考訳(メタデータ) (2022-07-11T06:19:03Z) - Empowering General-purpose User Representation with Full-life Cycle
Behavior Modeling [11.698166058448555]
本稿では,この課題に対処するために,フルライフサイクルユーザ表現モデル(LURM)と呼ばれる新しいフレームワークを提案する。
LURMは2つのカスケードサブモデルで構成されている: (I) Bag-of-Interests (BoI) は、任意の期間におけるユーザの振る舞いを超高次元のスパースベクトル(例:105)にエンコードする。
SMENは、ユーザ関心の異なる側面を学習できる新しいマルチアンカーモジュールの恩恵を受け、ほぼ次元の削減を実現している。
論文 参考訳(メタデータ) (2021-10-20T08:24:44Z) - Knowledge-Enhanced Hierarchical Graph Transformer Network for
Multi-Behavior Recommendation [56.12499090935242]
本研究では,ユーザとレコメンデータシステムにおける項目間の多種類の対話パターンを探索する知識強化階層型グラフトランスフォーマネットワーク(KHGT)を提案する。
KHGTはグラフ構造化ニューラルネットワーク上に構築され、タイプ固有の振る舞い特性をキャプチャする。
KHGTは、様々な評価設定において、最先端のレコメンデーション手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-08T09:44:00Z) - Learning Dual Dynamic Representations on Time-Sliced User-Item
Interaction Graphs for Sequential Recommendation [62.30552176649873]
シーケンシャルレコメンデーションのための動的表現学習モデル(DRL-SRe)を考案する。
両面から動的に特徴付けるためのユーザ・イテム相互作用をモデル化するため,提案モデルでは,時間スライス毎にグローバルなユーザ・イテム相互作用グラフを構築した。
モデルが微粒な時間情報を捕捉することを可能にするため,連続時間スライス上での補助的時間予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:44:27Z) - Disentangled Graph Collaborative Filtering [100.26835145396782]
Disentangled Graph Collaborative Filtering (DGCF)は、インタラクションデータからユーザとアイテムの情報表現を学ぶための新しいモデルである。
ユーザ・イテムのインタラクション毎に意図を超越した分布をモデル化することにより、インテント・アウェアなインタラクショングラフと表現を反復的に洗練する。
DGCFはNGCF、DisenGCN、MacridVAEといった最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-07-03T15:37:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。