論文の概要: DV365: Extremely Long User History Modeling at Instagram
- arxiv url: http://arxiv.org/abs/2506.00450v1
- Date: Sat, 31 May 2025 08:09:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.08062
- Title: DV365: Extremely Long User History Modeling at Instagram
- Title(参考訳): DV365:Instagramのユーザー履歴モデリング
- Authors: Wenhan Lyu, Devashish Tyagi, Yihang Yang, Ziwei Li, Ajay Somani, Karthikeyan Shanmugasundaram, Nikola Andrejevic, Ferdi Adeputra, Curtis Zeng, Arun K. Singh, Maxime Ransan, Sagar Jain,
- Abstract要約: 本稿では,ユーザの長期的関心を高度に一般化可能なユーザ表現を生成する,新たなユーザ埋め込み学習戦略であるマルチスライシングと要約を提案する。
DV365と名付けられたこの埋め込みは、Instagramにデプロイされた高度な注意深いユーザーシーケンスモデルの上に、非常にインクリメンタルに実装されていることが証明されている。
- 参考スコア(独自算出の注目度): 2.9237562813135947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long user history is highly valuable signal for recommendation systems, but effectively incorporating it often comes with high cost in terms of data center power consumption and GPU. In this work, we chose offline embedding over end-to-end sequence length optimization methods to enable extremely long user sequence modeling as a cost-effective solution, and propose a new user embedding learning strategy, multi-slicing and summarization, that generates highly generalizable user representation of user's long-term stable interest. History length we encoded in this embedding is up to 70,000 and on average 40,000. This embedding, named as DV365, is proven highly incremental on top of advanced attentive user sequence models deployed in Instagram. Produced by a single upstream foundational model, it is launched in 15 different models across Instagram and Threads with significant impact, and has been production battle-proven for >1 year since our first launch.
- Abstract(参考訳): 長いユーザ履歴はレコメンデーションシステムにとって非常に価値のある信号だが、効果的にそれを組み込むには、データセンターの消費電力とGPUの点で高いコストがかかることが多い。
本研究では,エンド・ツー・エンドのシーケンス長最適化手法よりもオフラインの埋め込みを選択して,極めて長いユーザシーケンスモデリングをコスト効率のよいソリューションとして実現し,ユーザの長期的関心を高度に一般化可能なユーザ表現を生成する,新たなユーザ埋め込み学習戦略,マルチスライシングと要約を提案する。
この埋め込みでエンコードされた歴史の長さは70万、平均4万に達する。
DV365と名付けられたこの埋め込みは、Instagramにデプロイされた高度な注意深いユーザーシーケンスモデルの上に、非常にインクリメンタルに実装されていることが証明されている。
1つのアップストリーム基盤モデルによって製造され、InstagramとThreadsで15の異なるモデルでローンチされ、大きな影響を与えている。
関連論文リスト
- Bridging User Dynamics: Transforming Sequential Recommendations with Schrödinger Bridge and Diffusion Models [49.458914600467324]
拡散に基づく逐次レコメンデーションモデルにSchr"odinger Bridgeを導入し、SdifRecモデルを作成する。
また、ユーザクラスタリング情報を誘導条件として利用するcon-SdifRecと呼ばれるSdifRecの拡張版も提案する。
論文 参考訳(メタデータ) (2024-08-30T09:10:38Z) - Sliding Window Training -- Utilizing Historical Recommender Systems Data for Foundation Models [8.298236989162213]
長寿命のレコメンデータシステム(RecSys)は、長年にわたる長いユーザとイテムのインタラクション履歴に遭遇することが多い。
長期的ユーザの好みを効果的に学習するためには、FM(Large RecSys foundation model)が事前学習時にこの情報をエンコードする必要がある。
モデル入力次元を増大させることなく、トレーニング時間中に長いユーザ履歴シーケンスを組み込むスライディングウィンドウトレーニング手法を導入する。
論文 参考訳(メタデータ) (2024-08-21T18:59:52Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - Rethinking Personalized Ranking at Pinterest: An End-to-End Approach [7.295811134874487]
ユーザアクションからエンド・ツー・エンドの学習を通じて、パーソナライズされたレコメンデーションエンジンに革命をもたらすための道程を提示する。
提案されたシステムはPinterestで本番環境にデプロイされており、オーガニックおよび広告アプリケーション間で大きなオンラインゲインを提供している。
論文 参考訳(メタデータ) (2022-09-18T01:06:00Z) - Personalizing Intervened Network for Long-tailed Sequential User
Behavior Modeling [66.02953670238647]
タイルユーザーは、共同トレーニング後のヘッドユーザーよりも大幅に品質の低いレコメンデーションに悩まされる。
テールユーザーで個別に訓練されたモデルは、限られたデータのために依然として劣った結果が得られる。
本稿では,テールユーザの推薦性能を大幅に向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-19T02:50:19Z) - Sparse Attentive Memory Network for Click-through Rate Prediction with
Long Sequences [10.233015715433602]
本稿では,長期的ユーザ行動モデリングのためのスパース注意記憶ネットワークを提案する。
SAMは数千のスケールでユーザ行動シーケンスの効率的なトレーニングとリアルタイム推論をサポートする。
SAMは、世界最大の国際Eコマースプラットフォームのひとつとして成功している。
論文 参考訳(メタデータ) (2022-08-08T10:11:46Z) - PinnerFormer: Sequence Modeling for User Representation at Pinterest [60.335384724891746]
我々は、ユーザの将来的なエンゲージメントを予測するためにトレーニングされたユーザ表現であるPinnerFormerを紹介する。
従来のアプローチとは異なり、新しい密集した全アクション損失を通じて、モデリングをバッチインフラストラクチャに適応させます。
その結果,1日に1回発生するバッチユーザ埋め込みと,ユーザがアクションを行うたびに発生するリアルタイムユーザ埋め込みとの間には,大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2022-05-09T18:26:51Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z) - Sequential recommendation with metric models based on frequent sequences [0.688204255655161]
提案手法では,ユーザ履歴の最も関連性の高い部分を特定するために,頻繁なシーケンスを用いることを提案する。
最も健全なアイテムは、ユーザの好みとシーケンシャルなダイナミクスに基づいてアイテムを埋め込む統合されたメトリックモデルで使用される。
論文 参考訳(メタデータ) (2020-08-12T22:08:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。