論文の概要: ENCODE: Breaking the Trade-Off Between Performance and Efficiency in Long-Term User Behavior Modeling
- arxiv url: http://arxiv.org/abs/2508.13567v1
- Date: Tue, 19 Aug 2025 06:58:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.825683
- Title: ENCODE: Breaking the Trade-Off Between Performance and Efficiency in Long-Term User Behavior Modeling
- Title(参考訳): ENCODE: 長期ユーザー行動モデリングにおけるパフォーマンスと効率のトレードオフを打破する
- Authors: Wenji Zhou, Yuhang Zheng, Yinfu Feng, Yunan Ye, Rong Xiao, Long Chen, Xiaosong Yang, Jun Xiao,
- Abstract要約: EfficieNt Clustering を用いた twO-stage interest moDEling (ENCODE) と呼ばれる2段階の効率的な長期配列モデリング手法を提案する。
オフラインの抽出段階では、ENCODEは全動作シーケンスをクラスタリングし、正確な関心を抽出する。
オンライン推論の段階では、ECNODEは、ターゲットアイテムとの関連性を予測するために、既成のユーザ関心を生かしている。
- 参考スコア(独自算出の注目度): 12.963611514800656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-term user behavior sequences are a goldmine for businesses to explore users' interests to improve Click-Through Rate. However, it is very challenging to accurately capture users' long-term interests from their long-term behavior sequences and give quick responses from the online serving systems. To meet such requirements, existing methods "inadvertently" destroy two basic requirements in long-term sequence modeling: R1) make full use of the entire sequence to keep the information as much as possible; R2) extract information from the most relevant behaviors to keep high relevance between learned interests and current target items. The performance of online serving systems is significantly affected by incomplete and inaccurate user interest information obtained by existing methods. To this end, we propose an efficient two-stage long-term sequence modeling approach, named as EfficieNt Clustering based twO-stage interest moDEling (ENCODE), consisting of offline extraction stage and online inference stage. It not only meets the aforementioned two basic requirements but also achieves a desirable balance between online service efficiency and precision. Specifically, in the offline extraction stage, ENCODE clusters the entire behavior sequence and extracts accurate interests. To reduce the overhead of the clustering process, we design a metric learning-based dimension reduction algorithm that preserves the relative pairwise distances of behaviors in the new feature space. While in the online inference stage, ENCODE takes the off-the-shelf user interests to predict the associations with target items. Besides, to further ensure the relevance between user interests and target items, we adopt the same relevance metric throughout the whole pipeline of ENCODE. The extensive experiment and comparison with SOTA have demonstrated the effectiveness and efficiency of our proposed ENCODE.
- Abstract(参考訳): 長期ユーザー行動シーケンスは、Click-Through Rateを改善するためにユーザーの興味を探求するビジネスにとって、金鉱である。
しかし、ユーザの長期的関心を長期的行動シーケンスから正確に把握し、オンラインサービスシステムから素早く応答することは非常に困難である。
このような要件を満たすために、既存の手法は、長期的シーケンスモデリングにおける2つの基本的な要件を「不注意に」破壊する: R1) シーケンス全体を最大限に活用して情報を維持する; R2) 学習対象項目と学習対象項目の関連性を維持するために、最も関連性の高い行動から情報を抽出する。
オンラインサービスシステムの性能は,既存手法による不完全かつ不正確なユーザ関心情報の影響が大きい。
そこで本研究では, オフライン抽出段階とオンライン推論段階からなる, EfficieNt Clustering に基づく twO-stage interest moDEling (ENCODE) と呼ばれる2段階の効率的な長期シーケンスモデリング手法を提案する。
上記の2つの基本的な要件を満たすだけでなく、オンラインサービスの効率性と精度の望ましいバランスも達成します。
具体的には、オフラインの抽出段階では、ENCODEは全動作シーケンスをクラスタリングし、正確な関心を抽出する。
クラスタリングプロセスのオーバーヘッドを軽減するため,新しい特徴空間における相対的な対の行動距離を保存するメトリック学習に基づく次元削減アルゴリズムを設計する。
オンライン推論の段階では、ECNODEは、ターゲットアイテムとの関連性を予測するために、既成のユーザ関心を生かしている。
さらに,ユーザの関心事と対象項目の関連性をさらに確保するために,ENCODEのパイプライン全体を通して,同じ関連度基準を採用する。
提案手法の有効性と有効性を実証し,SOTAとの比較を行った。
関連論文リスト
- GEMs: Breaking the Long-Sequence Barrier in Generative Recommendation with a Multi-Stream Decoder [54.64137490632567]
本稿では,長期的履歴からユーザのシーケンスをキャプチャする新しい統一フレームワークを提案する。
GEM(Generative Multi-streamer)は、ユーザのシーケンスを3つのストリームに分割する。
大規模産業データセットに対する大規模な実験により、GEMは推奨精度において最先端の手法を大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2026-02-14T06:42:56Z) - Unleashing the Potential of Sparse Attention on Long-term Behaviors for CTR Prediction [17.78352301235849]
本研究では,ユーザの長期行動に特化して設計された効率的かつ効果的なモデルであるSparseCTRを提案する。
これらのチャンクに基づいて,ユーザのグローバルな関心を共同で識別する3枝のスパース自己認識機構を提案する。
SparseCTRは効率を向上するだけでなく、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2026-01-25T13:39:26Z) - Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - Long-Sequence Recommendation Models Need Decoupled Embeddings [49.410906935283585]
我々は、既存の長期推薦モデルにおいて無視された欠陥を識別し、特徴付ける。
埋め込みの単一のセットは、注意と表現の両方を学ぶのに苦労し、これら2つのプロセス間の干渉につながります。
本稿では,2つの異なる埋め込みテーブルを別々に学習し,注意と表現を完全に分離する,DARE(Decoupled Attention and Representation Embeddings)モデルを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:45:15Z) - TWIN V2: Scaling Ultra-Long User Behavior Sequence Modeling for Enhanced CTR Prediction at Kuaishou [28.809014888174932]
SIMの強化であるTWIN-V2を導入し、ライフサイクルの振る舞いを圧縮し、より正確で多様なユーザの興味を明らかにする。
効率的なデプロイメントフレームワークの下では、TWIN-V2が主要なトラフィックにデプロイされ、Kuaishouでは毎日数億人のアクティブユーザを提供する。
論文 参考訳(メタデータ) (2024-07-23T10:00:45Z) - IFA: Interaction Fidelity Attention for Entire Lifelong Behaviour Sequence Modeling [25.951109597584747]
生涯にわたるユーザの行動シーケンスは、ユーザの嗜好に関する情報を豊富に提供し、レコメンデーションタスクにおいて印象的な改善を得る。
オンラインサービスにおける厳しいレイテンシ要件を満たすため、ターゲット項目との類似性に基づいて短いサブシーケンスをサンプリングする。
我々は、textbfInteraction textbfFidelity textbfAttention (textbfIFA) と命名されたフルライフロングシーケンスをモデル化するための新しい効率的なパラダイムを提案する。
論文 参考訳(メタデータ) (2024-06-14T06:16:03Z) - Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation [102.24108167002252]
本稿では,複雑で非線形に進化する動的ユーザの嗜好をモデル化する,自己変調型注意ネットワークを提案する。
提案手法がトップNシーケンシャルなレコメンデーションタスクに与える影響を実証的に示すとともに,3つの大規模実世界のデータセットによる結果から,我々のモデルが最先端のパフォーマンスを達成できることを示す。
論文 参考訳(メタデータ) (2022-03-30T03:54:11Z) - Sequential Search with Off-Policy Reinforcement Learning [48.88165680363482]
本稿では,RNN学習フレームワークとアテンションモデルからなる,スケーラブルなハイブリッド学習モデルを提案する。
新たな最適化のステップとして、1つのRNNパスに複数の短いユーザシーケンスをトレーニングバッチ内に収める。
また、マルチセッションパーソナライズされた検索ランキングにおける非政治強化学習の利用についても検討する。
論文 参考訳(メタデータ) (2022-02-01T06:52:40Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。