論文の概要: IFA: Interaction Fidelity Attention for Entire Lifelong Behaviour Sequence Modeling
- arxiv url: http://arxiv.org/abs/2406.09742v1
- Date: Fri, 14 Jun 2024 06:16:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 22:08:59.703276
- Title: IFA: Interaction Fidelity Attention for Entire Lifelong Behaviour Sequence Modeling
- Title(参考訳): IFA:生涯行動系列モデリングのためのインタラクション・フィデリティ・アテンション
- Authors: Wenhui Yu, Chao Feng, Yanze Zhang, Lantao Hu, Peng Jiang, Han Li,
- Abstract要約: 生涯にわたるユーザの行動シーケンスは、ユーザの嗜好に関する情報を豊富に提供し、レコメンデーションタスクにおいて印象的な改善を得る。
オンラインサービスにおける厳しいレイテンシ要件を満たすため、ターゲット項目との類似性に基づいて短いサブシーケンスをサンプリングする。
我々は、textbfInteraction textbfFidelity textbfAttention (textbfIFA) と命名されたフルライフロングシーケンスをモデル化するための新しい効率的なパラダイムを提案する。
- 参考スコア(独自算出の注目度): 25.951109597584747
- License:
- Abstract: The lifelong user behavior sequence provides abundant information of user preference and gains impressive improvement in the recommendation task, however increases computational consumption significantly. To meet the severe latency requirement in online service, a short sub-sequence is sampled based on similarity to the target item. Unfortunately, items not in the sub-sequence are abandoned, leading to serious information loss. In this paper, we propose a new efficient paradigm to model the full lifelong sequence, which is named as \textbf{I}nteraction \textbf{F}idelity \textbf{A}ttention (\textbf{IFA}). In IFA, we input all target items in the candidate set into the model at once, and leverage linear transformer to reduce the time complexity of the cross attention between the candidate set and the sequence without any interaction information loss. We also additionally model the relationship of all target items for optimal set generation, and design loss function for better consistency of training and inference. We demonstrate the effectiveness and efficiency of our model by off-line and online experiments in the recommender system of Kuaishou.
- Abstract(参考訳): 生涯にわたるユーザの行動シーケンスは、ユーザの嗜好に関する情報を豊富に提供し、推奨タスクを著しく改善するが、計算消費は著しく増加する。
オンラインサービスにおける厳しいレイテンシ要件を満たすため、ターゲット項目との類似性に基づいて短いサブシーケンスをサンプリングする。
残念ながら、サブシーケンスにないアイテムは放棄され、重大な情報を失う。
本稿では, フルライフロングシーケンスをモデル化するための新しい効率的なパラダイムを提案する。これは \textbf{I}nteraction \textbf{F}idelity \textbf{A}ttention (\textbf{IFA}) と命名される。
In IFA, we input all target items in the candidate set at the model and leverage linear transformer to the time complexity of the cross attention between the candidate set and the sequence without any interaction information loss。
また、最適セット生成のための対象項目と、トレーニングと推論の整合性を改善する設計損失関数の関係をモデル化する。
クアイショーの推薦システムにおいて,オフラインおよびオンライン実験によるモデルの有効性と有効性を示す。
関連論文リスト
- Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - MaTrRec: Uniting Mamba and Transformer for Sequential Recommendation [6.74321828540424]
ユーザ行動系列内の動的嗜好や依存関係を分析し,パーソナライズされたレコメンデーションを提供することを目的としている。
状態空間モデル(SSM)表現モデルであるMambaに着想を得た結果,Mambaの推奨効率は短い相互作用シーケンスで制限されることがわかった。
我々は,MambaとTransformerの強みを組み合わせた新しいモデルMaTrRecを提案する。
論文 参考訳(メタデータ) (2024-07-27T12:07:46Z) - CItruS: Chunked Instruction-aware State Eviction for Long Sequence Modeling [52.404072802235234]
本稿では,下流タスクに有用な注目度を隠蔽状態の消去プロセスに統合する新しいモデリング手法であるChunked Instruction-Aware State Eviction(CItruS)を紹介する。
トレーニング不要な手法は,メモリ予算が同じ条件下で,複数の強いベースライン上での長いシーケンス理解および検索タスクにおいて,優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-17T18:34:58Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z) - Sequential Recommendation via Stochastic Self-Attention [68.52192964559829]
Transformerベースのアプローチでは、アイテムをベクトルとして埋め込んで、ドット積の自己アテンションを使用してアイテム間の関係を測定する。
本稿では,これらの問題を克服するための新しいtextbfStochastic textbfSelf-textbfAttention (STOSA) を提案する。
我々は、アイテムと項目の位置関係を列で特徴づける新しいワッサースタイン自己保持モジュールを考案した。
論文 参考訳(メタデータ) (2022-01-16T12:38:45Z) - Causal Incremental Graph Convolution for Recommender System Retraining [89.25922726558875]
実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
論文 参考訳(メタデータ) (2021-08-16T04:20:09Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Sequence Adaptation via Reinforcement Learning in Recommender Systems [8.909115457491522]
そこで我々は,SARモデルを提案する。SARモデルは,ユーザとイテムの相互作用のシーケンス長をパーソナライズされた方法で調整する。
さらに,逐次レコメンデーションの精度を批評家ネットワークの予測累積報酬と整合させるために,共同損失関数を最適化する。
実世界の4つのデータセットに対する実験的な評価は,提案モデルがいくつかのベースラインアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-31T13:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。