論文の概要: Revisiting Self-attention for Cross-domain Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2505.21811v1
- Date: Tue, 27 May 2025 22:38:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.320775
- Title: Revisiting Self-attention for Cross-domain Sequential Recommendation
- Title(参考訳): クロスドメインシークエンシャルレコメンデーションのための自己注意の再考
- Authors: Clark Mingxuan Ju, Leonardo Neves, Bhuvesh Kumar, Liam Collins, Tong Zhao, Yuwei Qiu, Qing Dou, Sohail Nizam, Sen Yang, Neil Shah,
- Abstract要約: クロスドメインシーケンシャルレコメンデーション(CDSR)は、複数のドメインにまたがるユーザインタラクションの将来の振る舞いを予測することを目的としている。
既存のCDSRフレームワークは、主に自己アテンショントランスフォーマー上に構築されており、ドメイン固有のコンポーネントを明示的に注入することで改善を目指している。
本研究は,自己意識の向上という新たな視点から,単純なモデルに対するCDSRの性能向上を目指す。
- 参考スコア(独自算出の注目度): 33.4466397598203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential recommendation is a popular paradigm in modern recommender systems. In particular, one challenging problem in this space is cross-domain sequential recommendation (CDSR), which aims to predict future behaviors given user interactions across multiple domains. Existing CDSR frameworks are mostly built on the self-attention transformer and seek to improve by explicitly injecting additional domain-specific components (e.g. domain-aware module blocks). While these additional components help, we argue they overlook the core self-attention module already present in the transformer, a naturally powerful tool to learn correlations among behaviors. In this work, we aim to improve the CDSR performance for simple models from a novel perspective of enhancing the self-attention. Specifically, we introduce a Pareto-optimal self-attention and formulate the cross-domain learning as a multi-objective problem, where we optimize the recommendation task while dynamically minimizing the cross-domain attention scores. Our approach automates knowledge transfer in CDSR (dubbed as AutoCDSR) -- it not only mitigates negative transfer but also encourages complementary knowledge exchange among auxiliary domains. Based on the idea, we further introduce AutoCDSR+, a more performant variant with slight additional cost. Our proposal is easy to implement and works as a plug-and-play module that can be incorporated into existing transformer-based recommenders. Besides flexibility, it is practical to deploy because it brings little extra computational overheads without heavy hyper-parameter tuning. AutoCDSR on average improves Recall@10 for SASRec and Bert4Rec by 9.8% and 16.0% and NDCG@10 by 12.0% and 16.7%, respectively. Code is available at https://github.com/snap-research/AutoCDSR.
- Abstract(参考訳): シークエンシャルレコメンデーションは現代のレコメンデーションシステムで一般的なパラダイムである。
特に、この分野の課題の1つはクロスドメインシーケンシャルレコメンデーション(CDSR)である。
既存のCDSRフレームワークは、主に自己アテンショントランスフォーマー上に構築されており、追加のドメイン固有のコンポーネント(ドメイン対応モジュールブロックなど)を明示的に注入することで改善を目指している。
これらの追加コンポーネントは役に立つが、振る舞い間の相関を学習する自然な強力なツールであるトランスフォーマーにすでに存在しているコア自己認識モジュールを見落としている、と我々は主張する。
本研究は,自己意識の向上という新たな視点から,単純なモデルに対するCDSRの性能向上を目指す。
具体的には、パレート最適自己注意を導入し、クロスドメイン学習を多目的問題として定式化し、クロスドメインアテンションスコアを動的に最小化しながらレコメンデーションタスクを最適化する。
我々のアプローチはCDSR(AutoCDSR)における知識伝達を自動化する -- 負の伝達を緩和するだけでなく、補助ドメイン間の補完的な知識交換を促進する。
このアイデアに基づいて,若干のコストがかかるより高性能なAutoCDSR+を導入する。
提案手法は実装が容易で,既存のトランスフォーマーベースのレコメンデータに組み込むことができるプラグイン・アンド・プレイモジュールとして機能する。
柔軟性に加えて、重いハイパーパラメータチューニングなしで余分な計算オーバーヘッドを伴わないため、デプロイは実用的である。
AutoCDSRはSASRecのRecall@10を9.8%、NDCG@10を12.0%、Bert4Recを16.7%改善している。
コードはhttps://github.com/snap-research/AutoCDSRで入手できる。
関連論文リスト
- Bridge the Domains: Large Language Models Enhanced Cross-domain Sequential Recommendation [30.116213884571803]
クロスドメインシークエンシャルレコメンデーション (CDSR) は、様々なドメインにわたるユーザの歴史的なインタラクションから好みを抽出することを目的としている。
既存のCDSRメソッドは、クロスドメインアイテムの関係を学習するために、すべてのドメインでインタラクションを所有するユーザに依存している。
強力な表現力と推論能力により、LLM(Large Language Models)はこれらの2つの問題に対処することを約束している。
論文 参考訳(メタデータ) (2025-04-25T14:30:25Z) - Behavior Importance-Aware Graph Neural Architecture Search for Cross-Domain Recommendation [49.03831702224862]
クロスドメインレコメンデーション(CDR)は、レコメンデーションシステムにおけるデータの分散とコールドスタートの問題を軽減する。
グラフニューラルネットワーク(GNN)を用いた最近のCDRアプローチは、複雑なユーザとテムのインタラクションをキャプチャする。
BiGNASは、GNNアーキテクチャとCDRのデータ重要度を共同で最適化するフレームワークである。
論文 参考訳(メタデータ) (2025-03-11T04:30:18Z) - Exploring User Retrieval Integration towards Large Language Models for Cross-Domain Sequential Recommendation [66.72195610471624]
Cross-Domain Sequential Recommendationは、異なるドメイン間でユーザのシーケンシャルな好みをマイニングし、転送することを目的としている。
本稿では,ユーザ検索手法を探索し,CDSRの性能向上を目的とした URLLM という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T09:19:54Z) - Towards Open-world Cross-Domain Sequential Recommendation: A Model-Agnostic Contrastive Denoising Approach [16.09514981871128]
クロスドメインシーケンシャルレコメンデーション(CDSR)は、従来のシーケンシャルレコメンデーション(SR)システムに存在するデータ空間の問題に対処することを目的としている。
現実世界のレコメンデーションシステムでは、CDSRシナリオは通常、疎い振る舞いを持つ長い尾を持つユーザーの大多数と、一つのドメインにしか存在しないコールドスタートユーザーで構成される。
論文 参考訳(メタデータ) (2023-11-08T15:33:06Z) - Parameter-efficient Tuning of Large-scale Multimodal Foundation Model [68.24510810095802]
我々はこれらの課題を克服するために、クロスモーダル転送(Aurora)のための優雅なプロンプトフレームワークを提案する。
既存のアーキテクチャの冗長性を考慮すると、まずモード近似を用いて0.1Mのトレーニング可能なパラメータを生成し、マルチモーダルプロンプトチューニングを実装する。
6つのクロスモーダルベンチマークの徹底的な評価は、最先端のベンチマークを上回るだけでなく、完全な微調整アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-15T06:40:56Z) - Plug-and-Play Regulators for Image-Text Matching [76.28522712930668]
微細な対応と視覚的セマンティックなアライメントの爆発は、画像とテキストのマッチングにおいて大きな可能性を秘めている。
我々は、メッセージ出力を効率的にエンコードして、コンテキストを自動生成し、モーダル表現を集約する、シンプルだが非常に効果的な2つのレギュレータを開発した。
MSCOCOとFlickr30Kデータセットの実験は、複数のモデルで印象的で一貫したR@1ゲインをもたらすことができることを実証している。
論文 参考訳(メタデータ) (2023-03-23T15:42:05Z) - Diverse Preference Augmentation with Multiple Domains for Cold-start
Recommendations [92.47380209981348]
メタラーニングをベースとした多元的ドメインを用いた多元的推論拡張フレームワークを提案する。
我々は、疎結合の場合の過度な適合を扱うために、新しい関心領域において多様な評価を生成する。
これらの評価は、選好メタラーナーを学ぶためのメタトレーニング手順に導入され、優れた一般化能力が得られる。
論文 参考訳(メタデータ) (2022-04-01T10:10:50Z) - Transfer-Meta Framework for Cross-domain Recommendation to Cold-Start
Users [31.949188328354854]
クロスドメインレコメンデーション(CDR)は、補助的な(ソース)ドメインからの豊富な情報を使用して、ターゲットドメインにおけるレコメンダシステムの性能を改善する。
トランスファーステージとメタステージを有するCDR(TMCDR)のためのトランスファーメタフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-11T05:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。