論文の概要: Efficient Large-Scale Cross-Domain Sequential Recommendation with Dynamic State Representations
- arxiv url: http://arxiv.org/abs/2508.20945v1
- Date: Thu, 28 Aug 2025 16:05:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.499626
- Title: Efficient Large-Scale Cross-Domain Sequential Recommendation with Dynamic State Representations
- Title(参考訳): 動的状態表現を用いた大規模クロスドメインシーケンスレコメンデーションの効率化
- Authors: Manuel V. Loureiro, Steven Derby, Aleksei Medvedev, Alejandro Ariza-Casabona, Gonzalo Fiz Pontiveros, Tri Kurniawan Wijaya,
- Abstract要約: 本稿では、ドメイン間の注意を2つの革新的なメカニズムに置き換えることで、スケーラブルなマルチドメインレコメンデーションシステムのための新しいアプローチを提案する。
まず,ドメイン遷移固有情報を考慮した新しい位置埋め込みを提案する。
第二に、各ドメインの動的状態表現を導入し、その後のトークン予測中に保存およびアクセスする。
- 参考スコア(独自算出の注目度): 36.44078481424322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, autoregressive recommendation models (ARMs), such as Meta's HSTU model, have emerged as a major breakthrough over traditional Deep Learning Recommendation Models (DLRMs), exhibiting the highly sought-after scaling law behaviour. However, when applied to multi-domain scenarios, the transformer architecture's attention maps become a computational bottleneck, as they attend to all items across every domain. To tackle this challenge, systems must efficiently balance inter and intra-domain knowledge transfer. In this work, we introduce a novel approach for scalable multi-domain recommendation systems by replacing full inter-domain attention with two innovative mechanisms: 1) Transition-Aware Positional Embeddings (TAPE): We propose novel positional embeddings that account for domain-transition specific information. This allows attention to be focused solely on intra-domain items, effectively reducing the unnecessary computational cost associated with attending to irrelevant domains. 2) Dynamic Domain State Representation (DDSR): We introduce a dynamic state representation for each domain, which is stored and accessed during subsequent token predictions. This enables the efficient transfer of relevant domain information without relying on full attention maps. Our method offers a scalable solution to the challenges posed by large-scale, multi-domain recommendation systems and demonstrates significant improvements in retrieval tasks by separately modelling and combining inter- and intra-domain representations.
- Abstract(参考訳): 近年、メタのHSTUモデルのような自己回帰レコメンデーションモデル(ARM)は、従来のディープラーニングレコメンデーションモデル(DLRM)に対する大きなブレークスルーとして現れ、非常に望まれるスケーリング法行動を示している。
しかし、マルチドメインのシナリオに適用すると、トランスフォーマーアーキテクチャのアテンションマップは計算のボトルネックとなり、各ドメインのすべての項目に付随する。
この課題に対処するには、システムはドメイン間の知識伝達とドメイン内の知識伝達を効率的にバランスさせなければならない。
本研究では、ドメイン間の注意を2つの革新的なメカニズムに置き換えることで、スケーラブルなマルチドメインレコメンデーションシステムに新たなアプローチを導入する。
1) 遷移対応位置埋め込み(TAPE): ドメイン遷移特定情報を考慮した新しい位置埋め込みを提案する。
これにより、ドメイン内の項目のみに注意を向けることができ、無関係なドメインへの出席に伴う不要な計算コストを効果的に削減できる。
2) 動的ドメイン状態表現(DDSR): 各ドメインの動的状態表現を導入し、その後のトークン予測中に保存およびアクセスする。
これにより、フルアテンションマップに頼ることなく、関連するドメイン情報の効率的な転送が可能になる。
提案手法は,大規模マルチドメインレコメンデーションシステムによる課題に対するスケーラブルな解決策を提供し,ドメイン間およびドメイン間の表現を個別にモデル化し,組み合わせることで,検索タスクの大幅な改善を示す。
関連論文リスト
- LLM-RecG: A Semantic Bias-Aware Framework for Zero-Shot Sequential Recommendation [5.512301280728178]
ゼロショットクロスドメインシーケンシャルレコメンデーション(ZCDSR)は、追加のトレーニングや微調整なしで、目に見えないドメインでの予測を可能にする。
大規模言語モデル(LLM)の最近の進歩は、ドメイン間の知識伝達を容易にすることで、ZCDSRを大幅に強化している。
本稿では,アイテムレベルとシーケンシャルレベルの両方において,ドメイン間のアライメントを改善するセマンティックバイアス対応フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-31T15:43:21Z) - Investigating the potential of Sparse Mixtures-of-Experts for multi-domain neural machine translation [59.41178047749177]
トレーニング中に見られるさまざまなドメインのデータを扱うことができ、トレーニング中に見つからないドメインに対して堅牢な効率的なモデルを開発することを目的として、マルチドメインニューラルネットワーク翻訳に重点を置いている。
SMOE(Sparse Mixture-of-Experts)モデルは、効率的なモデルスケーリングを可能にするため、このタスクに適していると仮定する。
マルチドメインシナリオにおけるSMoEの有用性を検証するための一連の実験を行い、Transformerの簡単な幅スケーリングは、実際はよりシンプルで驚くほど効率的なアプローチであり、SMoEと同等の性能レベルに達することを発見した。
論文 参考訳(メタデータ) (2024-07-01T09:45:22Z) - Large-Scale Multi-Domain Recommendation: an Automatic Domain Feature Extraction and Personalized Integration Framework [30.46152832695426]
大規模マルチドメインレコメンデーションのための自動ドメイン特徴抽出とパーソナライズド統合(DFEI)フレームワークを提案する。
このフレームワークは個々のユーザの振る舞いを自動的にドメイン内のすべてのユーザの振る舞いの集約に変換し、ドメインの機能として機能します。
20以上のドメインからなるパブリックデータセットと産業データセットの実験結果から,提案フレームワークがSOTAベースラインと比較して大幅に性能が向上していることが明らかとなった。
論文 参考訳(メタデータ) (2024-04-12T09:57:17Z) - Role Prompting Guided Domain Adaptation with General Capability Preserve
for Large Language Models [55.51408151807268]
特定のドメインに合わせると、LLM(Large Language Models)は破滅的な忘れを経験する傾向がある。
同時に複数のドメインのための汎用モデルを構築することで、全体的なパフォーマンスが低下することが多い。
RolE Prompting Guided Multi-Domain Adaptation (REGA) 戦略を提案する。
論文 参考訳(メタデータ) (2024-03-05T08:22:41Z) - Improving Intrusion Detection with Domain-Invariant Representation Learning in Latent Space [4.871119861180455]
マルチタスク学習を用いた2相表現学習手法を提案する。
我々は、先行空間と潜時空間の間の相互情報の最小化により、潜時空間を解き放つ。
モデルの有効性を複数のサイバーセキュリティデータセットで評価する。
論文 参考訳(メタデータ) (2023-12-28T17:24:13Z) - Exploiting Graph Structured Cross-Domain Representation for Multi-Domain
Recommendation [71.45854187886088]
マルチドメインレコメンデータシステムは、クロスドメイン表現学習とポジティブな知識伝達の恩恵を受ける。
我々はMAGRecと呼ばれる手法のコンテキスト情報として時間的ドメイン内相互作用とドメイン間相互作用を用いる。
我々は、MAGRecが最先端の手法を一貫して上回る様々なシナリオで、公開データセットで実験を行う。
論文 参考訳(メタデータ) (2023-02-12T19:51:32Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Dual Attentive Sequential Learning for Cross-Domain Click-Through Rate
Prediction [76.98616102965023]
クロスドメインレコメンダシステムは、コールドスタートとスパシティの問題に対処するための強力な方法である。
本稿では,二元学習機構に基づくクロスドメインシーケンシャルなレコメンデーション手法を提案する。
論文 参考訳(メタデータ) (2021-06-05T01:21:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。