論文の概要: Time-Aware Adaptive Side Information Fusion for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2512.24246v1
- Date: Tue, 30 Dec 2025 14:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.396009
- Title: Time-Aware Adaptive Side Information Fusion for Sequential Recommendation
- Title(参考訳): 時系列レコメンデーションのための時間認識型適応側情報融合
- Authors: Jie Luo, Wenyu Zhang, Xinming Zhang, Yuan Fang,
- Abstract要約: 本稿では,タイムアウェア適応側情報融合フレームワークを提案する。
TASIFは、グローバルな時間パターンをキャプチャするために、シンプルでプラグアンドプレイのタイムスパンパーティショニング機構を統合している。
4つの公開データセットの実験は、TASIFが最先端のベースラインを大幅に上回っていることを示している。
- 参考スコア(独自算出の注目度): 16.495823510290744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating item-side information, such as category and brand, into sequential recommendation is a well-established and effective approach for improving performance. However, despite significant advancements, current models are generally limited by three key challenges: they often overlook the fine-grained temporal dynamics inherent in timestamps, exhibit vulnerability to noise in user interaction sequences, and rely on computationally expensive fusion architectures. To systematically address these challenges, we propose the Time-Aware Adaptive Side Information Fusion (TASIF) framework. TASIF integrates three synergistic components: (1) a simple, plug-and-play time span partitioning mechanism to capture global temporal patterns; (2) an adaptive frequency filter that leverages a learnable gate to denoise feature sequences adaptively, thereby providing higher-quality inputs for subsequent fusion modules; and (3) an efficient adaptive side information fusion layer, this layer employs a "guide-not-mix" architecture, where attributes guide the attention mechanism without being mixed into the content-representing item embeddings, ensuring deep interaction while ensuring computational efficiency. Extensive experiments on four public datasets demonstrate that TASIF significantly outperforms state-of-the-art baselines while maintaining excellent efficiency in training. Our source code is available at https://github.com/jluo00/TASIF.
- Abstract(参考訳): カテゴリーやブランドなどの項目側情報をシーケンシャルなレコメンデーションに組み込むことは、パフォーマンスを改善するための確立された効果的なアプローチである。
しかし、大きな進歩にもかかわらず、現在のモデルは一般的に3つの重要な課題によって制限されている。それらはしばしば、タイムスタンプに固有の微細な時間的ダイナミクスを見落とし、ユーザインタラクションシーケンスのノイズに対する脆弱性を示し、計算に高価な融合アーキテクチャに依存している。
これらの課題を体系的に解決するために,タイムアウェア適応側情報融合(TASIF)フレームワークを提案する。
TASIFは,(1)グローバル・テンポラル・パターンを捉えるためのシンプルなプラグアンドプレイ時間分割機構,(2)学習可能なゲートを利用して特徴列を適応的に識別する適応周波数フィルタ,(3)効率の良い適応側情報融合層,(3)コンテンツ表現されたアイテムの埋め込みに混入することなく注目機構を案内し,計算効率を確保しながら深い相互作用を確保するための「誘導型混合」アーキテクチャ,の3つの相乗的コンポーネントを統合している。
4つの公開データセットに対する大規模な実験により、TASIFはトレーニングにおける優れた効率を維持しつつ、最先端のベースラインを大幅に上回っていることが示された。
ソースコードはhttps://github.com/jluo00/TASIFで公開されています。
関連論文リスト
- FusAD: Time-Frequency Fusion with Adaptive Denoising for General Time Series Analysis [92.23551599659186]
時系列分析は、金融、医療、産業、気象学などの分野において重要な役割を果たす。
FusADは多様な時系列タスク用に設計された統合分析フレームワークである。
論文 参考訳(メタデータ) (2025-12-16T04:34:27Z) - MAFNet:Multi-frequency Adaptive Fusion Network for Real-time Stereo Matching [2.0202997482095593]
効率的な2次元畳み込みのみを用いて高品質な不均一写像を生成するための多周波適応核融合ネットワーク(MAFNet)を提案する。
提案したMAFNetは,Scene FlowやKITTI 2015などの公開データセット上で,既存のリアルタイム手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-12-04T01:08:38Z) - FAIM: Frequency-Aware Interactive Mamba for Time Series Classification [87.84511960413715]
時系列分類(TSC)は、環境モニタリング、診断、姿勢認識など、多くの実世界の応用において重要である。
本稿では,周波数対応対話型マンバモデルであるFAIMを提案する。
FAIMは既存の最先端(SOTA)手法を一貫して上回り、精度と効率のトレードオフが優れていることを示す。
論文 参考訳(メタデータ) (2025-11-26T08:36:33Z) - FEAT: Full-Dimensional Efficient Attention Transformer for Medical Video Generation [14.903360987684483]
高品質なダイナミック・メディカル・ビデオのためのフル次元能動的アテンション・トランスフォーマであるFEATを提案する。
FEAT-Sは、最先端モデルのEndoraのパラメータのわずか23%しか持たないが、同等またはそれ以上の性能を発揮することを示した。
論文 参考訳(メタデータ) (2025-06-05T12:31:02Z) - FreRA: A Frequency-Refined Augmentation for Contrastive Learning on Time Series Classification [56.925103708982164]
周波数領域からの新たな視点を示し、ダウンストリーム分類の利点として、グローバル、独立、コンパクトの3つを識別する。
本稿では,分類タスクにおける時系列のコントラスト学習に適した,軽量で効果的な周波数補充拡張(FreRA)を提案する。
FreRAは、時系列分類、異常検出、転送学習タスクにおいて、常に10つの主要なベースラインを上回ります。
論文 参考訳(メタデータ) (2025-05-29T07:18:28Z) - SuperFlow++: Enhanced Spatiotemporal Consistency for Cross-Modal Data Pretraining [62.433137130087445]
SuperFlow++は、連続するカメラペアを使用して事前トレーニングと下流タスクを統合する新しいフレームワークである。
SuperFlow++は様々なタスクや運転条件で最先端のメソッドよりも優れています。
強力な一般化性と計算効率により、SuperFlow++は、自動運転におけるデータ効率の高いLiDARベースの認識のための新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2025-03-25T17:59:57Z) - Locally Adaptive One-Class Classifier Fusion with Dynamic $\ell$p-Norm Constraints for Robust Anomaly Detection [17.93058599783703]
局所的なデータ特性に基づいて,融合重みを動的に調整するフレームワークを提案する。
本手法は,計算効率を大幅に向上させる内部点最適化手法を取り入れたものである。
計算効率を維持しながらローカルなデータパターンに適応できるフレームワークの能力は、リアルタイムアプリケーションに特に有用である。
論文 参考訳(メタデータ) (2024-11-10T09:57:13Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。