論文の概要: Decoupled Side Information Fusion for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2204.11046v1
- Date: Sat, 23 Apr 2022 10:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 14:49:56.075352
- Title: Decoupled Side Information Fusion for Sequential Recommendation
- Title(参考訳): シーケンスレコメンデーションのためのデカップリングサイド情報フュージョン
- Authors: Yueqi Xie, Peilin Zhou, Sunghun Kim
- Abstract要約: シーケンスレコメンデーションのためのデカップリングサイド情報融合(DIF-SR)を提案する。
入力から注目層に側情報を移動し、様々な側情報の注意計算とアイテム表現を分離する。
提案手法は現状のSRモデルより安定して優れている。
- 参考スコア(独自算出の注目度): 6.515279047538104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Side information fusion for sequential recommendation (SR) aims to
effectively leverage various side information to enhance the performance of
next-item prediction. Most state-of-the-art methods build on self-attention
networks and focus on exploring various solutions to integrate the item
embedding and side information embeddings before the attention layer. However,
our analysis shows that the early integration of various types of embeddings
limits the expressiveness of attention matrices due to a rank bottleneck and
constrains the flexibility of gradients. Also, it involves mixed correlations
among the different heterogeneous information resources, which brings extra
disturbance to attention calculation. Motivated by this, we propose Decoupled
Side Information Fusion for Sequential Recommendation (DIF-SR), which moves the
side information from the input to the attention layer and decouples the
attention calculation of various side information and item representation. We
theoretically and empirically show that the proposed solution allows
higher-rank attention matrices and flexible gradients to enhance the modeling
capacity of side information fusion. Also, auxiliary attribute predictors are
proposed to further activate the beneficial interaction between side
information and item representation learning. Extensive experiments on four
real-world datasets demonstrate that our proposed solution stably outperforms
state-of-the-art SR models. Further studies show that our proposed solution can
be readily incorporated into current attention-based SR models and
significantly boost performance. Our source code is available at
https://github.com/AIM-SE/DIF-SR.
- Abstract(参考訳): シーケンシャルレコメンデーション(SR)のためのサイド情報融合は、様々なサイド情報を効果的に活用し、次世代予測の性能を高めることを目的としている。
ほとんどの最先端の手法は自己認識ネットワーク上に構築されており、注目層の前にアイテムの埋め込みとサイド情報埋め込みを統合する様々なソリューションの探索に重点を置いている。
しかし, 各種埋め込みの早期統合は, ランクボトルネックによる注意行列の表現性を制限し, 勾配の柔軟性を制限していることを示す。
また、異種情報資源間の相互相関が混在し、注意の計算に余分な障害をもたらす。
そこで本研究では,入力から注目層へ側情報を移動させ,様々な側情報と項目表現の注意計算を分離する逐次レコメンデーション(dif-sr)のための分離側情報融合を提案する。
我々は,提案手法が高次注意行列とフレキシブル勾配を許容し,サイド情報融合のモデル化能力を高めることを理論的かつ実証的に示す。
また、副属性予測器を提案し、副次情報と項目表現学習の有益な相互作用をさらに活性化させる。
4つの実世界のデータセットに対する大規模な実験により、提案手法が最先端のSRモデルより安定して優れていることが示された。
さらなる研究により,提案手法は注目型SRモデルに容易に組み込むことができ,性能が著しく向上することが示された。
ソースコードはhttps://github.com/AIM-SE/DIF-SRで公開されています。
関連論文リスト
- Rethinking Normalization Strategies and Convolutional Kernels for Multimodal Image Fusion [25.140475569677758]
マルチモーダル画像融合は、様々なモーダルからの情報を総合的な画像を得るために統合することを目的としている。
既存の手法では、自然画像の融合を優先し、情報補完とネットワークトレーニング戦略に重点を置く傾向にある。
本稿では,融合目標,統計特性,およびデータ分布に関する2つの課題の有意な差異を論じる。
論文 参考訳(メタデータ) (2024-11-15T08:36:24Z) - Learning Accurate and Enriched Features for Stereo Image Super-Resolution [0.0]
ステレオ画像超解像(ステレオSR)は、代替的な視点から補完情報を組み込むことで、超解像の質を高めることを目的としている。
我々は,空間的詳細を正確に保存し,豊富なコンテキスト情報を組み込むため,MSSFNet(Mixed-scale selective fusion Network)を提案する。
MSSFNetは、定量評価と定性評価の両方において最先端のアプローチよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-23T03:34:17Z) - GASE: Graph Attention Sampling with Edges Fusion for Solving Vehicle Routing Problems [6.084414764415137]
車両のルーティング問題を解決するためにEdges Fusionフレームワークを用いた適応型グラフ注意サンプリングを提案する。
提案手法は,既存の手法を2.08%-6.23%上回り,より強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-05-21T03:33:07Z) - BiVRec: Bidirectional View-based Multimodal Sequential Recommendation [55.87443627659778]
我々は,IDとマルチモーダルの両方で推薦タスクを共同で訓練する,革新的なフレームワークであるBivRecを提案する。
BivRecは5つのデータセットで最先端のパフォーマンスを達成し、様々な実用的な利点を示している。
論文 参考訳(メタデータ) (2024-02-27T09:10:41Z) - Information Screening whilst Exploiting! Multimodal Relation Extraction
with Feature Denoising and Multimodal Topic Modeling [96.75821232222201]
既存のマルチモーダル関係抽出(MRE)研究は、内部情報過剰利用と外部情報過多という2つの共存課題に直面している。
内部情報スクリーニングと外部情報活用を同時に実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:57Z) - Audio-Visual Fusion for Emotion Recognition in the Valence-Arousal Space
Using Joint Cross-Attention [15.643176705932396]
本稿では, A-V 融合のための連成連成連成連接モデルを提案し, A-V のモダリティ間で有意な特徴を抽出する。
ジョイント特徴表現と個々のモダリティの相関に基づいて、クロスアテンション重みを計算する。
以上の結果から,我々の連立アテンショナルA-V融合モデルが,最先端のアプローチより優れたコスト効率のソリューションとなることが示唆された。
論文 参考訳(メタデータ) (2022-09-19T15:01:55Z) - INFOrmation Prioritization through EmPOWERment in Visual Model-Based RL [90.06845886194235]
モデルベース強化学習(RL)のための修正目的を提案する。
相互情報に基づく状態空間モデルに,変分エンパワーメントにインスパイアされた用語を統合する。
本研究は,視覚に基づくロボット制御作業における自然な映像背景を用いたアプローチの評価である。
論文 参考訳(メタデータ) (2022-04-18T23:09:23Z) - Cross Attentional Audio-Visual Fusion for Dimensional Emotion Recognition [13.994609732846344]
最も効果的な感情認識技術は、多種多様な情報ソースを効果的に活用する。
本稿では,音声視覚(A-V)モダリティ間で有意な特徴を抽出するための相互注意型融合手法を提案する。
その結果、我々のA-V融合モデルは、最先端の融合アプローチよりも優れたコスト効率のアプローチであることが示唆された。
論文 参考訳(メタデータ) (2021-11-09T16:01:56Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z) - Collaborative Attention Mechanism for Multi-View Action Recognition [75.33062629093054]
本稿では,多視点行動認識問題を解決するための協調的注意機構(CAM)を提案する。
提案したCAMは,多視点間での注意差を検出し,フレームレベルの情報を適応的に統合し,相互に利益をもたらす。
4つのアクションデータセットの実験では、提案されたCAMは、ビュー毎により良い結果を得るとともに、マルチビューのパフォーマンスも向上する。
論文 参考訳(メタデータ) (2020-09-14T17:33:10Z) - Multi-Granularity Reference-Aided Attentive Feature Aggregation for
Video-based Person Re-identification [98.7585431239291]
ビデオベースの人物再識別は、同じ人物をビデオクリップ間でマッチングすることを目的としている。
本稿では,マルチグラニュラリティ参照属性集約モジュールMG-RAFAを提案する。
本フレームワークは,3つのベンチマークデータセット上での最先端のアブレーション性能を実現する。
論文 参考訳(メタデータ) (2020-03-27T03:49:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。