論文の概要: Modeling High-order Interactions across Multi-interests for Micro-video
Reommendation
- arxiv url: http://arxiv.org/abs/2104.00305v1
- Date: Thu, 1 Apr 2021 07:20:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 02:03:17.095913
- Title: Modeling High-order Interactions across Multi-interests for Micro-video
Reommendation
- Title(参考訳): マイクロビデオリメンデーションのための多目的間高次相互作用のモデル化
- Authors: Dong Yao, Shengyu Zhang, Zhou Zhao, Wenyan Fan, Jieming Zhu, Xiuqiang
He, Fei Wu
- Abstract要約: 利用者の興味表現を高めるためのセルフオーバーCoアテンションモジュールを提案します。
特に、まず相関パターンを異なるレベルでモデル化し、次に自己注意を使って特定のレベルで相関パターンをモデル化します。
- 参考スコア(独自算出の注目度): 65.16624625748068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized recommendation system has become pervasive in various video
platform. Many effective methods have been proposed, but most of them didn't
capture the user's multi-level interest trait and dependencies between their
viewed micro-videos well. To solve these problems, we propose a Self-over-Co
Attention module to enhance user's interest representation. In particular, we
first use co-attention to model correlation patterns across different levels
and then use self-attention to model correlation patterns within a specific
level. Experimental results on filtered public datasets verify that our
presented module is useful.
- Abstract(参考訳): パーソナライズドレコメンデーションシステムは様々なビデオプラットフォームで普及している。
多くの効果的な方法が提案されているが、そのほとんどは、見るマイクロビデオ間のユーザのマルチレベルな関心や依存関係をうまく捉えていなかった。
これらの問題を解決するために,ユーザの関心表現を強化するセルフオーバーCoアテンションモジュールを提案する。
特に、まず、異なるレベルの相関パターンをモデル化するためにコアテンションを使用し、次に特定のレベルの相関パターンをモデル化するために自己アテンションを使用します。
フィルタされた公開データセットの実験結果から,提案モジュールが有用であることが確認された。
関連論文リスト
- FuXi-$α$: Scaling Recommendation Model with Feature Interaction Enhanced Transformer [81.12174905444229]
近年の進歩は、大規模レコメンデーションモデルに逐次レコメンデーションモデルを拡張することが効果的な戦略であることを示している。
これらの問題に対処するために、FuXi-$alpha$と呼ばれる新しいモデルを提案する。
我々のモデルは既存のモデルよりも優れており、モデルのサイズが大きくなるにつれてその性能は継続的に向上する。
論文 参考訳(メタデータ) (2025-02-05T09:46:54Z) - MixRec: Heterogeneous Graph Collaborative Filtering [21.96510707666373]
そこで本稿では,MixRecを用いたグラフ協調フィルタリングモデルを提案する。
本モデルでは,意図的不整合とマルチビヘイビア・モデリングを取り入れてこれを実現している。
また、自己教師付きデータ拡張の利点を適応的に探求する、新しいコントラスト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2024-12-18T13:12:36Z) - Multimodal Difference Learning for Sequential Recommendation [5.243083216855681]
ユーザの関心とアイテムの関係は、さまざまなモダリティによって異なる、と我々は主張する。
本稿では,MDSRec のシークエンシャルレコメンデーションのための新しいマルチモーダルラーニングフレームワークを提案する。
5つの実世界のデータセットの結果は、最先端のベースラインよりもMDSRecの方が優れていることを示している。
論文 参考訳(メタデータ) (2024-12-11T05:08:19Z) - MUFM: A Mamba-Enhanced Feedback Model for Micro Video Popularity Prediction [1.7040391128945196]
ユーザフィードバックと動的イベントインタラクションにおける長期的依存関係をキャプチャするフレームワークを導入する。
大規模なオープンソースマルチモーダルデータセットに関する我々の実験は、我々のモデルが最先端のアプローチを23.2%上回っていることを示している。
論文 参考訳(メタデータ) (2024-11-23T05:13:27Z) - DiffMM: Multi-Modal Diffusion Model for Recommendation [19.43775593283657]
DiffMMと呼ばれる新しいマルチモーダルグラフ拡散モデルを提案する。
本フレームワークは,モダリティを意識したグラフ拡散モデルとクロスモーダルコントラスト学習パラダイムを統合し,モダリティを意識したユーザ表現学習を改善する。
論文 参考訳(メタデータ) (2024-06-17T17:35:54Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - Contrastive Meta Learning with Behavior Multiplicity for Recommendation [42.15990960863924]
優れたインフォームドレコメンデーションフレームワークは、ユーザが関心のあるアイテムを識別するだけでなく、さまざまなオンラインプラットフォームの収益にも貢献できる。
本稿では,コントラストメタラーニング(Contrastive Meta Learning, CML)を提案する。
提案手法は,様々な最先端のレコメンデーション手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-02-17T08:51:24Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - Bayesian Attention Modules [65.52970388117923]
実装や最適化が容易な,スケーラブルな注目バージョンを提案する。
本実験は,提案手法が対応するベースラインに対して一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-20T20:30:55Z) - Predicting the Popularity of Micro-videos with Multimodal Variational
Encoder-Decoder Framework [54.194340961353944]
マイクロビデオ人気タスクのためのマルチモーダル変分エンコーダ・デコーダフレームワークを提案する。
MMVEDは、その人気レベルに情報を与えるマイクロビデオの埋め込みを学習する。
Xiguaから収集した公開データセットとデータセットで実施された実験は、提案したMMVEDフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-28T06:08:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。