論文の概要: GUME: Graphs and User Modalities Enhancement for Long-Tail Multimodal Recommendation
- arxiv url: http://arxiv.org/abs/2407.12338v1
- Date: Wed, 17 Jul 2024 06:29:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 18:17:30.656103
- Title: GUME: Graphs and User Modalities Enhancement for Long-Tail Multimodal Recommendation
- Title(参考訳): GUME: 長期マルチモーダル勧告のためのグラフとユーザモダリティ向上
- Authors: Guojiao Lin, Zhen Meng, Dongjie Wang, Qingqing Long, Yuanchun Zhou, Meng Xiao,
- Abstract要約: 本稿では,長期マルチモーダルレコメンデーションのための新しいグラフとユーザモダリティエンハンスメント(GUME)を提案する。
具体的には、アイテム間のマルチモーダルな類似性を用いて、まずユーザ-テムグラフを拡張します。
次に、明示的なインタラクション機能と拡張された関心機能という2つのタイプのユーザモダリティを構築します。
- 参考スコア(独自算出の注目度): 13.1192216083304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal recommendation systems (MMRS) have received considerable attention from the research community due to their ability to jointly utilize information from user behavior and product images and text. Previous research has two main issues. First, many long-tail items in recommendation systems have limited interaction data, making it difficult to learn comprehensive and informative representations. However, past MMRS studies have overlooked this issue. Secondly, users' modality preferences are crucial to their behavior. However, previous research has primarily focused on learning item modality representations, while user modality representations have remained relatively simplistic.To address these challenges, we propose a novel Graphs and User Modalities Enhancement (GUME) for long-tail multimodal recommendation. Specifically, we first enhance the user-item graph using multimodal similarity between items. This improves the connectivity of long-tail items and helps them learn high-quality representations through graph propagation. Then, we construct two types of user modalities: explicit interaction features and extended interest features. By using the user modality enhancement strategy to maximize mutual information between these two features, we improve the generalization ability of user modality representations. Additionally, we design an alignment strategy for modality data to remove noise from both internal and external perspectives. Extensive experiments on four publicly available datasets demonstrate the effectiveness of our approach.
- Abstract(参考訳): マルチモーダルレコメンデーションシステム(MMRS)は,ユーザ行動や製品イメージ,テキストなどの情報を共同で活用する能力から,研究コミュニティから大きな注目を集めている。
これまでの研究には2つの問題があった。
まず,レコメンデーションシステムにおける多くのロングテール項目は,インタラクションデータに制限があり,包括的かつ情報的表現の習得が困難である。
しかし、過去のMMRS研究はこの問題を見落としている。
第二に、ユーザのモダリティ嗜好は行動に不可欠である。
しかし,従来の研究は主に項目のモダリティ表現の学習に重点を置いていたが,ユーザモダリティ表現は比較的単純であり,これらの課題に対処するために,長期マルチモーダルレコメンデーションのための新しいグラフとユーザモダリティ拡張(GUME)を提案する。
具体的には、アイテム間のマルチモーダルな類似性を用いて、まずユーザ-テムグラフを拡張します。
これにより、ロングテールアイテムの接続性が向上し、グラフの伝搬を通じて高品質な表現を学ぶのに役立ちます。
次に,明示的なインタラクション機能と拡張された関心機能という,2種類のユーザモダリティを構築した。
これら2つの特徴間の相互情報を最大化するために,ユーザモダリティ拡張戦略を用いることで,ユーザモダリティ表現の一般化能力を向上させる。
さらに、内部と外部の両方の観点からノイズを取り除くために、モダリティデータのアライメント戦略を設計する。
4つの公開データセットに対する大規模な実験は、我々のアプローチの有効性を実証している。
関連論文リスト
- MMBee: Live Streaming Gift-Sending Recommendations via Multi-Modal Fusion and Behaviour Expansion [18.499672566131355]
ギフトインタラクションの正確なモデリングは、ユーザのエクスペリエンスを向上するだけでなく、ストリーマーの収益も増大させる。
従来のレコメンデーション問題として,ライブストリーミングギフト予測に関する先行研究がある。
実時間マルチモーダル・フュージョンとビヘイビア・エクスパンジョンに基づくMMBeeを提案する。
論文 参考訳(メタデータ) (2024-06-15T04:59:00Z) - Knowledge-Aware Multi-Intent Contrastive Learning for Multi-Behavior Recommendation [6.522900133742931]
マルチ行動レコメンデーションは、ビュー、カートの追加、購入など、さまざまな行動に基づいたより正確な選択を提供する。
本稿では,KAMCL(Knowledge-Aware Multi-Intent Contrastive Learning)モデルを提案する。
このモデルは、インテントを構築するために知識グラフ内の関係を利用し、より正確なレコメンデーションを達成するためのインテントの観点から、ユーザのマルチビヘイビア間の接続をマイニングすることを目的としている。
論文 参考訳(メタデータ) (2024-04-18T08:39:52Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - DEKGCI: A double-sided recommendation model for integrating knowledge
graph and user-item interaction graph [0.0]
本稿では,新しい両面推薦モデルであるDECGCIを提案する。
ユーザ側でのユーザ表現を豊かにするために,ユーザ-イテム相互作用グラフからの高次協調信号を使用する。
論文 参考訳(メタデータ) (2023-06-24T01:54:49Z) - Knowledge Enhancement for Multi-Behavior Contrastive Recommendation [39.50243004656453]
本稿では,KMCLR(Knowledge Enhancement Multi-Behavior Contrastive Learning Recommendation)フレームワークを提案する。
本研究では,ユーザのパーソナライズされた行動情報を抽出し,ユーザ埋め込み強化のためのマルチ行動学習モジュールを設計する。
最適化段階では、粗粒度共通性とユーザの複数行動間の微粒度差をモデル化し、推奨効果をさらに改善する。
論文 参考訳(メタデータ) (2023-01-13T06:24:33Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - Knowledge-Enhanced Hierarchical Graph Transformer Network for
Multi-Behavior Recommendation [56.12499090935242]
本研究では,ユーザとレコメンデータシステムにおける項目間の多種類の対話パターンを探索する知識強化階層型グラフトランスフォーマネットワーク(KHGT)を提案する。
KHGTはグラフ構造化ニューラルネットワーク上に構築され、タイプ固有の振る舞い特性をキャプチャする。
KHGTは、様々な評価設定において、最先端のレコメンデーション手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-08T09:44:00Z) - Hyper Meta-Path Contrastive Learning for Multi-Behavior Recommendation [61.114580368455236]
マルチビヘイビア情報によるユーザ購入予測は、現在のレコメンデーションシステムでは難しい問題である。
本稿では,ハイパーメタパスやハイパーメタグラフを構築するためのハイパーメタパスの概念を提案する。
最近のグラフコントラスト学習の成功により、異なる振る舞い間の依存関係を理解するために固定されたスキームを割り当てるのではなく、ユーザ行動パターンの埋め込みを適応的に学習する。
論文 参考訳(メタデータ) (2021-09-07T04:28:09Z) - Modeling High-order Interactions across Multi-interests for Micro-video
Reommendation [65.16624625748068]
利用者の興味表現を高めるためのセルフオーバーCoアテンションモジュールを提案します。
特に、まず相関パターンを異なるレベルでモデル化し、次に自己注意を使って特定のレベルで相関パターンをモデル化します。
論文 参考訳(メタデータ) (2021-04-01T07:20:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。