論文の概要: GUME: Graphs and User Modalities Enhancement for Long-Tail Multimodal Recommendation
- arxiv url: http://arxiv.org/abs/2407.12338v1
- Date: Wed, 17 Jul 2024 06:29:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 18:17:30.656103
- Title: GUME: Graphs and User Modalities Enhancement for Long-Tail Multimodal Recommendation
- Title(参考訳): GUME: 長期マルチモーダル勧告のためのグラフとユーザモダリティ向上
- Authors: Guojiao Lin, Zhen Meng, Dongjie Wang, Qingqing Long, Yuanchun Zhou, Meng Xiao,
- Abstract要約: 本稿では,長期マルチモーダルレコメンデーションのための新しいグラフとユーザモダリティエンハンスメント(GUME)を提案する。
具体的には、アイテム間のマルチモーダルな類似性を用いて、まずユーザ-テムグラフを拡張します。
次に、明示的なインタラクション機能と拡張された関心機能という2つのタイプのユーザモダリティを構築します。
- 参考スコア(独自算出の注目度): 13.1192216083304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal recommendation systems (MMRS) have received considerable attention from the research community due to their ability to jointly utilize information from user behavior and product images and text. Previous research has two main issues. First, many long-tail items in recommendation systems have limited interaction data, making it difficult to learn comprehensive and informative representations. However, past MMRS studies have overlooked this issue. Secondly, users' modality preferences are crucial to their behavior. However, previous research has primarily focused on learning item modality representations, while user modality representations have remained relatively simplistic.To address these challenges, we propose a novel Graphs and User Modalities Enhancement (GUME) for long-tail multimodal recommendation. Specifically, we first enhance the user-item graph using multimodal similarity between items. This improves the connectivity of long-tail items and helps them learn high-quality representations through graph propagation. Then, we construct two types of user modalities: explicit interaction features and extended interest features. By using the user modality enhancement strategy to maximize mutual information between these two features, we improve the generalization ability of user modality representations. Additionally, we design an alignment strategy for modality data to remove noise from both internal and external perspectives. Extensive experiments on four publicly available datasets demonstrate the effectiveness of our approach.
- Abstract(参考訳): マルチモーダルレコメンデーションシステム(MMRS)は,ユーザ行動や製品イメージ,テキストなどの情報を共同で活用する能力から,研究コミュニティから大きな注目を集めている。
これまでの研究には2つの問題があった。
まず,レコメンデーションシステムにおける多くのロングテール項目は,インタラクションデータに制限があり,包括的かつ情報的表現の習得が困難である。
しかし、過去のMMRS研究はこの問題を見落としている。
第二に、ユーザのモダリティ嗜好は行動に不可欠である。
しかし,従来の研究は主に項目のモダリティ表現の学習に重点を置いていたが,ユーザモダリティ表現は比較的単純であり,これらの課題に対処するために,長期マルチモーダルレコメンデーションのための新しいグラフとユーザモダリティ拡張(GUME)を提案する。
具体的には、アイテム間のマルチモーダルな類似性を用いて、まずユーザ-テムグラフを拡張します。
これにより、ロングテールアイテムの接続性が向上し、グラフの伝搬を通じて高品質な表現を学ぶのに役立ちます。
次に,明示的なインタラクション機能と拡張された関心機能という,2種類のユーザモダリティを構築した。
これら2つの特徴間の相互情報を最大化するために,ユーザモダリティ拡張戦略を用いることで,ユーザモダリティ表現の一般化能力を向上させる。
さらに、内部と外部の両方の観点からノイズを取り除くために、モダリティデータのアライメント戦略を設計する。
4つの公開データセットに対する大規模な実験は、我々のアプローチの有効性を実証している。
関連論文リスト
- LLM-assisted Explicit and Implicit Multi-interest Learning Framework for Sequential Recommendation [50.98046887582194]
本研究では,ユーザの興味を2つのレベル – 行動と意味論 – でモデル化する,明示的で暗黙的な多目的学習フレームワークを提案する。
提案するEIMFフレームワークは,小型モデルとLLMを効果的に組み合わせ,多目的モデリングの精度を向上させる。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Triple Modality Fusion: Aligning Visual, Textual, and Graph Data with Large Language Models for Multi-Behavior Recommendations [12.154043062308201]
本稿では,三重モダリティの融合を活かした,多行動レコメンデーションのための新しいフレームワークを提案する。
提案モデルであるTriple Modality Fusion (TMF)は,大規模言語モデル(LLM)のパワーを利用して,これらの3つのモダリティを調整・統合する。
大規模な実験により,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2024-10-16T04:44:15Z) - Retrieval Augmentation via User Interest Clustering [57.63883506013693]
インダストリアルレコメンデータシステムは、ユーザ・イテム・エンゲージメントのパターンに敏感である。
本稿では,ユーザの関心を効率的に構築し,計算コストの低減を図る新しい手法を提案する。
当社のアプローチはMetaの複数の製品に展開されており、ショートフォームビデオ関連の推奨を助長しています。
論文 参考訳(メタデータ) (2024-08-07T16:35:10Z) - LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation [58.04939553630209]
現実世界のシステムでは、ほとんどのユーザーはほんの一握りのアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のシークエンシャルレコメンデーションシステムに困難をもたらす。
本稿では,これらの課題に対処するため,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
論文 参考訳(メタデータ) (2024-05-31T07:24:42Z) - Knowledge-Aware Multi-Intent Contrastive Learning for Multi-Behavior Recommendation [6.522900133742931]
マルチ行動レコメンデーションは、ビュー、カートの追加、購入など、さまざまな行動に基づいたより正確な選択を提供する。
本稿では,KAMCL(Knowledge-Aware Multi-Intent Contrastive Learning)モデルを提案する。
このモデルは、インテントを構築するために知識グラフ内の関係を利用し、より正確なレコメンデーションを達成するためのインテントの観点から、ユーザのマルチビヘイビア間の接続をマイニングすることを目的としている。
論文 参考訳(メタデータ) (2024-04-18T08:39:52Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - DEKGCI: A double-sided recommendation model for integrating knowledge
graph and user-item interaction graph [0.0]
本稿では,新しい両面推薦モデルであるDECGCIを提案する。
ユーザ側でのユーザ表現を豊かにするために,ユーザ-イテム相互作用グラフからの高次協調信号を使用する。
論文 参考訳(メタデータ) (2023-06-24T01:54:49Z) - Knowledge Enhancement for Multi-Behavior Contrastive Recommendation [39.50243004656453]
本稿では,KMCLR(Knowledge Enhancement Multi-Behavior Contrastive Learning Recommendation)フレームワークを提案する。
本研究では,ユーザのパーソナライズされた行動情報を抽出し,ユーザ埋め込み強化のためのマルチ行動学習モジュールを設計する。
最適化段階では、粗粒度共通性とユーザの複数行動間の微粒度差をモデル化し、推奨効果をさらに改善する。
論文 参考訳(メタデータ) (2023-01-13T06:24:33Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - Knowledge-Enhanced Hierarchical Graph Transformer Network for
Multi-Behavior Recommendation [56.12499090935242]
本研究では,ユーザとレコメンデータシステムにおける項目間の多種類の対話パターンを探索する知識強化階層型グラフトランスフォーマネットワーク(KHGT)を提案する。
KHGTはグラフ構造化ニューラルネットワーク上に構築され、タイプ固有の振る舞い特性をキャプチャする。
KHGTは、様々な評価設定において、最先端のレコメンデーション手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-08T09:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。