論文の概要: Mining Latent Structures for Multimedia Recommendation
- arxiv url: http://arxiv.org/abs/2104.09036v1
- Date: Mon, 19 Apr 2021 03:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:27:38.151043
- Title: Mining Latent Structures for Multimedia Recommendation
- Title(参考訳): マルチメディアレコメンデーションのためのマイニング潜在構造
- Authors: Jinghao Zhang, Yanqiao Zhu, Qiang Liu, Shu Wu, Shuhui Wang, Liang Wang
- Abstract要約: 本稿では,マルチモーダル再圧縮のためのLATent sTructureマイニング手法を提案する。
各モダリティの項目構造を学び、複数のモダリティを集約して潜在アイテムグラフを得る。
学習した潜在グラフに基づいてグラフ畳み込みを行い、アイテム表現に高次項目親和性を明示的に注入する。
- 参考スコア(独自算出の注目度): 46.70109406399858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimedia content is of predominance in the modern Web era. Investigating
how users interact with multimodal items is a continuing concern within the
rapid development of recommender systems. The majority of previous work focuses
on modeling user-item interactions with multimodal features included as side
information. However, this scheme is not well-designed for multimedia
recommendation. Specifically, only collaborative item-item relationships are
implicitly modeled through high-order item-user-item relations. Considering
that items are associated with rich contents in multiple modalities, we argue
that the latent item-item structures underlying these multimodal contents could
be beneficial for learning better item representations and further boosting
recommendation. To this end, we propose a LATent sTructure mining method for
multImodal reCommEndation, which we term LATTICE for brevity. To be specific,
in the proposed LATTICE model, we devise a novel modality-aware structure
learning layer, which learns item-item structures for each modality and
aggregates multiple modalities to obtain latent item graphs. Based on the
learned latent graphs, we perform graph convolutions to explicitly inject
high-order item affinities into item representations. These enriched item
representations can then be plugged into existing collaborative filtering
methods to make more accurate recommendations. Extensive experiments on three
real-world datasets demonstrate the superiority of our method over
state-of-the-art multimedia recommendation methods and validate the efficacy of
mining latent item-item relationships from multimodal features.
- Abstract(参考訳): マルチメディアコンテンツは現代ウェブ時代において優位である。
ユーザがマルチモーダルアイテムとどのように相互作用するかを調べることは、リコメンダシステムの迅速な開発における継続的な懸念である。
以前の作業の大部分は、サイド情報を含むマルチモーダル機能によるユーザ-テーマインタラクションのモデリングに重点を置いている。
しかし、この方式はマルチメディアレコメンデーションには適していない。
具体的には、コラボレーティブなアイテム-アイテム間関係のみが、高次アイテム-ユーザ-アイテム間関係を通じて暗黙的にモデル化される。
複数のモダリティのリッチなコンテンツに関連付けられていることを考えると、これらのマルチモーダルコンテンツを支える潜在アイテムイテム構造は、よりよいアイテム表現を学習し、さらに推奨を高めるのに役立つと論じる。
そこで本研究では,マルチモーダル再圧縮のためのLATent sTructureマイニング手法を提案する。
具体的には,提案する格子モデルにおいて,各モダリティの項目構造を学習し,複数のモダリティを集約して潜在項目グラフを得る新しいモダリティ認識構造学習層を考案する。
学習した潜在グラフに基づいてグラフ畳み込みを行い、アイテム表現に高次項目親和性を明示的に注入する。
これらの強化されたアイテム表現は、より正確な推奨を行うために既存のコラボレーティブフィルタリングメソッドにプラグインすることができる。
3つの実世界のデータセットに関する広範囲な実験により、最先端マルチメディア勧告手法よりも優れた方法が示され、マルチモーダル特徴から潜在項目-項目関係をマイニングする効果が検証された。
関連論文リスト
- ID Embedding as Subtle Features of Content and Structure for Multimodal
Recommendation [13.912849156590482]
コンテンツと構造の両方の意味的特徴を高めるために,ID埋め込みを取り入れた新しいレコメンデーションモデルを提案する。
具体的には、コンテンツ表現を強化するために、モダリティ融合とコントラスト学習を組み合わせたID埋め込みを組み込む階層的な注意機構を提案する。
論文 参考訳(メタデータ) (2023-11-10T09:41:28Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - MMAPS: End-to-End Multi-Grained Multi-Modal Attribute-Aware Product
Summarization [93.5217515566437]
マルチモーダル製品要約(MPS: Multi-modal Product Summarization)は、商品の特徴を強調して顧客の購入意欲を高めることを目的としている。
既存のMPS手法は有望な結果をもたらすが、それでもエンドツーエンドの製品要約は欠如している。
本稿では,eコマースにおける高品質な製品要約を生成するために,エンド・ツー・エンドのマルチモーダル属性対応製品要約手法(MMAPS)を提案する。
論文 参考訳(メタデータ) (2023-08-22T11:00:09Z) - MM-GEF: Multi-modal representation meet collaborative filtering [51.04679619309803]
本稿では,グラフアーリーフュージョンを用いたマルチモーダルレコメンデーション MM-GEF を提案する。
MM-GEFはマルチモーダル信号と協調信号の両方から得られる構造情報を注入することにより、洗練された項目表現を学習する。
論文 参考訳(メタデータ) (2023-08-14T15:47:36Z) - Information Screening whilst Exploiting! Multimodal Relation Extraction
with Feature Denoising and Multimodal Topic Modeling [96.75821232222201]
既存のマルチモーダル関係抽出(MRE)研究は、内部情報過剰利用と外部情報過多という2つの共存課題に直面している。
内部情報スクリーニングと外部情報活用を同時に実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:57Z) - Using Multiple Instance Learning to Build Multimodal Representations [3.354271620160378]
画像テキストによるマルチモーダル表現学習は、モダリティ間でデータを整列させ、重要な医療応用を可能にする。
本稿では,既存の多モーダル表現学習手法を特例として,置換不変スコア関数を構築するための汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-11T18:01:11Z) - Latent Structures Mining with Contrastive Modality Fusion for Multimedia
Recommendation [22.701371886522494]
マルチモーダルコンテンツに基づく潜在意味的項目-項目構造は,より優れた項目表現を学習する上で有益である,と我々は主張する。
モータリティを意識した構造学習モジュールを考案し,各モータリティの項目間関係を学習する。
論文 参考訳(メタデータ) (2021-11-01T03:37:02Z) - Pre-training Graph Transformer with Multimodal Side Information for
Recommendation [82.4194024706817]
本稿では,項目側情報とその関連性を考慮した事前学習戦略を提案する。
我々はMCNSamplingという新しいサンプリングアルゴリズムを開発し、各項目のコンテキスト近傍を選択する。
The proposed Pre-trained Multimodal Graph Transformer (PMGT) learns item representations with two objectives: 1) graph structure reconstruction, 2) masked node feature reconstruction。
論文 参考訳(メタデータ) (2020-10-23T10:30:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。