論文の概要: Refining Contrastive Learning and Homography Relations for Multi-Modal Recommendation
- arxiv url: http://arxiv.org/abs/2508.13745v1
- Date: Tue, 19 Aug 2025 11:35:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.902413
- Title: Refining Contrastive Learning and Homography Relations for Multi-Modal Recommendation
- Title(参考訳): マルチモーダルレコメンデーションのためのコントラスト学習とホログラフィーの関係
- Authors: Shouxing Ma, Yawen Zeng, Shiqing Wu, Guandong Xu,
- Abstract要約: 我々は,textbfRtextbfEfining multi-modtextbfAl conttextbfRastive learning and hotextbfMography relationsを提案する。
実世界の3つのデータセットに対する実験は、REARMの様々な最先端ベースラインに対する優位性を実証している。
- 参考スコア(独自算出の注目度): 19.01114538768217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-modal recommender system focuses on utilizing rich modal information ( i.e., images and textual descriptions) of items to improve recommendation performance. The current methods have achieved remarkable success with the powerful structure modeling capability of graph neural networks. However, these methods are often hindered by sparse data in real-world scenarios. Although contrastive learning and homography ( i.e., homogeneous graphs) are employed to address the data sparsity challenge, existing methods still suffer two main limitations: 1) Simple multi-modal feature contrasts fail to produce effective representations, causing noisy modal-shared features and loss of valuable information in modal-unique features; 2) The lack of exploration of the homograph relations between user interests and item co-occurrence results in incomplete mining of user-item interplay. To address the above limitations, we propose a novel framework for \textbf{R}\textbf{E}fining multi-mod\textbf{A}l cont\textbf{R}astive learning and ho\textbf{M}ography relations (\textbf{REARM}). Specifically, we complement multi-modal contrastive learning by employing meta-network and orthogonal constraint strategies, which filter out noise in modal-shared features and retain recommendation-relevant information in modal-unique features. To mine homogeneous relationships effectively, we integrate a newly constructed user interest graph and an item co-occurrence graph with the existing user co-occurrence and item semantic graphs for graph learning. The extensive experiments on three real-world datasets demonstrate the superiority of REARM to various state-of-the-art baselines. Our visualization further shows an improvement made by REARM in distinguishing between modal-shared and modal-unique features. Code is available \href{https://github.com/MrShouxingMa/REARM}{here}.
- Abstract(参考訳): マルチモーダルレコメンデータシステムは,レコメンデーション性能を向上させるために,商品のリッチなモーダル情報(画像やテキスト記述など)を活用することに焦点を当てている。
現在の手法は、グラフニューラルネットワークの強力な構造モデリング能力で大きな成功を収めている。
しかし、これらの手法は現実世界のシナリオにおいてスパースデータによって妨げられることが多い。
対照的な学習とホモグラフィー(ホモジニアスグラフ)はデータの疎性問題に対処するために使われているが、既存の手法には2つの大きな制限がある。
1) 単純なマルチモーダル特徴コントラストは、効果的な表現を得られず、ノイズの多いモーダル共有特徴と、モーダル共通特徴における貴重な情報の喪失を引き起こす。
2) ユーザ利害関係と項目共起関係の探索の欠如は, ユーザ利益相互関係の未完成なマイニングに繋がる。
上記の制約に対処するため,マルチmod\textbf{A}l cont\textbf{R}astive learningとho\textbf{M}ography Relation (\textbf{REARM}) の新たなフレームワークを提案する。
具体的には,マルチモーダルコントラスト学習をメタネットワークと直交制約戦略を用いて補完し,モーダル共有特徴の雑音を除去し,モーダル共通特徴のレコメンデーション関連情報を保持する。
同種関係を効果的に検討するため,新たに構築されたユーザ関心グラフとアイテム共起グラフと,既存のユーザ共起グラフとアイテム意味グラフを統合してグラフ学習を行う。
3つの実世界のデータセットに関する広範な実験は、REARMの様々な最先端ベースラインに対する優位性を実証している。
我々の可視化は、REARMがモーダルシェードとモーダルユニクの特徴を区別する点をさらに改善したことを示している。
コードは href{https://github.com/MrShouxingMa/REARM}{here} で入手できる。
関連論文リスト
- Reliable Multi-Modal Object Re-Identification via Modality-Aware Graph Reasoning [20.242422751083588]
我々は、MGRNet(Modality-aware Graph Reasoning Network)と呼ばれる新しいグラフ推論モデルを活用することを提案する。
まず、微粒な局所的詳細の抽出を強化するために、モダリティ対応グラフを構築する。
次に、選択グラフノードスワップ演算を用いて、低品質な局所的特徴の悪影響を軽減する。
論文 参考訳(メタデータ) (2025-04-21T03:58:40Z) - UniGraph2: Learning a Unified Embedding Space to Bind Multimodal Graphs [34.48393396390799]
マルチモーダルグラフ上での汎用的な表現学習を可能にする新しいクロスドメイングラフ基盤モデルを提案する。
UniGraph2は、グラフニューラルネットワーク(GNN)と共にモダリティ固有のエンコーダを使用して、統一された低次元埋め込み空間を学習する。
我々は,UniGraph2が表現学習,伝達学習,マルチモーダル生成タスクなどのタスクにおいて,最先端モデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2025-02-02T14:04:53Z) - NativE: Multi-modal Knowledge Graph Completion in the Wild [51.80447197290866]
本研究では,MMKGCを実現するための包括的フレームワークNativEを提案する。
NativEは、任意のモダリティに対して適応的な融合を可能にするリレーショナル誘導デュアルアダプティブフュージョンモジュールを提案する。
提案手法を評価するために,5つのデータセットを用いたWildKGCという新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-28T03:04:00Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Information Screening whilst Exploiting! Multimodal Relation Extraction
with Feature Denoising and Multimodal Topic Modeling [96.75821232222201]
既存のマルチモーダル関係抽出(MRE)研究は、内部情報過剰利用と外部情報過多という2つの共存課題に直面している。
内部情報スクリーニングと外部情報活用を同時に実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:57Z) - Multi-modal Multi-kernel Graph Learning for Autism Prediction and Biomarker Discovery [41.90994949022173]
本稿では,マルチモーダル統合の過程におけるモダリティ間の負の影響を相殺し,グラフから異種情報を抽出する手法を提案する。
本手法は,Autism Brain Imaging Data Exchange (ABIDE) データセットを用いて評価し,最先端の手法よりも優れている。
また,自閉症に関連する差別的脳領域を本モデルにより同定し,自閉症の病態研究の指針を提供する。
論文 参考訳(メタデータ) (2023-03-03T07:09:17Z) - Good Visual Guidance Makes A Better Extractor: Hierarchical Visual
Prefix for Multimodal Entity and Relation Extraction [88.6585431949086]
本稿では,視覚的な実体と関係抽出のための階層型ビジュアルプレフィックス融合NeTwork(HVPNeT)を提案する。
視覚的表現をプラグ可能な視覚的接頭辞とみなして, 誤りに敏感な予測決定のためのテキスト的表現を導出する。
3つのベンチマークデータセットの実験により,本手法の有効性が実証され,最先端の性能が得られた。
論文 参考訳(メタデータ) (2022-05-07T02:10:55Z) - Mutual Graph Learning for Camouflaged Object Detection [31.422775969808434]
主な課題は、前景の物体と背景の環境との固有の類似性によって、深いモデルによって抽出された特徴が区別できないことである。
我々は,正規格子からグラフ領域への従来の相互学習の考え方を一般化する,新しい相互グラフ学習モデルを設計する。
すべてのタスク間インタラクションをモデリングするために共有関数を使用するほとんどの相互学習アプローチとは対照的に、mglは異なる補完関係を扱うための型付き関数を備えている。
論文 参考訳(メタデータ) (2021-04-03T10:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。